Llama-recipes Quick start 的调试

先给出Llama-recipes项目的链接

LLaMa环境配置

conda create -n LLama python=3.10  # 建立虚拟环境
conda activate LLama # 激活虚拟环境
  • 按照LLama recipy 安装包

    cd 你的llama recipy 的存放位置
    
    pip install --extra-index-url https://download.pytorch.org/whl/test/cu118 llama-recipes
    

运行quick start

打开jupyter notebook, 打开前需要下载, 指令

pip install jupyter notebook -i 清华源   # 利用清华源进行安装


# 安装完毕

jupyter notebook  # 启动jupyter notebook


# 找到quick start 一步一步运行

Replicate API 获取

Replicate 为任何人提供了一种在云中运行生成式 AI 模型的简单、快速的方法。 有数千种模型可供使用。

关联你的GitHub账号, 获取token号

出现问题

在运行1.0.3. 2.1- 安装依赖这里出现无法安装fassi-gpu

安装出现清华源不能访问的现象

因此找到你的.condarc文件, 一般在C:\Users\用户名这里。

然后将它里面内容清空

随后, 采用网上说的方法:

conda install -c conda-forge faiss-gpu cudatoolkit=你的nvcc -V的cuda号或比这个低

需要额外安装的包

pip install pillow_heif
pip install opencv-python

报错1

ValueError: unstructured_inference is not installed, pytesseract is not installed and the text of the PDF is not extractable. To process this file, install unstructured_inference, install pytesseract, or remove copy protection from the PDF.

解决

pip install unstructured_inference

报错2

Following dependencies are missing: pikepdf, pypdf. Please install them using `pip install pikepdf pypdf`.
PDF text extraction failed, skip text extraction...

解决

pip install pikepdf pypdf

基本上就可以运行它里面的jupyter notebook了。

posted @ 2024-04-02 20:44  yiranxie233  阅读(150)  评论(0)    收藏  举报