服务器的一些使用命令

使用 watch -n 0.5 nvidia-smi  命令来0.5秒刷新一次显卡运行资源占用情况

 

另外再huggingface上的模型直接用代码下载不下来,可以去官网 https://huggingface.co/  找对应的模型代码 进行下载

一般下载第一个是配置文件;config.json。第二个是词典文件,vocab.json。第三个是预训练模型文件,如果你使用pytorch则保存pytorch_model.bin文件,如果你使用tensorflow 2,则保存tf_model.h5

一般moudle.json 不要下 会报错, 其他都可以下载,然后放入以模型命名的文件夹中 ,在调用时  

model = SentenceTransformer('Model/paraphrase-xlm-r-multilingual-v1/')   以/结尾进入文件夹,会找到对应的模型文件

 

 

 

 

在linux中创建循环境并按照requirements.txt 安装

conda create -n jxppytorch python=3.9

pip install -r /media/b417/E/Workspace/jxp/formula-embedding-master/requirements.txt

 

 

 

显卡算力强 需要高版本cuda才能驱动

# 首先卸载已有的pytorch
pip uninstall torch
pip uninstall torchvision
pip uninstall torchaudio
# 安装
pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

 

 

 

 

a6000的环境创建

conda create -n jxp python=3.10

pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https://download.pytorch.org/whl/cu118

posted @ 2023-09-17 18:49  不咬牙  阅读(38)  评论(0)    收藏  举报