随笔分类 - AI
摘要:OpenSearch Docker 安装步骤 https://blog.csdn.net/abu935009066/article/details/134569603
阅读全文
摘要:企业大语言模型落地的困难可能包括以下几个方面: 技术难度:企业大语言模型需要处理大量的数据和复杂的算法,需要具备深厚的技术积累和研发能力。同时,企业还需要考虑模型的可扩展性和可维护性,以应对不断变化的业务需求。 数据难题:企业大语言模型需要大量的高质量数据进行训练,但数据的获取和处理往往非常困难。企
阅读全文
摘要:不久前Flash-attention 2.3.2 终于支持了 Windows,推荐直接使用大神编译好的whl安装 github.com/bdashore3/flash-attention/releasesstable diffusion webui flash-attention2性能测试 安装环境
阅读全文
摘要:问题: 2023-11-26 07:45:38 | ERROR | stderr | raise HFValidationError(2023-11-26 07:45:38 | ERROR | stderr | huggingface_hub.utils._validators.HFValidati
阅读全文
摘要:llama.cpp 在ubuntu环境下编译: 1. 下载好模型文件,如 llama-2-7b-chat-hf; Mistral-7B-Instruct-v0.1/ggml-model-f16-q8_0.gguf2. 建立conda环境 conda create -n llamacpp python
阅读全文
摘要:问题:TypeError: issubclass() arg 1 must be a class原因: 这是由python中的后端包之一的兼容性问题引起的问题,包“pydantic” 执行下面命令可以解决 python -m pip install -U pydantic spacy
阅读全文
摘要:# 由于我只能访问hugginface网站,但是不能下载里面的数据,所以编写下面的代码,获取从huggingface下载数据的链接。在从其它路径下载数据。 # 获取huggingface某个模型所有要下载数据的命令行。 # 可以把结果复制到autodl里,进行执行。速度可以达到13M/s # 然后在
阅读全文
摘要:一、推理:显存计算 推理的显存大头就是:参数量,参数类型版本一般有以下四种: float 32位 浮点数 4 字节 half / BF16 16位 浮点数 2 字节 int8 8位 整数 1 字节 int4 4位 整数 0.5 字节 以 7B-BF16 版本为例,需要显存 = 数量 * 类型大小 =
阅读全文
摘要:1、下载langchain-chatchat git clone https://github.com/chatchat-space/Langchain-Chatchat.git 2、下载llama2-7b-chat-hf git lfs installgit clone https://huggi
阅读全文
摘要:apt install nvidia-cuda-toolkit nvcc --version nvidia-smi
阅读全文
摘要:https://www.libreoffice.org/get-help/install-howto PPT等格式向量化时,可能会需要安装libreoffice
阅读全文
摘要:pip install spacy 到github下载zh_core_web_sm-3.6.0-py3-none-any.whl (选择需要的版本: 中文: zh_core_web_sm · Releases · explosion/spacy-models (github.com) 英文:en_c
阅读全文
摘要:检查torch是否是gpu版本 1. 查看PyTorch版本: 打开Python交互式环境,导入torch包,使用命令torch.__version__查看PyTorch版本,如果版本名称中包含“cuda”,则表示是GPU版本。 例如,如果版本名称为“1.7.0+cu101”,则是支持CUDA 10
阅读全文
摘要:huggingface托管的大模型文件较大,用git拉取需要LFS支持,速度比较慢,也容易断线,需要不断尝试,费时费力。 某些模型可以使用镜像网站 https://aliendao.cn 下载,逐个文件下载比较麻烦,如果有python环境,建议用下载器model_download.py下载,下载速度
阅读全文
摘要:LangChains 是一个用于开发由语言模型驱动的应用程序的框架。他主要拥有 2 个能力:可以将 LLM 模型与外部数据源进行连接&允许与 LLM 模型进行交互。这个库目前非常活跃,每天都在迭代,已经有 22k 的 star,更新速度飞快。 基础功能 LLM 调用 支持多种模型接口,比如 Open
阅读全文
摘要:项目启动选项 usage: langchina-ChatGLM [-h] [--no-remote-model] [--model MODEL] [--lora LORA] [--model-dir MODEL_DIR] [--lora-dir LORA_DIR] [--cpu] [--auto-d
阅读全文
摘要:方法1: 编写一个url.list文件,一次都下载。 wget -i url.list -o [log_file] -P [target_dir] 方法2: 编写代码可能并不是好办法。 import datetime import os import threading from huggingfa
阅读全文

浙公网安备 33010602011771号