摘要: 写在前面 事实证明,在部分情况下,依然有开启deepspeed的必要性 这是上一篇文章,讲述使用双卡/8卡3090微调llama2-70B/13B模型 - AlphaInf - 博客园 (cnblogs.com) 但这一篇文章,存在下面的几个问题: 如果训练的数据的seq_len过长,那么很有可能出 阅读全文
posted @ 2024-02-02 19:00 AlphaInf 阅读(403) 评论(0) 推荐(5) 编辑
摘要: 写在前面 VLLM框架升级了! 0.3.0版本,拥有更高的推理速度(实测解析input的速度+40%),支持S-LoRA(一个主模型外套多个LoRA模型),很值得升级。 本篇文章将会记录升级过程中遇到的坑爹事情 硬件环境 主板:PCIE 4.0 x16 GPU:8x 3090 内存: DDR4 76 阅读全文
posted @ 2024-02-02 01:30 AlphaInf 阅读(374) 评论(0) 推荐(3) 编辑
摘要: 写在前面 原生的tigerbot似乎并不支持函数调用,于是我来支持一下 数据集 我在huggingface上找了个英文的数据集 https://huggingface.co/datasets/sadmoseby/sample-function-call 这里面包含了1k组的函数调用,这个数据集的特点 阅读全文
posted @ 2023-12-23 16:01 AlphaInf 阅读(61) 评论(0) 推荐(2) 编辑
摘要: 写在前面 本篇博文将会教大家如何在消费级的设备(或者各种超级便宜的洋垃圾上)实现13B/70B等无法在单张消费级显卡上加载(但可以在一台机器上的多张卡上加载)的模型的微调。 由于绝大部分做实验,仅要求实现推理,或者在微调时没有资源上到全量/13B+级别的真·大模型的微调,没有涉及到将一个模型放在多张 阅读全文
posted @ 2023-12-10 14:26 AlphaInf 阅读(3767) 评论(1) 推荐(35) 编辑
摘要: TigerBot-70b-4k-v4 推理部署 模型本地部署(基于HuggingFace) 根据实际测试,加载模型需要约129G显存,最低需要6张3090显卡(流水线并行) 如果使用vllm进行加速推理(张量并行),考虑8张3090显卡或者4张A100-40G(模型分割要求) 模型下载 截至目前,模 阅读全文
posted @ 2023-12-07 21:44 AlphaInf 阅读(2243) 评论(1) 推荐(24) 编辑
摘要: 官方环境要求(推理、微调): 本次部署使用单卡A100-40G显卡。 部署 虚拟环境创建: conda create -n test python=3.10.9 conda activate test #启动虚拟环境 拉取 Llama2-Chinese git clone https://githu 阅读全文
posted @ 2023-09-14 18:08 AlphaInf 阅读(932) 评论(0) 推荐(10) 编辑
摘要: 官方文档 镜像要求A100-40G-8卡 硬件配置: 软件配置: 1.准备 由于恒源云暂时缺少硬件资源,此次部署使用8*3090-24G配置(需要量化int8): 注意镜像选择,pytorch版本选择1.13,不要选择2.0,2.0会产生不兼容的情况。 同时需要注意扩容,否则模型存放不够空间 创建实 阅读全文
posted @ 2023-09-14 17:53 AlphaInf 阅读(298) 评论(0) 推荐(4) 编辑
摘要: 根据实际测试,加载模型需要130G显存,最低需要4张A100*40G显卡。 1.基于Transformers库推理: 首先安装最新版本的transformers: git clone https://github.com/huggingface/transformers.git cd transfo 阅读全文
posted @ 2023-09-14 17:34 AlphaInf 阅读(2773) 评论(1) 推荐(30) 编辑
摘要: 写在前面 笔者将在这篇文章中,写下有关过程监督,反馈对齐,奖励模型,和数据构造相关的论文的笔记。 论文主要来自Openai的论文。 问题坑 奖励模型是如何输出精确的标记的?在解决方案的每个标记后做出标量预测(具体细节?)。 预训练是怎么把知识注入进模型的,然后如何激活出这些知识 论文挖坑列表 基于过 阅读全文
posted @ 2023-06-11 23:31 AlphaInf 阅读(139) 评论(0) 推荐(9) 编辑
摘要: 写在前面 本文将详细讲解如何在Proteus中,使用80C51单片机,编写汇编程序,实现出租车计费器,实现实时速度显示,行使里程统计及费用统计,以及自动的清零。 该题包含两个输入和三个输出,其中一个输入是车轮转动的更新信号,每更新一次代表车轮转了一圈,另一个输入信号是费用计费/清零输入按钮。而输出是 阅读全文
posted @ 2023-06-11 12:31 AlphaInf 阅读(183) 评论(0) 推荐(5) 编辑
摘要: 下载依赖 pip install rouge_chinese nltk jieba datasets 下载训练数据集(示例) ADGEN 数据集任务为根据输入(content)生成一段广告词(summary)。 { "content": "类型#上衣*版型#宽松*版型#显瘦*图案#线条*衣样式#衬衫 阅读全文
posted @ 2023-05-06 10:06 AlphaInf 阅读(291) 评论(0) 推荐(5) 编辑
摘要: 整体流程于上一份微调文件基本一致,此份是详细备份及关键说明: 1.处理文件 处理好法律名词解释为json文件的格式,其中prompt column为 content,response column 为summary,如下: (如果KEY不是content-summary的形式,也可修改train.s 阅读全文
posted @ 2023-05-06 09:59 AlphaInf 阅读(1410) 评论(0) 推荐(15) 编辑
摘要: 写在前面: ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数,使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。由于其对显存硬件要求较高(详见下图),对于硬件配置较低的使用者不太 阅读全文
posted @ 2023-04-09 14:31 AlphaInf 阅读(1244) 评论(2) 推荐(16) 编辑
摘要: https://platform.openai.com/docs/guides/fine-tuning(官方文档) ​ 当我们使用语言模型时候,往往需要给多个例子供ai参考,才能给出更为准确的回答,这种方法费时费力。而通过微调(Fine-tuning)能够把原始模型打造成更加适合你的任务需求的模型。 阅读全文
posted @ 2023-04-04 13:21 AlphaInf 阅读(2192) 评论(1) 推荐(24) 编辑
摘要: 什么是算法?它有什么特点? 算法是一组规则或过程,用于解决特定问题或完成特定任务。算法通常包括一系列的步骤和操作,可以将输入数据转换为输出数据。算法可以应用于各种领域,如计算机科学、数学、工程等,用于解决计算、优化、搜索、排序、加密等问题。 算法有以下几个特点: 精确性:算法必须准确无误地描述每一个 阅读全文
posted @ 2023-03-30 20:30 AlphaInf 阅读(138) 评论(0) 推荐(3) 编辑
摘要: 写在前面 经过半天的折腾,我终于实现了通过调用ChatGPT的API 下面是一些坑底的地方 1,Python必须是3.7.1以上的版本 2,安装Openai的库,得是0.27开头的,如果是Python 3.6.3则可能只能安装0.10以下的版本 3,如果是在一个空的环境中pip install op 阅读全文
posted @ 2023-03-27 17:56 AlphaInf 阅读(4208) 评论(2) 推荐(53) 编辑
摘要: 问题描述 从本地提交代码到 GitHub 远程仓库,由于 DNS 污染的问题,国内提交速度很慢,有时候还报错。笔者自己花钱买了一个梯子,但开启梯子的代理后仍然没有解决问题,不过 Google 等倒是可以访问了。 原因分析 虽然开启了代理,但可能 git push 并没有走代理,因为需要在 git 里 阅读全文
posted @ 2023-02-24 11:00 AlphaInf 阅读(1534) 评论(0) 推荐(47) 编辑
摘要: 写在前面 doccano是一个给文本进行一系列标记的数据标记平台 下文将简单描述如何搭建doccano,以及遇到的一些坑爹情况 基本环境信息 系统:windows 10 Python版本:3.6.3 (因为是3.6的所以需要打补丁) 数据库:Release 11.2.0.2.0 Production 阅读全文
posted @ 2023-01-31 10:22 AlphaInf 阅读(749) 评论(0) 推荐(8) 编辑
摘要: 写在前面 近期要写一些后端相关的代码,前端采用POST调用后端服务。 在此之前,本人并不知道POST是一个什么东西,本文将简单对POST进行介绍,并提供一个简短的POST样例 感谢ChatGPT,我是被ChatGPT教会的(这不比Google好得多) 什么是POST POST请求是一种网络请求方法, 阅读全文
posted @ 2023-01-20 22:27 AlphaInf 阅读(153) 评论(0) 推荐(5) 编辑
摘要: 基于LSTM的中文姓名性别预测 写在前面 这是本人编写的首个基于调库的机器学习程序,算是一个简单的练手项目。 本程序可以根据输入的中文姓名推测其对应的性别 根据人的名字判断人的性别是一个很有意思的工作,我们可以用朴素贝叶斯法,SVM法或神经网络解决。Python有个第三方库叫做ngender,它采用 阅读全文
posted @ 2022-11-24 16:29 AlphaInf 阅读(669) 评论(2) 推荐(8) 编辑