摘要: 树状数组应用 该栏目不断更新,各种树状数组题目 事情的起因是一道题目树上逆序对 看到题目的时候,就想到用树状数组去写,但是关于逆序对怎么用树状数组去写,记忆有些模糊了,就去翻了翻洛谷的板子题逆序对,然后惊奇的发现,原来写的方法,因为数据更新而被卡掉了。原来是用map做的离散化,因此时间复杂度是$O( 阅读全文
posted @ 2022-03-18 21:43 艾特玖 阅读(33) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2021-10-10 21:41 艾特玖 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 赛前准备: 准备好IN文档,OUT文档,题目文档; 赛时注意: 禁止摆烂,心态摆正 跟榜1 如果是被卡了一次的题目,交的时候,要保证两人抉择。 如果是没什么思路的题目,但是很多人过,要避免想复杂了,试试暴力。 卡题,思路引导 如果正向无法解决的复杂问题,从反向考虑一下,效果可能会好很多 用前缀和数组 阅读全文
posted @ 2021-10-07 17:39 艾特玖 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 作业 基础作业 使用 OpenCompass 评测 InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能 使用下边的命令 python run.py --datasets ceval_gen --hf-path /share/temp/model_repos/internlm2- 阅读全文
posted @ 2024-01-24 16:35 艾特玖 阅读(17) 评论(0) 推荐(0) 编辑
摘要: OpenCompass介绍 评测对象 本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。 基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。 对话模型:一 阅读全文
posted @ 2024-01-23 07:49 艾特玖 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 作业 基础作业: 进阶作业(可选做) 将第四节课训练自我认知小助手模型使用 LMDeploy 量化部署到 OpenXLab 平台。 将quant_output上传到平台中 对internlm-chat-7b模型进行量化,并同时使用KV Cache量化,使用量化后的模型完成API服务的部署,分别对比模 阅读全文
posted @ 2024-01-19 19:43 艾特玖 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 环境配置 创建新的conda环境lmdeploy 服务部署 这一部分主要涉及本地推理和部署。我们先看一张图。 我们把从架构上把整个服务流程分成下面几个模块。 模型推理/服务。主要提供模型本身的推理,一般来说可以和具体业务解耦,专注模型推理本身性能的优化。可以以模块、API等多种方式提供。 Clien 阅读全文
posted @ 2024-01-19 19:41 艾特玖 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 基础作业 基础作业的教程给的还是蛮详细的,这里就给一个最后的项目结构 前后对比 batch_size我刚开始设置的太大了,一直训不下去!! 进阶作业 创建模型 https://openxlab.org.cn/models/detail/aitejiu/personal_assistant 创建应用 阅读全文
posted @ 2024-01-12 15:54 艾特玖 阅读(31) 评论(0) 推荐(0) 编辑
摘要: 快速上手 安装 安装后的目录 微调 准备配置文件 拷贝一个配置文件到当前目录 拉取模型 数据集下载 修改配置文件 一些常用参数 开始微调 xtuner train ${CONFIG_NAME_OR_PATH} # 也可以增加 deepspeed 进行训练加速: xtuner train ${CONF 阅读全文
posted @ 2024-01-12 11:13 艾特玖 阅读(86) 评论(0) 推荐(0) 编辑
摘要: 基础作业 这一部分在第三次笔记中可以找到详细的 这里就给一个结果展示 运行结果 进阶作业 收集数据 这里我只收集了法律相关的三个数据,构造了对应的向量数据库 这里用了langchain中的UnstructPDFLoader,build_database.py中有对应的代码,大家可以看一看 这里不放代 阅读全文
posted @ 2024-01-10 11:14 艾特玖 阅读(31) 评论(0) 推荐(0) 编辑
摘要: 基于 InternLM 和 LangChain 搭建你的知识库 环境配置 跟之前相同,我们创建一个InterLM的环境 然后把需要的python包安装一下 模型下载 模型的话,之前第二次的课中,已经把模型载入了 LangChain 相关环境配置 LangChain是一个可以让大家很轻松的使用大模型进 阅读全文
posted @ 2024-01-10 11:07 艾特玖 阅读(67) 评论(0) 推荐(0) 编辑
摘要: 创作300字小故事 运行网页端的模型 使用huggingface hub下载 安装包 在/code目录下新建InternLM-20B文件夹,在/code/InternLM-20B文件夹下新建文件getmodel.;py 不出预料超时了 Lagent 智能体工具调用 Demo 环境准备 跟上边的一样 阅读全文
posted @ 2024-01-06 16:21 艾特玖 阅读(47) 评论(0) 推荐(0) 编辑
摘要: InternLM-Chat-7B 智能对话 Demo 环境准备 python版本与需要安装的包 模型下载 从share文件夹中获取所需要的模型和数据 将代码移动到/root/code/InterLM文件夹,同时切换代码版本 修改web_demo.py中的模型地址,换为本地地址 创建文件cli_dem 阅读全文
posted @ 2024-01-05 20:27 艾特玖 阅读(30) 评论(0) 推荐(0) 编辑