随笔分类 -  深度学习 / 大模型 / 书生浦语大模型

摘要:Smiling & Weeping 天气不好的时候,我会小心地把自己心上的裂缝补起来。为什么?... LMDeploy 的量化和部署 1 环境配置 2 服务部署 2.1 模型转换 2.1.1 在线转换 2.1.2 离线转换 2.2 TurboMind 推理+命令行本地对话 2.3 TurboMind 阅读全文
posted @ 2024-01-29 19:25 smiling&weeping 阅读(412) 评论(0) 推荐(0)
摘要:Smiling & Weeping 山海自有归期,风雨自有相逢 大模型评测教程 随着人工智能技术的快速发展, 大规模预训练自然语言模型成为了研究热点和关注焦点。OpenAI于2018年提出了第一代GPT模型,开辟了自然语言模型生成式预训练的路线。沿着这条路线,随后又陆续发布了GPT-2和GPT-3模 阅读全文
posted @ 2024-01-29 19:19 smiling&weeping 阅读(271) 评论(0) 推荐(0)
摘要:Smiling & Weeping 愿我们都做生活的高手 -- 昭阳&乐瑶 阅读全文
posted @ 2024-01-26 20:08 smiling&weeping 阅读(14) 评论(0) 推荐(0)
摘要:Smiling & Weeping 有趣是片难寻的土,灵魂是朵难养的花 一些关于的模型训练的小tips: 1.ctrl+c中断 2.tmux new -s 名称 3.ctrl+b+D退出(没断) 基础作业:构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它 阅读全文
posted @ 2024-01-14 16:07 smiling&weeping 阅读(50) 评论(0) 推荐(0)
摘要:Smiling & Weeping 你把时间对折,我就在裂缝中喜欢你 使用 LangChain+InternLM的RAG向量检索外挂知识库 > 探索模型知识边界(笔记&&作业) 基础作业: 进阶作业: 选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在 OpenXLab  阅读全文
posted @ 2024-01-14 15:43 smiling&weeping 阅读(28) 评论(0) 推荐(0)
摘要:Smiling & Weeping 暂且负些霜雪,拭与春天 基础作业: 使用 InternLM-Chat-7B 模型生成 300 字的小故事(需截图) 熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config. 阅读全文
posted @ 2024-01-08 12:23 smiling&weeping 阅读(17) 评论(0) 推荐(0)
摘要:Smiling & Weeping 以后隔着三千梨花树,六百湘水,你不必哽咽,我始终记得见你的第一面 2023大模型成为热门关键词 而通用大模型在大模型中适用范围和效率无疑会更高 那么书生·浦语20B开源大模型性能介绍 那么从模型到应用的主要流程大概 书生·浦语全链条开源开放体系 全链条开源开放体系 阅读全文
posted @ 2024-01-06 18:15 smiling&weeping 阅读(36) 评论(0) 推荐(0)