摘要:
L1G5-XTuner 微调个人小助手认知 1. 概念明晰 1.1 指令微调的概念 首先我们要认清指令微调的大模型训练过程中所属的位置: 大模型的训练过程可以分成预训练和后训练两个阶段: 而指令微调就是后训练的第一步: 指令微调这一步有三种范式,要注意第三种范式也叫做指令微调。 其中第二和第三种范式 阅读全文
posted @ 2025-02-17 20:48
sakuraLGGM
阅读(171)
评论(0)
推荐(0)
摘要:
L1G2-玩转书生「多模态对话」与「AI搜索」产品 基础任务 MindSearch 网址 问题:目前生成式AI在学术和工业界有什么最新进展? MindSearch将我提出的问题拆分为了两个子问题,并分别搜索,整合得到最终回复。 对子问题“学术界生成式AI进展”的解答: 对子问题“学术界生成式AI进展 阅读全文
posted @ 2025-02-17 20:47
sakuraLGGM
阅读(21)
评论(0)
推荐(0)
摘要:
L1G1-书生浦语大模型开源开放体系 一、开源历程与发展 书生·浦语(InternLM)大模型的开源发展历程展现了其在性能和功能上的持续突破: 1. 首次开源(2023年7月6日) InternLM-7B模型首次开源发布 同步发布全链条开源工具体系,包括XTuner微调工具、LMDeploy部署工具 阅读全文
posted @ 2025-02-17 20:47
sakuraLGGM
阅读(74)
评论(0)
推荐(0)

浙公网安备 33010602011771号