会员
周边
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
又见阿郎
博客园
首页
新随笔
联系
订阅
管理
[置顶]
博客分类汇总
摘要: 汇总一下,自己写的博客分类,方便自己日常的学习与积累。 更多AI内容,请关注本人公众号 AI LLM 聊聊心理医疗领域大模型的落地思考 聊聊大模型微调训练全流程的思考 聊聊ChatGLM-6B医疗数据微调 聊聊大模型的微调实现及其应用 GLM及其相关系列 聊聊ChatGLM-6B源码分析(二) 聊聊
阅读全文
posted @ 2023-12-10 12:53 又见阿郎
阅读(155)
评论(0)
推荐(1)
[置顶]
聊聊基于AI模型MGeo实现行政区识别
摘要: 从现今与今后的发展来看,单一的业务不再仅仅依靠于传统的技术开发,而是应该结合AI模型来应用、实践。只有这样,才能更数智化,更高效化,更贴合时代的发展。 魔塔 社区就类似国外的Hugging Face,是一个模型即服务的运行平台。在这个平台上运行着很多的大模型示例,网站直接提供了试运行的环境,也可以下
阅读全文
posted @ 2023-11-11 22:58 又见阿郎
阅读(613)
评论(0)
推荐(2)
[置顶]
聊聊日志聚类算法及其在工作中的应用场景
摘要: 随着AI模型的普及应用与高速发展,主要的云厂商与AI大厂提供了对应的服务支持,使得业务的应用可以轻松对接AI算法,使其在实际项目中落地。 我个人也是极度推崇在项目中应用AI算法更轻松更数智化的兑现功能。 虽然AI门槛很高,但随着时间的推移与AI模型的发展,我相信对于普通的程序猿来说,还是可以入手且实
阅读全文
posted @ 2023-07-22 19:14 又见阿郎
阅读(779)
评论(0)
推荐(0)
2025年2月7日
聊聊GRPO算法——从Open R1来看如何训练DeepSeek R1模型
摘要: 概述 首发自个人公众号:阿郎小哥的随笔驿站 DeepSeek R1系列建议阅读之前的系列文章: 聊聊DeepSeek R1的一些总结 聊聊DeepSeek R1的开源复现库——Open R1之合成数据 聊聊DeepSeek R1的知识蒸馏与应用思考 简介 GRPO 是一种在线学习算法,这意味着它通过
阅读全文
posted @ 2025-02-07 13:58 又见阿郎
阅读(5662)
评论(0)
推荐(1)
2024年6月12日
聊聊GLM-4-9B开源模型的微调loss计算
摘要: 概述 Github官方地址:GLM-4 网上已经有很多关于微调的文章,介绍各种方式下的使用,这里不会赘述。我个人比较关心的是微调时的loss计算逻辑,这点在很多的文章都不会有相关的描述,因为大多数人都是关心如何使用之类的应用层,而不是其具体的底层逻辑,当然咱也说不清太底层的计算。 可了解其它loss
阅读全文
posted @ 2024-06-12 10:21 又见阿郎
阅读(692)
评论(0)
推荐(1)
2024年4月22日
聊聊从大模型来看NLP解决方案之UIE
摘要: 转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote 概述 自然语言处理NLP任务的实现,相比较以前基于传统机器学习算法实现方法,现在越来越集中使用大模型来实现。 通过——数据标注-模型训练-模型调优/微调-模型压缩-预测部署的大模型流程,覆盖NLP多场景满足
阅读全文
posted @ 2024-04-22 08:42 又见阿郎
阅读(947)
评论(0)
推荐(0)
2024年4月16日
聊聊大模型的屏蔽词工程
摘要: 转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote 概述 在做微调训练时,鉴于业务场景的需要,可能会存在微调数据集中含有敏感词汇,譬如:自杀、跳楼等。而开源模型可能没有做敏感词汇的屏蔽工程。因此可能就会出现不可预控的现象,而我遇到的是,当我输入敏感词汇时,模
阅读全文
posted @ 2024-04-16 10:03 又见阿郎
阅读(1649)
评论(0)
推荐(0)
2024年4月9日
聊聊ChatGLM3多用户并发API调用的问题
摘要: 转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote 背景 目前在公司内部4张A10的GPU服务器上部署了ChatGLM3开源模型;然后部署了官方默认的web_demo、api_demo两种模式;重新设计了前端,支持H5和安卓两个客户端调用。但却发现了不能并发
阅读全文
posted @ 2024-04-09 10:29 又见阿郎
阅读(796)
评论(1)
推荐(1)
2024年3月27日
聊聊大模型"打字机"效果的背后技术——SSE
摘要: 转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote SSE:Server Sent Event;服务器发送事件。 Server-Sent Events(SSE)是一种由服务器向客户端推送实时数据的技术。它是构建基于事件的、服务器到客户端的通信的一种方法,特别
阅读全文
posted @ 2024-03-27 19:46 又见阿郎
阅读(798)
评论(1)
推荐(0)
2024年3月26日
聊聊多模态大模型处理的思考
摘要: 转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote 多模态:文本、音频、视频、图像等多形态的展现形式。 目前部门内业务要求领域大模型需要是多模态——支持音频/文本。从个人思考的角度来审视下,审视下多模态大模型的实现方式。 首先就要区分输入与输出,即输入的模态
阅读全文
posted @ 2024-03-26 17:08 又见阿郎
阅读(553)
评论(0)
推荐(0)
2024年3月25日
聊聊ShareGPT格式的微调数据集
摘要: 转载请注明住处:https://www.cnblogs.com/zhiyong-ITNote 概述 ShareGPT格式的数据集中,一般是如下格式: [ { "conversations": [ { "from": "human", "value": "I saw a dress that I li
阅读全文
posted @ 2024-03-25 09:59 又见阿郎
阅读(3863)
评论(0)
推荐(1)
2024年3月20日
聊聊心理医疗领域大模型的落地思考
摘要: 转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote 近来,工作偏向于心理医疗领域方面的大模型,仅从领域大模型的落地,聊聊个人的一些思考。 硬件 准备好花钱买GPU。 领域大模型 业务场景的思考 首先需要审视斟酌业务领域的特殊性与可行性,我们要做的是心理领域,
阅读全文
posted @ 2024-03-20 21:36 又见阿郎
阅读(470)
评论(0)
推荐(1)
2024年3月18日
聊聊大模型微调训练全流程的思考
摘要: 转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote 参考现有的中文医疗模型:MedicalGPT、CareGPT等领域模型的训练流程,结合ChatGPT的训练流程,总结如下: 在预训练阶段,模型会从大量无标注文本数据集中学习领域/通用知识;其次使用{有监督微
阅读全文
posted @ 2024-03-18 16:16 又见阿郎
阅读(2438)
评论(2)
推荐(1)
下一页
公告