会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
LOADING . . .
qizhou
博客园
首页
新随笔
联系
管理
2025年12月31日
论文解读:One-shot Entropy Minimization
摘要: 一篇还未发表的论文,但做了大量实验对熵最小化技巧提升模型推理能力进行了探索。本文训练了13440个大型语言模型,发现熵最小化(EM)只需要一个未标记的数据和10步优化,性能提升就比RL还强。基于两个直接而简单的假设: 生成大型语言模型的采样过程本质上是随机的。 正确答案的熵通常低于错误答案。 EM和
阅读全文
posted @ 2025-12-31 15:36 颀周
阅读(140)
评论(0)
推荐(1)
公告
很高兴能帮到你~
点赞