DeepSeek的线上面试 —— DPO为什么用KL散度,不用交叉熵? 机器学习中什么时候必须用KL散度,什么时候必须用交叉熵,什么时候二者可互换——(续)
前文地址:
https://www.cnblogs.com/xyz/p/18707896
说下我个人的一些观点。
我认为:
数学意义上的等价并不是机器学习算法中的优先考虑的选项。虽然机器学习或者说AI是和数学领域难以割舍开的,但是机器学习和AI并不是数学,二者并不等价,或者说数学领域的评判标准和机器学习领域的评判标准并不一致。在机器学习领域更多的是要看 work 不 work。虽然二者在数学意义上等价,但是在数学形式上却不同,KL散度的数学形式更适合于两个概率分布之间的差异的体现。
本博客是博主个人学习时的一些记录,不保证是为原创,个别文章加入了转载的源地址,还有个别文章是汇总网上多份资料所成,在这之中也必有疏漏未加标注处,如有侵权请与博主联系。
如果未特殊标注则为原创,遵循 CC 4.0 BY-SA 版权协议。
posted on 2025-02-27 08:24 Angry_Panda 阅读(50) 评论(0) 收藏 举报
浙公网安备 33010602011771号