会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2025年10月21日
深入BERT内核:用数学解密掩码语言模型的工作原理
摘要: 传统语言模型有个天生缺陷——只能从左往右读,就像你现在读这段文字一样,一个词一个词往下看,完全不知道后面会出现什么。人类可不是这么学语言的。看到"被告被判**_**",大脑会根据上下文直接联想到"有罪"或者"无罪",这就是双向理解在起作用。 Google搞出来的BERT(Bidirectional
阅读全文
posted @ 2025-10-21 20:24 deephub
阅读(5)
评论(0)
推荐(0)
公告