摘要: 传统语言模型有个天生缺陷——只能从左往右读,就像你现在读这段文字一样,一个词一个词往下看,完全不知道后面会出现什么。人类可不是这么学语言的。看到"被告被判**_**",大脑会根据上下文直接联想到"有罪"或者"无罪",这就是双向理解在起作用。 Google搞出来的BERT(Bidirectional 阅读全文
posted @ 2025-10-21 20:24 deephub 阅读(5) 评论(0) 推荐(0)