摘要: 1. 什么是BERT? 丢一段句子进去,然后BERT处理一个一个token到一个一个embedding “词”跟“字”的差别,就如“潮水”和“潮”,“水”的差别,因此中文bert更多的用的是字,而不是词,因为中文的词无法穷举 结构是多个transformer encoder部分的堆叠 因为这里的in 阅读全文
posted @ 2022-01-28 11:40 Tsukinousag1 阅读(231) 评论(0) 推荐(0)