摘要:
知识点 注意力机制(Attention)的主要用途是什么? 选择重要的信息并忽略不相关的信息 Transformer 模型是基于什么理论构建的? C. 注意力机制(Attention) GPT 和 BERT 的主要区别是什么? C. GPT 使用了单向自注意力,而 BERT 使用了双向自注意力 在注 阅读全文
知识点 注意力机制(Attention)的主要用途是什么? 选择重要的信息并忽略不相关的信息 Transformer 模型是基于什么理论构建的? C. 注意力机制(Attention) GPT 和 BERT 的主要区别是什么? C. GPT 使用了单向自注意力,而 BERT 使用了双向自注意力 在注 阅读全文
posted @ 2024-12-19 23:55
李好秀
阅读(187)
评论(0)
推荐(0)

浙公网安备 33010602011771号