摘要: 之前在seq2seq算法上浪费了太多时间了。。。搞得本来早就应该进行Attention被拖到现在,真实无语了,被自己的愚蠢给吓到了。 What is Attention 我个人的理解是Attention是一种重要度区分机制。 注意力使得我们关注的东西具有了区分度,也就是说,原本没有差异的一组事物,被 阅读全文
posted @ 2021-11-15 17:13 kalice 阅读(131) 评论(0) 推荐(0)