随笔分类 -  深度学习

摘要:Attention机制 1. Attention机制的本质思想 如果把Attention机制从上文讲述例子中的Encoder-Decoder框架中剥离,并进一步做抽象,可以更容易看懂Attention机制的本质思想。 将Source中的构成元素想象成是由一系列的<Key,Value>数据对构成,此时 阅读全文
posted @ 2022-05-23 23:00 killens 阅读(1835) 评论(0) 推荐(0)
摘要:1.cuda、cudann、tensorrt、torch2trt 对于具备了 root 权限的用户而言,在安装有多版本 cuda 的 Linux 系统上,只需切换 /usr/local/cuda 所指向的 cuda 目录,让其指向所需的 cuda 版本的安装位置,即可让 Pytorch 在运行时使用 阅读全文
posted @ 2022-05-23 22:59 killens 阅读(1158) 评论(0) 推荐(0)