随笔分类 - 深度学习
摘要:Attention机制 1. Attention机制的本质思想 如果把Attention机制从上文讲述例子中的Encoder-Decoder框架中剥离,并进一步做抽象,可以更容易看懂Attention机制的本质思想。 将Source中的构成元素想象成是由一系列的<Key,Value>数据对构成,此时
阅读全文
摘要:1.cuda、cudann、tensorrt、torch2trt 对于具备了 root 权限的用户而言,在安装有多版本 cuda 的 Linux 系统上,只需切换 /usr/local/cuda 所指向的 cuda 目录,让其指向所需的 cuda 版本的安装位置,即可让 Pytorch 在运行时使用
阅读全文

浙公网安备 33010602011771号