摘要:
前面讲解了GPT、BERT相关内容,这一篇记录剩下GPT-2、GPT-3、GPT-4。 相关资料 GPT1: Improving Language Understanding by Generative Pre-Training GPT2: Language Models are Unsupervi 阅读全文
摘要:
Transformer于2017年提出,最开始应用于NLP领域,随着Transformer的快速发展,在视觉领域中也越来越多的论文或应用用到了Transformer,这里记录一下自己学习的一些知识点。 PDF: 《Attention Is All You Need》 Code: attention- 阅读全文