摘要:
【论文精读】Multi-modal Knowledge Graphs for Recommender Systems 论文链接:Multi-modal knowledge graphs for recommender systems 年份:2020 引用数:270+ 影响:首次将知识图谱用于多模态推 阅读全文
摘要:
【论文精读】Lightgcn: Simplifying and powering graph convolution network for recommendation 链接:Lightgcn: Simplifying and powering graph convolution network 阅读全文
摘要:
配环境与做实验的一些技巧 1. 配环境 配环境时,用博客记录下来自己遇到了什么问题,如何解决的。如果不记录下来,那么很容易反复卡在同一个问题上。 2. 做实验 事先确定好实验的纲要:在博客上用一个表格,事先定好自己要做什么实验,每做好一个实验后,记录相应的结果。 实验开始前,首先预估本次实验的时间, 阅读全文
摘要:
【论文精读】 Lora:Low-rank adaptation of large language models 论文地址:Lora:Low-rank adaptation of large language models 年份:2021 引用量:8000+ 关键词:LLM的高效微调 目录【论文精读 阅读全文
摘要:
升学以来,出于需要,自学了很多知识,于是自己也有了一些感悟,今整理下来,以作备忘用。 自学的三个步骤 如何通过自学,快速入门一个领域?在我看来,有三个步骤: 看一些概括性的材料,形成对这个领域的基本认识。例如,可以选择综述,教材,网课或者是一些科普视频来看,看完这些材料,你可以基本知道:“原来这个领 阅读全文
摘要:
Summary 目录Summary标准序列推荐模型其他推荐模型FPMCDNN(Pooling)GRU4Rec(RNN-based)GRU4Rec+(RNN-based)Caser(CNN-based)SASRec(Transformer-based)DIN(Transformer-based)BER 阅读全文
摘要:
【神经网络组件】Transformer Encoder 目录【神经网络组件】Transformer Encoder1. seq2seq模型2. 为什么只需要Transformer Encoder3. Transformer Encoder的结构 1. seq2seq模型 什么是sequence:se 阅读全文
摘要:
【论文精读】BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 作者: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanov 阅读全文
摘要:
【论文精读】On the Relationship Between Self-Attention and Convolutional Layers 作者: Jean-Baptiste Cordonnier, Andreas Loukas, Martin Jaggi 发表会议: ICLR 2020 论 阅读全文
摘要:
目录1. 引入self-attention2. self-attention3. self-attention的并行计算4. 多头self-attention5. 位置编码,self-attention的扩展知识 attention层最早由Google提出,用在了Transformer中。如今,at 阅读全文