摘要: 未完待续 阅读全文
posted @ 2020-05-25 20:09 山竹小果 阅读(572) 评论(0) 推荐(0) 编辑
摘要: [学习资料github] Task1. 论文数据统计 目标:自己Pandas用得很少,这个task主要练习Pandas基础。 学习Notes: data = pd.DataFrame(data) #将list变为dataframe格式,方便使用pandas进行分析 data.shape #显示数据大 阅读全文
posted @ 2021-01-13 22:41 山竹小果 阅读(244) 评论(0) 推荐(0) 编辑
摘要: [课程github] [项目github] 该项目是基于医疗领域知识图谱的问答系统。 目标:从无到有搭建一个医疗领域知识图谱(知识图谱规模较小),并基于此知识图谱搭建问答系统实现自动问题解析和回答。 【未完待续】 阅读全文
posted @ 2021-01-12 20:28 山竹小果 阅读(348) 评论(0) 推荐(0) 编辑
摘要: [github] 0. 定义 知识图谱本质上是语义网络(Semantic Network)的知识库 ==> 从实际应用的角度出发,可以简单地把知识图谱理解成多关系图(Multi-relational Graph) 图 图(Graph)是由节点(Vertex)和边(Edge)来构成,多关系图一般包含多 阅读全文
posted @ 2021-01-11 21:21 山竹小果 阅读(489) 评论(0) 推荐(0) 编辑
摘要: 本文把对抗训练用到了预训练和微调两个阶段,对抗训练的方法是针对embedding space,通过最大化对抗损失、最小化模型损失的方式进行对抗,在下游任务上取得了一致的效果提升。有趣的是,这种对抗训练方法不仅能够在BERT上有提高,而且在RoBERTa这种已经预训练好的模型上也能有所提高,说明对抗训 阅读全文
posted @ 2020-10-14 17:01 山竹小果 阅读(759) 评论(2) 推荐(0) 编辑
摘要: motivation:让模型学习到更复杂的非线性特征。 method:原始特征 + 组合特征。 notes: 连续特征和离散特征都可以做交叉。 HOW TO? 离散特征:笛卡尔积 比如属性A有三个特征,属性B有两个特征,笛卡尔积后就有六个组合特征,然后用one hot 或其他embedding方式给 阅读全文
posted @ 2020-10-12 14:16 山竹小果 阅读(1555) 评论(0) 推荐(0) 编辑
摘要: 课程链接 Motivation 输入是图: 考虑结构和关系信息。 如何在图结构中做Convolution? Spatial-based GNN Aggregate:用neighbor feature update下一层的hidden state Readout:把所有nodes的feature集合起 阅读全文
posted @ 2020-10-10 19:44 山竹小果 阅读(269) 评论(0) 推荐(0) 编辑
摘要: 参考: 李宏毅《深度学习人类语言处理》 ELMo Embeddings from Language Models BERT Bidirectional Encoder Representations from Transformers ERNIE Enhanced Representation th 阅读全文
posted @ 2020-10-09 16:57 山竹小果 阅读(553) 评论(0) 推荐(0) 编辑
摘要: Overview 模型简介论文 Word2Vec word2vector [NIPS 2013]Distributed Representations of Words and Phrases and their Compositionality DSSM Deep Structured Seman 阅读全文
posted @ 2020-09-03 15:41 山竹小果 阅读(466) 评论(0) 推荐(0) 编辑
摘要: 开源代码 主要思想:content + preference,不需要引入额外的内容信息和额外的目标函数,通过dropout来模拟数据缺失进行训练。 本文提出的一种模型,可以结合Memory和Content的信息,但是只使用一个目标函数,即拥有了以往Hybrid model的性能,还解决了冷启动问题, 阅读全文
posted @ 2020-08-27 20:23 山竹小果 阅读(553) 评论(0) 推荐(0) 编辑
摘要: 推荐系统中的常见rank模型 阅读全文
posted @ 2020-08-17 14:52 山竹小果 阅读(794) 评论(1) 推荐(0) 编辑