摘要: 本博客所有内容类别及文章汇总 阅读全文
posted @ 2017-03-19 16:01 超然haha 阅读(384) 评论(0) 推荐(0) 编辑
摘要: 这篇KDD’18的文章,没按照常规的方法将所有的node嵌入到同一的空间,提出 node 因为连接的 edge 类型不同,存在不兼容,提出一个保存异构性的HINs综合转录的方式 阅读全文
posted @ 2018-12-21 20:15 超然haha 阅读(1202) 评论(1) 推荐(2) 编辑
摘要: 你未看此花时,此花与汝同归于寂;你来看此花时,则此花颜色一时明白起来。 ——王阳明 作为匆匆过客,原本不值一提。但不知怎的,总有一刻触动过我们的心灵,让我们的情感交织一起,久久不能忘记,也就不再归于寂寞了吧。 阅读全文
posted @ 2018-12-14 14:45 超然haha 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 结合全局和局部信息提出了一个全面的框架来解决名字消歧问题,并提出比传统基于 BIC 方法更好的端到端的簇大小估计方法。加入人的反馈机制,提高消歧准确度 阅读全文
posted @ 2018-11-14 17:12 超然haha 阅读(2238) 评论(0) 推荐(2) 编辑
摘要: 将人名消歧过程作为一个系统,主要想学习它对消歧过程中的各个阶段的划分,GFAD 是一个面向图的框架,对于元信息缺失,错误信息的存在具有较好的鲁棒性,且不依赖web 环境,也不需要群体数量信息,不需要估计特定的参数或阈值,同时处理同名异名,孤立点问题 阅读全文
posted @ 2018-11-07 22:08 超然haha 阅读(702) 评论(3) 推荐(1) 编辑
摘要: 学习网络中节点的低维表示,将利用节点信息及网络结构识别节点的过程比喻为翻译的过程,将网络嵌入转化为 seq2seq 任务 阅读全文
posted @ 2018-10-29 20:09 超然haha 阅读(985) 评论(0) 推荐(1) 编辑
摘要: 通过新型神经网络对图形结构数据进行操作,利用隐藏的自注意层赋予邻域节点不同重要性,关注那些作用比较大的节点,而忽视一些作用较小的节点,在处理局部信息的时候同时能够关注整体的信息 阅读全文
posted @ 2018-10-09 19:40 超然haha 阅读(5521) 评论(1) 推荐(0) 编辑
摘要: 现有方法通常基于单词获取节点的文本特征矩阵,忽略分层结构(单词、句子),该文提出SHANE 模型,集成节点结构,文本和标签信息,并以半监督的方式学习网络嵌入,使用分层注意网络学习节点的文本特征, 两层双向 GRU 提取单词和句子的潜在特征 阅读全文
posted @ 2018-10-09 12:55 超然haha 阅读(997) 评论(0) 推荐(0) 编辑
摘要: NE 的中心思想就是找到一种映射函数,该函数将网络中的每个节点转换为低维度的潜在表示,此文调研近年来在网络嵌入的发展及几个研究类别 阅读全文
posted @ 2018-09-29 09:24 超然haha 阅读(1824) 评论(0) 推荐(0) 编辑
摘要: 现有方法:无上下文嵌入,与其他顶点交互时忽略不同角色。该论文提出:上下文相关的网络嵌入(CANE),通过相互关注机制学习顶点的上下文感知嵌入 阅读全文
posted @ 2018-09-28 20:11 超然haha 阅读(3016) 评论(0) 推荐(1) 编辑
摘要: 近年来关于网络表示研究进展及常见方法的简单介绍 阅读全文
posted @ 2018-09-28 19:52 超然haha 阅读(1743) 评论(0) 推荐(0) 编辑
back to top