2022年2月10日

摘要: 简介 传统的深度学习网络主要针对图片,语音等欧氏空间内规则型数据;而对社交、电商和医疗等非规则结构数据则仍受到一定程度的限制。以电商场景为例,可以将用户、商品和广告等都看作节点(nodes),而将用户对于商品的购买,广告的点击等操作视为边(edges,节点间连接)。节点和边就构成了一张图(Graph 阅读全文

posted @ 2022-02-10 14:59 foghorn 阅读(320) 评论(0) 推荐(0)


2022年2月7日

摘要: 图1 商品属性和用户配置文件之间关系的示例。左边列出了鞋子的属性,而右边列出了从相应的属性推断出的可能的用户配置文件 简介 该论文于2020年发表在WSDM上,目的是解决推荐系统中的冷启动问题。作者认为商品的属性可以反映用户的特征,如图1所示,一个鞋子会有不同的特征,这些特征能从侧面反映用户的兴趣爱 阅读全文

posted @ 2022-02-07 22:19 foghorn 阅读(283) 评论(0) 推荐(0)


2022年2月3日

摘要: #include <iostream> #include <cstring> using namespace std; /* 有 N 种物品和一个容量是 V 的背包,每种物品都有无限件可用。 第 i 种物品的体积是 vi,价值是 wi。 求解将哪些物品装入背包,可使这些物品的总体积不超过背包容量,且 阅读全文

posted @ 2022-02-03 23:44 foghorn 阅读(37) 评论(0) 推荐(0)

摘要: #include <iostream> #include <cstring> using namespace std; /* 有 N 件物品和一个容量是 V 的背包。每件物品只能使用一次。 第 i 件物品的体积是 vi,价值是 wi 求解将哪些物品装入背包,可使这些物品的总体积不超过背包容量,且总价 阅读全文

posted @ 2022-02-03 23:39 foghorn 阅读(40) 评论(0) 推荐(0)


2022年1月29日

摘要: 例一 给一家三明治店设计菜单,先确定大家喜欢吃哪些类型的面包。于是,我们定义这样一个字典,把每种款式的名字和它当前的得票数关联起来。 counters = { 'pumpernicker': 2, 'sourdough': 1 } 如果要记录新的一票,首先判断对应的键在不在字典中。如果不在就要把这个 阅读全文

posted @ 2022-01-29 15:06 foghorn 阅读(1187) 评论(0) 推荐(0)


2022年1月23日

摘要: 概述 GBDT+LR模型是Facebook于2014年提出的,目的是解决高维特征的组合和筛选的问题。在该模型提出之前,FM、FFM能够实现特征的二阶交叉,但本质上还是属于线性模型的范畴,如果想要扩展到更高阶的特征交叉,则模型的复杂度会很高,难以在实际中应用。Facebook提出了一种利用GBDT自动 阅读全文

posted @ 2022-01-23 16:30 foghorn 阅读(1271) 评论(0) 推荐(0)

摘要: #导读 变分自编码器(VAE)是一种生成式模型,虽然名字上叫做自编码器,但却和普通的自编码器有着本质上的区别。图a所示为一个普通自编码器的示意图,其功能是将输入数据压缩到一个低维的空间中,这个低维的向量代表了输入数据的“精华”,如何保证低维的向量能够表示输入向量呢?自编码器在将低维向量解码成输出向量 阅读全文

posted @ 2022-01-23 01:00 foghorn 阅读(2968) 评论(0) 推荐(0)


2022年1月16日

摘要: 背景 本文是斯坦福大学发表在2017年nips的一篇文章,不同于deepwalk等通过图结构信息,在训练之前需要所有节点的embedding信息,这种方法对于那些没有见过的node节点是没办法处理的,概括的说,这些方法都是transductive的。此文提出的方法叫GraphSAGE,针对的问题是之 阅读全文

posted @ 2022-01-16 15:53 foghorn 阅读(739) 评论(0) 推荐(0)


2022年1月4日

摘要: 什么是生成器 通过列表生成式,我们可以直接创建一个列表,但是,受到内存限制,列表容量肯定是有限的,而且创建一个包含100万个元素的列表,不仅占用很大的存储空间,如果我们仅仅需要访问前面几个元素,那后面绝大多数元素占用的空间都白白浪费了。 所以,如果列表元素可以按照某种算法推算出来,那我们是否可以在循 阅读全文

posted @ 2022-01-04 11:15 foghorn 阅读(148) 评论(0) 推荐(0)


2022年1月3日

摘要: Abstract 我们提出了图注意网络(GATs),一种基于图结构数据的新型神经网络结构,利用masked self-attentional layers来解决先前基于图卷积或其近似的方法的缺点。通过堆叠节点能够关注其邻域特征的层,我们允许(隐式地)为邻域中的不同节点指定不同的权重,而不需要任何昂贵 阅读全文

posted @ 2022-01-03 16:04 foghorn 阅读(431) 评论(0) 推荐(0)


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3