01 2022 档案

摘要:例一 给一家三明治店设计菜单,先确定大家喜欢吃哪些类型的面包。于是,我们定义这样一个字典,把每种款式的名字和它当前的得票数关联起来。 counters = { 'pumpernicker': 2, 'sourdough': 1 } 如果要记录新的一票,首先判断对应的键在不在字典中。如果不在就要把这个 阅读全文

posted @ 2022-01-29 15:06 foghorn 阅读(1179) 评论(0) 推荐(0) |

摘要:概述 GBDT+LR模型是Facebook于2014年提出的,目的是解决高维特征的组合和筛选的问题。在该模型提出之前,FM、FFM能够实现特征的二阶交叉,但本质上还是属于线性模型的范畴,如果想要扩展到更高阶的特征交叉,则模型的复杂度会很高,难以在实际中应用。Facebook提出了一种利用GBDT自动 阅读全文

posted @ 2022-01-23 16:30 foghorn 阅读(1262) 评论(0) 推荐(0) |

摘要:#导读 变分自编码器(VAE)是一种生成式模型,虽然名字上叫做自编码器,但却和普通的自编码器有着本质上的区别。图a所示为一个普通自编码器的示意图,其功能是将输入数据压缩到一个低维的空间中,这个低维的向量代表了输入数据的“精华”,如何保证低维的向量能够表示输入向量呢?自编码器在将低维向量解码成输出向量 阅读全文

posted @ 2022-01-23 01:00 foghorn 阅读(2960) 评论(0) 推荐(0) |

摘要:背景 本文是斯坦福大学发表在2017年nips的一篇文章,不同于deepwalk等通过图结构信息,在训练之前需要所有节点的embedding信息,这种方法对于那些没有见过的node节点是没办法处理的,概括的说,这些方法都是transductive的。此文提出的方法叫GraphSAGE,针对的问题是之 阅读全文

posted @ 2022-01-16 15:53 foghorn 阅读(731) 评论(0) 推荐(0) |

摘要:什么是生成器 通过列表生成式,我们可以直接创建一个列表,但是,受到内存限制,列表容量肯定是有限的,而且创建一个包含100万个元素的列表,不仅占用很大的存储空间,如果我们仅仅需要访问前面几个元素,那后面绝大多数元素占用的空间都白白浪费了。 所以,如果列表元素可以按照某种算法推算出来,那我们是否可以在循 阅读全文

posted @ 2022-01-04 11:15 foghorn 阅读(145) 评论(0) 推荐(0) |

摘要:Abstract 我们提出了图注意网络(GATs),一种基于图结构数据的新型神经网络结构,利用masked self-attentional layers来解决先前基于图卷积或其近似的方法的缺点。通过堆叠节点能够关注其邻域特征的层,我们允许(隐式地)为邻域中的不同节点指定不同的权重,而不需要任何昂贵 阅读全文

posted @ 2022-01-03 16:04 foghorn 阅读(420) 评论(0) 推荐(0) |

摘要:引用计数机制 简介 python内部使用引用计数,来保持追踪内存中的对象,Python内部记录了对象有多少个引用,即引用计数,当对象被创建时就创建了一个引用计数,当对象不再需要时,这个对象的引用计数为0时,它被垃圾回收。 特性 当给一个对象分配一个新名称或者将一个对象放入一个容器(列表、元组或字典) 阅读全文

posted @ 2022-01-01 13:58 foghorn 阅读(57) 评论(0) 推荐(0) |

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3