11 2020 档案
摘要:邻居聚合 图采样后,就要进行邻居聚合 1.1 传统聚合 1.2 评估聚合的表达能力 Mean倾向于学习邻居的分布 1.3 基于单射的GIN模型(Graph Isomorphism Net) 图同构网络,常用于图分类(sum+两个部分构成了GIN) 1.4 更多聚合函数 1.5 应用场景
阅读全文
摘要:一、引入 1.1 为什么要图采样 涉及计算的节点随层数增加呈指数增长 1.2 什么是图采样 子图采样不是随机采样,因为不仅仅需要节点,还需要节点之间的关系。 二、图采样算法 2.1 GraphSAGE 2.2 pinSAGE GraphSAGE只能采样真实的邻居节点,但pinSAGE不一定。 Pin
阅读全文
摘要:一、相关概念 训练方式是端到端的 规则性数据-->非欧式数据(树、图) 谱分解 二、图卷积网络(GCN) Graph Convolutional Network 2.1 图像卷积-->图结构卷积(度进行邻居的计算) 图像卷积:将一个像素点周围的像素按照不同的权重叠加起来 图结构上的卷积:将一个节点周
阅读全文
摘要:一、同构图游走类算法 目标:学习出图中节点的一维表示:Node embedding(学习到节点与邻居的关系)-->下游任务 怎么得到Node embedding? 节点--> 单词 节点序列-->句子 1.1 Word2vec 思想:词的语义由词的上下文来决定。 Skip Gram:根据中心词与预测
阅读全文
摘要:0.图的相关资料: 参考课程:http://cs224w.stanford.edu 图学习库PGL:https://github.com/PaddlePaddle/PGL https://baijiahao.baidu.com/s?id=1650916524935280985&wfr=spider&
阅读全文
摘要:如何读一篇paper 可参考:https://www.youtube.com/watch?v=IeaD0ZaUJ3Y 题目+摘要 引言 结论 图表 模型细节 实验细节
阅读全文
摘要:Softmax with cross Entropy 1.softmax应用场景--CNN分类 感官上:把不是0-1的数,转为0-1的概率值 输出层:当抓取到足以用来识别图片的特征后,接下来的就是如何进行分类。输出层主要准备做最后目标结果的输出。 图像目标识别通常使用Softmax输出层,输出各个类
阅读全文
摘要:一、主成分分析简称 PCA(Principal Component Analysis) 非监督 目的:原来的数据集是d维,转换成k维的数据,k<d,新的k维数据尽可能多的包含原来d维数据的信息 1.1 用处: 1.Clustering 把复杂的多维数据点,简化成少量数据点,易于分簇 2.降维(特征工
阅读全文
摘要:`# -- coding: utf-8 -- """SVM.ipynb Automatically generated by Colaboratory. Original file is located at https://colab.research.google.com/drive/1a993
阅读全文
摘要:git 同生活中的许多伟大事件一样,Git 诞生于一个极富纷争大举创新的年代。Linux 内核开源项目有着为数众广的参与者。绝大多数的 Linux 内核维护工作都花在了提交补丁和保存归档的繁琐事务上(1991-2002年间)。到 2002 年,整个项目组开始启用分布式版本控制系统 BitKeeper
阅读全文
摘要:1. 线性回归 X,Y是线性的 是偏置(有点像截距),防止Y为0,矩阵表示时,为全1 :数据集收集的时候有误差(高斯误差,均值为0) 表达向量很相似 D:和,代表所有的数据,和相互独立 2. Basic Expansion 2.1 使用Basis expansion捕捉自变量和因变量的非线性关系 2
阅读全文
摘要:条件随机场(CRF) 0. 预备知识 0.1 概率图模型(Probabilistic Graphical Model,PGM) 概念:图结构,结点(node)表示随机变量,边(edge)表示结点间关系。简而言之,不相连的结点直接毫无关系。 分类: 有向图:贝叶斯网络,变量之间的因果关系 无向图:马尔
阅读全文
摘要:1. 困难问题与简单问题 生活中:没有具体的量化标准 计算机:时间复杂度(大O表示法) 2. 什么是P,NP,NP Complete (一)P = Polynomial (在多项式时间内得到解决) (二)NP = Non Deterministic Polynomial (对于一个问题,假如能在多项
阅读全文
摘要:1. 线性规划:Linear programming 1.1 定义线性规划模型的步骤: 线性规划,在线性约束条件下,线性目标函数求极值。(凸优化问题) 步骤: 确定决策变量 确定线性目标函数,求max或min 确定线性约束条件 写出数学模型 1.2 线性规划标准形式 1.3 转换为松驰型 松驰型:用
阅读全文
摘要:续上:SVM中的kernel 带Kernel 的linear regression kernel可应用到别的算法,不仅仅在SVM 一、常见kernel l 多项式:二维到三维 l 高斯核函数(需要正规化) l sigmoid kernel l cosine similarity kernel l c
阅读全文
摘要:SVM 一、SVM:找最优分界线 1.1 线性理想SVM == max margin classiler(margin:d1+d2 = 2/w越大越好) 1.2 数学模型 ||w||是w的转置和w相乘,他们的求和实质是不一样的,求和的下标i,j不同 1.3 对偶及其KKT条件 <x^(i),x>点击
阅读全文
摘要:一、机器学习基础及凸优化 参考:http://cvxopt.org/userguide/coneprog.html 1. 凸函数 1.1 Optimization Categories 1.1.1 convex or non-convex lGlobal optimization or better
阅读全文
摘要:1. 语音合成zhrtvc:https://github.com/KuangDD/zhrtvc 2.离线语音识别 vosk+kaldi:https://alphacephei.com/vosk/ tacotron:https://github.com/keithito/tacotron kaldi+
阅读全文
浙公网安备 33010602011771号