上一页 1 2 3 4 5 6 7 8 9 ··· 25 下一页
摘要: STGNNs:SPATIAL–TEMPORAL GRAPH NEURAL NETWORKS 许多实际应用中的图在图结构和图输入方面都是动态的。STGNNs在捕获图的动态性方面占有重要地位。 这类方法的目的是建模动态节点输入,同时假设连接节点之间的相互依赖性。STGNNs同时捕获一个图的空间和时间依赖 阅读全文
posted @ 2020-08-07 15:11 kkzhang 阅读(2993) 评论(0) 推荐(0) 编辑
摘要: publish: Transactions of the Association for Computational Linguistics,2016 tasks: predicting popularity of comments in Reddit discussions contributio 阅读全文
posted @ 2020-08-07 10:23 kkzhang 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 安装visdom pip install visdom 启动visdom服务 python -m visdom.server visdom绘制各种图形: visdom属性介绍: 实例: from visdom import Visdom import numpy as np import math 阅读全文
posted @ 2020-07-23 10:40 kkzhang 阅读(374) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-07-03 23:38 kkzhang 阅读(1584) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-07-03 23:29 kkzhang 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 关于期望、方差、协方差、协方差矩阵的定义和计算:🔗 期望是线性的。方差(variance)衡量的是对数据x依据它的概率分布采样时,随机变量x的函数值会呈现多大的差异。方差的平方根为标准差(standard deviation)。协方差(covariance)在某种意义上给出了两个变量线性相关性的强 阅读全文
posted @ 2020-07-03 23:11 kkzhang 阅读(546) 评论(0) 推荐(0) 编辑
摘要: 以下是Kalman的收敛性证明思路: cite:Stochastic Processes and Filtering Theory 阅读全文
posted @ 2020-07-03 22:07 kkzhang 阅读(517) 评论(0) 推荐(0) 编辑
摘要: 邻近梯度下降法 对于无约束凸优化问题,当目标函数可微时,可以采用梯度下降法求解;当目标函数不可微时,可以采用次梯度下降法求解;当目标函数中同时包含可微项与不可微项时,常采用邻近梯度下降法求解。上述三种梯度算法均属于离线批处理类型算法,在大规模的数据问题中,每次迭代都需要计算整个数据集梯度,因而需要较 阅读全文
posted @ 2020-07-03 21:33 kkzhang 阅读(3738) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-07-03 21:23 kkzhang 阅读(2312) 评论(0) 推荐(0) 编辑
摘要: 经典的损失函数: ①交叉熵(分类问题):判断一个输出向量和期望向量有多接近。交叉熵刻画了两个概率分布之间的距离,他是分类问题中使用比较广泛的一种损失函数。概率分布刻画了不同事件发生的概率。 熵的定义:解决了对信息的量化度量问题,香农用信息熵的概念来描述信源的不确定度,第一次用数学语言阐明了概率与信息 阅读全文
posted @ 2020-07-03 13:22 kkzhang 阅读(1658) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 25 下一页