上一页 1 2 3 4 5 6 7 8 9 10 ··· 25 下一页
摘要: 经典的损失函数: ①交叉熵(分类问题):判断一个输出向量和期望向量有多接近。交叉熵刻画了两个概率分布之间的距离,他是分类问题中使用比较广泛的一种损失函数。概率分布刻画了不同事件发生的概率。 熵的定义:解决了对信息的量化度量问题,香农用信息熵的概念来描述信源的不确定度,第一次用数学语言阐明了概率与信息 阅读全文
posted @ 2020-07-03 13:22 kkzhang 阅读(1793) 评论(0) 推荐(1)
摘要: 回顾经典卷积的操作:采样(即构建邻域)+聚合(聚合邻居结点的信息)。将固定数量的邻域结点排序后,与相同数量的卷积核参数相乘求和。 对于图结构数据如何定义卷积操作? 1)构建邻域; 2)对邻域的点与卷积核参数内积; GNN,构建邻域的大小为p,p个固定数量的卷积核参数。GNN使用随机游走的方法,为每个 阅读全文
posted @ 2020-06-26 11:24 kkzhang 阅读(1638) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-06-21 19:45 kkzhang 阅读(571) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-06-21 19:30 kkzhang 阅读(655) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-06-21 19:19 kkzhang 阅读(391) 评论(0) 推荐(0)
摘要: 以下学习内容参考了:🔗1,🔗2, 0、首先回忆CNN,卷积神经网络的结构和特点 处理的数据特征:具有规则的空间结构(Euclidean domains),都可以采用一维或者二维的矩阵描述。(Convolutional neural network (CNN) gains great succes 阅读全文
posted @ 2020-06-20 14:45 kkzhang 阅读(5832) 评论(5) 推荐(3)
摘要: 阅读过程中的其他解释: Batch和miniBatch:(广义)离线和在线的不同 阅读全文
posted @ 2020-06-18 21:14 kkzhang 阅读(230) 评论(0) 推荐(0)
摘要: 卷积的基本结构: 卷积层,Pooling池化层和激活函数层等操作是将原始数据映射到隐层特征空间; 全连接层则起到将学到的特征表示映射到样本标记空间的作用,做出预测; 目标函数的作用则是用来衡量该预测值与真实样本标记之间的误差。再当下的卷积神经网络中交叉熵损失函数和L2损失函数分别是分类问题和回归问题 阅读全文
posted @ 2020-06-18 17:10 kkzhang 阅读(380) 评论(0) 推荐(0)
摘要: 0、对于正则罚项的理解 1、岭回归(L2 ridge regression ) 是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。 关 阅读全文
posted @ 2020-06-17 17:19 kkzhang 阅读(255) 评论(0) 推荐(0)
摘要: 使用anaconda安装tensorflow (windows10环境)🔗 遇到的问题:CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://mirrors.tuna.tsinghua.edu.cn/anaconda/ 解决方案:在 阅读全文
posted @ 2020-06-16 22:06 kkzhang 阅读(6547) 评论(0) 推荐(1)
上一页 1 2 3 4 5 6 7 8 9 10 ··· 25 下一页