望着时间滴答滴答的流过,我不曾改变过 . . .

11 2021 档案

摘要:#11-1 #11-2 #11-3 11.37已经给出导数了啊,没李姐 #11-4 #11-5[求导?] #11-6[呜呜呜...] #11-7[变分推断?泛函优化?我透啊] #11-8[计算复杂度,猫死不对] #11-9 呜呜呜呜呜呜呜呜。。。。。。。。。。。 #11-10[呜呜呜] 阅读全文
posted @ 2021-11-06 17:01 whyaza 阅读(888) 评论(0) 推荐(0)
摘要:#9-1 一般认为,有用信息具有较大的方差,噪声有较小的方差。 主成分分析,选择方差最大的方向投影,并去掉多余的维度(特征),达到降噪的目的。 #9-2 #9-3 具有多重共线性的数据不适合使用主成分分析。举例来说,对于一个二分类问题,正例样本为(1,1,1,1,1),负例样本为(0,0,0,0,0 阅读全文
posted @ 2021-11-05 21:02 whyaza 阅读(859) 评论(1) 推荐(0)
摘要:#8-1 只考虑一层简单的循环神经网络, 设隐藏层神经元数量为D(即D维),输入层的维数为M。 一个LSTM层(隐藏层)的参数总数为:4D*(D+M)+4D #8-2 #8-3 #8-4 按照内容寻址,阿西吧。 #8-5 #8-6 参见:Hopfield 神神经网络动力学分析与应用[郑鹏升]博士论文 阅读全文
posted @ 2021-11-04 17:01 whyaza 阅读(1775) 评论(0) 推荐(0)
摘要:#7-1 明显地,埃尔法和K成正比 #7-2 #7-3 #7-4 #7-5 #7-6 #7-7 从再参数化的角度来分析批量归一化中缩放和平移的意义 在此公式中,r和b表示缩放和平移参数向量。 通过r和b,能够有效适应不同的激活函数。例如:通过r和b,可以自动调整输入分布,防止ReLU死亡问题。 有了 阅读全文
posted @ 2021-11-04 14:49 whyaza 阅读(2801) 评论(0) 推荐(0)
摘要:#6-1 三者都是典型的神经网络模型。 卷积神经网络是对前馈神经网络增加卷积层和池化层。 延时神经网络是对前馈神经网络增加延时器。 循环神经网络是对前馈神经网络增加自反馈的神经元。 延时神经网络和循环神经网络是给网络增加短期记忆能力的两种重要方法。 卷积神经网络和循环神经网络的区别在循环层上。 卷积 阅读全文
posted @ 2021-11-03 18:13 whyaza 阅读(3432) 评论(0) 推荐(1)
摘要:#5-1 #5-2 #5-3 主要作用: 降维和升维: 每个1×1的卷积核都试图提取基于相同像素位置的特征的融合表达。可以实现特征升维和降维的目的。 比如,一张500 * 500且厚度depth为100 的图片在20个filter上做11的卷积,那么结果的大小为500500*20。 加入非线性: 1 阅读全文
posted @ 2021-11-03 14:07 whyaza 阅读(3440) 评论(0) 推荐(0)
摘要:#4-1[求探讨] 角度1: 角度2: 即:接近 0 的输入在 sigmoid 型函数上的导数较大,梯度下降速度较快 #4-2 异或问题: 异或(XOR)问题可以看做是单位正方形的四个角,响应的输入模式为(0,0),(0,1),(1,1),(1,0)。第一个和第三个模式属于类0 图示为: 具体: # 阅读全文
posted @ 2021-11-03 08:27 whyaza 阅读(1870) 评论(0) 推荐(0)