微信扫一扫打赏支持
摘要: 《python深度学习》笔记 3.1、神经网络剖析 一、总结 一句话总结: |||-being 训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的 |||-end 层,多个层组合成网络(或模型)。 输入数据和相应的目标。 损失函数,即用于学习的反馈信号。 优化器,决定学习过程如何进行。 1 阅读全文
posted @ 2020-10-04 21:56 范仁义 阅读(206) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 2.4、神经网络的“引擎”:基于梯度的优化 一、总结 一句话总结: 其实真的比较简单,就是损失函数,然后前向传播,反向传播 1、随机初始化(random initialization)? 较小随机数:一开始,这些权重矩阵取较小的随机值,这一步叫作随机初始化(random 阅读全文
posted @ 2020-10-04 19:39 范仁义 阅读(303) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 2.1-2.3、神经网络的数学基础 一、总结 一句话总结: 神经网络由张量表示:前面讲过,神经网络完全由一系列张量运算组成,而这些张量运算都只是输入数据的几何 变换。 高维空间复杂变换:因此,你可以将神经网络解释为高维空间中非常复杂的几何变换,这种变换可以通过许 多简单 阅读全文
posted @ 2020-10-04 18:37 范仁义 阅读(286) 评论(0) 推荐(0)
摘要: 【tensorflow2.0】模型层layers 一、总结 一句话总结: Bidirectional:双向循环网络包装器。可以将LSTM,GRU等层包装成双向循环网络。从而增强特征提取能力。 x = layers.Bidirectional(layers.LSTM(settings.LSTM_UNI 阅读全文
posted @ 2020-10-04 13:18 范仁义 阅读(442) 评论(0) 推荐(0)