摘要:        
《python深度学习》笔记 3.1、神经网络剖析 一、总结 一句话总结: |||-being 训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的 |||-end 层,多个层组合成网络(或模型)。 输入数据和相应的目标。 损失函数,即用于学习的反馈信号。 优化器,决定学习过程如何进行。 1    阅读全文
posted @ 2020-10-04 21:56
范仁义
阅读(206)
评论(0)
推荐(0)
        
            
        
        
摘要:        
《python深度学习》笔记 2.4、神经网络的“引擎”:基于梯度的优化 一、总结 一句话总结: 其实真的比较简单,就是损失函数,然后前向传播,反向传播 1、随机初始化(random initialization)? 较小随机数:一开始,这些权重矩阵取较小的随机值,这一步叫作随机初始化(random    阅读全文
posted @ 2020-10-04 19:39
范仁义
阅读(303)
评论(0)
推荐(0)
        
            
        
        
摘要:        
《python深度学习》笔记 2.1-2.3、神经网络的数学基础 一、总结 一句话总结: 神经网络由张量表示:前面讲过,神经网络完全由一系列张量运算组成,而这些张量运算都只是输入数据的几何 变换。 高维空间复杂变换:因此,你可以将神经网络解释为高维空间中非常复杂的几何变换,这种变换可以通过许 多简单    阅读全文
posted @ 2020-10-04 18:37
范仁义
阅读(286)
评论(0)
推荐(0)
        
            
        
        
摘要:        
【tensorflow2.0】模型层layers 一、总结 一句话总结: Bidirectional:双向循环网络包装器。可以将LSTM,GRU等层包装成双向循环网络。从而增强特征提取能力。 x = layers.Bidirectional(layers.LSTM(settings.LSTM_UNI    阅读全文
posted @ 2020-10-04 13:18
范仁义
阅读(442)
评论(0)
推荐(0)
        
 
    
 
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号