TensorFlow入门4

激活函数activation function: relu, sigmoid, tanh

 NN复杂度:多用NN层数和NN参数的个数表示

层数:隐藏层的层数+一个输出层

总参数:总w+总b

损失函数(loss):预测值(y)和已知答案(y_)的差距--优化目标:loss最小

均方误差mse:lose_mse = tf.reduce_mean(tf.square(y_-y))

自定义损失函数:loss = tf.reduce_sum(tf.where(tf.greater(y, y_), (y - y_)*COST, (y_ - y)*PROFIT))

交叉熵:表明两个概率分布之间的距离

 

 

 学习率:每次参数更新的幅度

 

 学习率大了振荡不收敛,学习率小了收敛速度慢,因此提出指数衰减学习率

 

 滑动平均(影子值):记录了每个参数一段时间内过往的平均值,增加了模型的泛化性
针对所有的参数:w和b

 

正则化缓解过拟合:正则化在损失函数中引入模型复杂度指标,利用给W加权值,弱化了数据的噪声

 

 搭建模块化的神经网络八股:

一、前向传播就是搭建网络,设计网络结构(forward.py)

 

 二、反向传播就是训练网络,优化网络参数(backward.py)

 

 

 

posted @ 2020-11-20 09:23  AdvanceQxj  阅读(87)  评论(0)    收藏  举报