摘要:
#coding:utf-8 #设损失函数 loss=(w+1)^2,令w初值是常数10.反向传播就是求最优w,即求最小loss对应的w值 #使用指数衰减学习率,在迭代初期得到较高的下降速度,可以在较小的训练轮数下取得更有效收敛度 import tensorflow as tf LEARNING_RATE_BASE = 0.1 #最初学习率 LEARNING_RATE_DECAY = 0... 阅读全文
posted @ 2018-06-04 21:39
梦醒江南·Infinite
阅读(2102)
评论(0)
推荐(0)
摘要:
来源:中国大学MOOC 曹健 《TensorFlow笔记》 学习率:参数每次更新的幅度。 阅读全文
posted @ 2018-06-04 20:55
梦醒江南·Infinite
阅读(241)
评论(0)
推荐(0)
摘要:
来源:中国大学MOOC 曹健 《TensorFlow笔记》 交叉熵表征两个概率分布之间的距离。 手写数字识别会用到上面这个函数 阅读全文
posted @ 2018-06-04 20:18
梦醒江南·Infinite
阅读(211)
评论(0)
推荐(0)
摘要:
来源:中国大学MOOC 曹健 《TensorFlow笔记》 若成本大于利润,则会发现模型会往小的方向预测。 将COST=9,PROFIT=1,结果如下: 阅读全文
posted @ 2018-06-04 20:05
梦醒江南·Infinite
阅读(153)
评论(0)
推荐(0)
摘要:
来源:中国大学MOOC 损失函数有三种:均方误差、自定义、交叉熵 均方误差: 阅读全文
posted @ 2018-06-04 19:52
梦醒江南·Infinite
阅读(170)
评论(0)
推荐(0)

浙公网安备 33010602011771号