摘要:
批处理梯度下降算法(batch gradient descent) 原理:初始化参数,然后拿到全部样本,根据全部样本算出代价函数对参数的偏导数,然后同时更新这些参数。接着还是全部样本,计算。。。。。 注意:要做同步更新参数,而不是先更新一个再更新另一个。 注意:如果如果学习率很大,则每一步都会迈得很 阅读全文
posted @ 2019-01-01 21:46
Jary霸
阅读(229)
评论(0)
推荐(0)
摘要:
里面的元素是:key: value d = { 'Adam':95, 'Lisa':85, 'Bart':59, 'Paul':75 } 打印:print d['Paul'] 注意: 通过 key 访问 dict 的value,只要 key 存在,dict就返回对应的value。如果key不存在,会 阅读全文
posted @ 2019-01-01 20:43
Jary霸
阅读(113)
评论(0)
推荐(0)
摘要:
a1=tf.placeholder(tf.float32) # 占位符 a2=tf.placeholder(tf.float32)r=tf.multiply(a1,a2) with tf.Session() as sess: a=sess.run(r,feed_dict={a1:22,a2:3}) 阅读全文
posted @ 2019-01-01 20:11
Jary霸
阅读(385)
评论(0)
推荐(0)

浙公网安备 33010602011771号