只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2017-05-18 21:27 .每天进步一点点 阅读(12) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2017-05-16 17:55 .每天进步一点点 阅读(23) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2017-05-16 14:50 .每天进步一点点 阅读(130) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2017-05-15 20:48 .每天进步一点点 阅读(808) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2017-05-14 10:24 .每天进步一点点 阅读(52) 评论(0) 推荐(1) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2017-05-13 23:08 .每天进步一点点 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 定义为 def arg_max(input, dimension, name=None) 作用是取行或者列的最大值的位置。 input:类型为 float32, float64, int64, int32, uint8, uint16, int16, int8, complex64, complex 阅读全文
posted @ 2017-05-13 19:52 .每天进步一点点 阅读(2321) 评论(0) 推荐(0) 编辑
摘要: 官方的接口是这样的 tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None) 根据给出的keep_prob参数,将输入tensor x按比例输出。 默认情况下, 每个元素保存或丢弃都是独立的。后面这段没太懂,以后懂了再补上 阅读全文
posted @ 2017-05-13 18:40 .每天进步一点点 阅读(19260) 评论(0) 推荐(0) 编辑
摘要: 看谷歌的demo mnist,卷积后加偏执量的代码 h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)h_pool1 = max_pool_2x2(h_conv1) 其中的x_image的维数是[-1, 28, 28, 1],W_conv 阅读全文
posted @ 2017-05-13 17:41 .每天进步一点点 阅读(2905) 评论(0) 推荐(1) 编辑
摘要: 函数原型为 def reshape(tensor, shape, name=None) 第1个参数为被调整维度的张量。 第2个参数为要调整为的形状。 返回一个shape形状的新tensor 注意shape里最多有一个维度的值可以填写为-1,表示自动计算此维度。 很简单的函数,如下,根据shape为[ 阅读全文
posted @ 2017-05-10 15:35 .每天进步一点点 阅读(27265) 评论(0) 推荐(0) 编辑