上一页 1 ··· 129 130 131 132 133 134 135 136 137 ··· 426 下一页
摘要: 1. tf.nn.softmaxtf.nn.softmax(logits, dim=-1, name=None) w*x+b ⇒ logitssoftmax 函数执行的操作:exp(logits)/reduce_sum(exp(logits), dim) ... 阅读全文
posted @ 2017-03-20 12:11 未雨愁眸 阅读(175) 评论(0) 推荐(0)
摘要: 1. tf.nn.softmaxtf.nn.softmax(logits, dim=-1, name=None) w*x+b ⇒ logitssoftmax 函数执行的操作:exp(logits)/reduce_sum(exp(logits), dim) ... 阅读全文
posted @ 2017-03-20 12:11 未雨愁眸 阅读(216) 评论(0) 推荐(0)
摘要: 正则作用的对象是目标函数,如图对均方误差使用 ℓ2 正则:loss = tf.reduce_mean(tf.square(y-y_) + tf.contrib.layers.l2_regularizer(lambda)(w))1. 基本工作原理weights = tf... 阅读全文
posted @ 2017-03-19 16:38 未雨愁眸 阅读(242) 评论(0) 推荐(0)
摘要: 正则作用的对象是目标函数,如图对均方误差使用 ℓ2 正则:loss = tf.reduce_mean(tf.square(y-y_) + tf.contrib.layers.l2_regularizer(lambda)(w))1. 基本工作原理weights = tf... 阅读全文
posted @ 2017-03-19 16:38 未雨愁眸 阅读(164) 评论(0) 推荐(0)
摘要: 1. 数据类型不带小数点的数默认为 int32,带小数点的数默认为 float32; 阅读全文
posted @ 2017-03-19 16:20 未雨愁眸 阅读(127) 评论(0) 推荐(0)
摘要: 1. 数据类型不带小数点的数默认为 int32,带小数点的数默认为 float32; 阅读全文
posted @ 2017-03-19 16:20 未雨愁眸 阅读(182) 评论(0) 推荐(0)
摘要: 1. 基本tf.clip_by_value() 截断,常和对数函数结合使用# 计算交叉熵crose_ent = -tf.reduce_mean(tf.log(y_*tf.clip_by_value(y, 1e-10, 1.)))a = tf.reshape(tf.ra... 阅读全文
posted @ 2017-03-19 16:04 未雨愁眸 阅读(139) 评论(0) 推荐(0)
摘要: 1. 基本tf.clip_by_value() 截断,常和对数函数结合使用# 计算交叉熵crose_ent = -tf.reduce_mean(tf.log(y_*tf.clip_by_value(y, 1e-10, 1.)))a = tf.reshape(tf.ra... 阅读全文
posted @ 2017-03-19 16:04 未雨愁眸 阅读(140) 评论(0) 推荐(0)
摘要: 在 TensorFlow 中,一个变量的值在被使用之前,其初始化过程需要被明确地调用。1. 随机数生成函数tensorflow 下的概率分布函数,一般用于对变量进行初始化,这里的变量显然是指神经网络的参数(连接层之间的权值矩阵和偏执向量)。标准高斯:tf.rand... 阅读全文
posted @ 2017-03-19 15:34 未雨愁眸 阅读(478) 评论(0) 推荐(0)
摘要: 在 TensorFlow 中,一个变量的值在被使用之前,其初始化过程需要被明确地调用。1. 随机数生成函数tensorflow 下的概率分布函数,一般用于对变量进行初始化,这里的变量显然是指神经网络的参数(连接层之间的权值矩阵和偏执向量)。标准高斯:tf.rand... 阅读全文
posted @ 2017-03-19 15:34 未雨愁眸 阅读(156) 评论(0) 推荐(0)
上一页 1 ··· 129 130 131 132 133 134 135 136 137 ··· 426 下一页