2019年5月7日

摘要: tf.nn.dropout(x, keep_prob, noise_shape = None, seed = None, name = None) 解释:一个神经元将以概率keep_prob决定是否被激活,如果不被激活,那么该神经元的输出将是0,如果该神经元被激活,那么该神经元的输出值将被放大到原来 阅读全文
posted @ 2019-05-07 14:22 happygril3 阅读(186) 评论(0) 推荐(0)
摘要: tf.nn.relu ( features, name = None ) 解释:这个函数的作用是计算激活函数 relu,即 max ( features, 0 )输入参数:features: 一个Tensor。数据类型必须是:float32,float64,int3, int64,uint8,int 阅读全文
posted @ 2019-05-07 11:13 happygril3 阅读(143) 评论(0) 推荐(0)
摘要: 评估操作对于测量神经网络的性能是有用的。 由于它们是不可微分的,所以它们通常只是被用在评估阶段 tf.nn.top_k(input, k, name=None) 这个函数的作用是返回 input 中每行最大的 k 个数,并且返回它们所在位置的索引。 输入参数: input: 一个张量,数据类型必须是 阅读全文
posted @ 2019-05-07 10:56 happygril3 阅读(541) 评论(0) 推荐(1)
摘要: 创建一个常数张量,传入list或者数值来填充 tensor = tf.constant([1, 2, 3, 4, 5, 6, 7]) with tf.Session() as sess: print(sess.run(tensor)) a = tf.constant([1, 2, 3, 4, 5, 阅读全文
posted @ 2019-05-07 10:43 happygril3 阅读(149) 评论(0) 推荐(0)
摘要: 想要增加一维,可以使用tf.expand_dims(input, dim, name=None)函数 t = np.array(np.arange(1, 1 + 30).reshape([2, 3, 5]), dtype=np.float32) array([[[ 1., 2., 3., 4., 5 阅读全文
posted @ 2019-05-07 10:17 happygril3 阅读(290) 评论(0) 推荐(0)

导航