微信扫一扫打赏支持
上一页 1 ··· 73 74 75 76 77 78 79 80 81 ··· 498 下一页
摘要: TensorFlow2_200729系列 12、全连接层 一、总结 一句话总结: tf.keras.layers.Dense(2, activation='relu') 1、为什么神经节点一般有多个w和一个b? A、h=relu(X@W)+b,这里的b表示bias,也就是误差, B、比如第一层3个节 阅读全文
posted @ 2020-08-03 07:22 范仁义 阅读(166) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 11、测试(张量)实例 一、总结 一句话总结: 就用算好的w和b,来计算测试集上面的正确率即可,非常简单 # test/evluation # [w1, b1, w2, b2, w3, b3] total_correct, total_num = 0, 0 阅读全文
posted @ 2020-08-03 02:20 范仁义 阅读(254) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 10、meshgrid操作实例 一、总结 一句话总结: point_x, point_y = tf.meshgrid(x, y) import tensorflow as tf import matplotlib.pyplot as plt def func 阅读全文
posted @ 2020-08-03 01:43 范仁义 阅读(321) 评论(0) 推荐(0)
摘要: 神经网络可视化:PlayGround 一、总结 一句话总结: PlayGround是一个在线演示、实验的神经网络平台,是一个入门神经网络非常直观的网站。这个图形化平台非常强大,将神经网络的训练过程直接可视化。 PlayGround的网址是:http://playground.tensorflow.o 阅读全文
posted @ 2020-08-02 13:56 范仁义 阅读(1610) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 9、前k项准确率实例 一、总结 一句话总结: 就是用tf.math.top_k可以得到概率前k的项的索引构成的数组,然后在普通计算即可,核心点就是矩阵的一些操作 def accuracy(output, target, topk=(1,)): maxk = 阅读全文
posted @ 2020-08-02 13:54 范仁义 阅读(339) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 8、前向传播(张量)实战 一、总结 一句话总结: A、就是手动(模拟原理)实现多层多节点的神经网络计算,784(输入)->256->128->10(输出) B、多节点的神经网络,用矩阵计算很方便,比代数计算方便多了 for epoch in range(10 阅读全文
posted @ 2020-08-02 11:02 范仁义 阅读(418) 评论(0) 推荐(0)
摘要: 神经网络中的代数运算和矩阵运算的关系 一、总结 一句话总结: 神经网络中矩阵运算和代数效果是一样的,只不过是代码转成矩阵了,矩阵计算更加方便 1、神经网络中的节点都是简单的感知器? 也就是 y=w*x+b,如果加上激活函数,比如relu,就是y=relu(w*x+b) 二、神经网络中的代数运算和矩阵 阅读全文
posted @ 2020-08-02 09:50 范仁义 阅读(484) 评论(0) 推荐(0)
摘要: tf.random.truncated_normal()-截断正态分布 一、总结 一句话总结: sigmoid激活函数,用截断的正态分布更好,因为这样就不会有两侧的梯度消失的情况 二、tf.random.truncated 转自或参考:tf.random.truncatedhttps://blog. 阅读全文
posted @ 2020-08-02 09:28 范仁义 阅读(770) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 6、tensorflow2 数据类型 一、总结 一句话总结: list(python原生):python中灵活的数据存储方式,但是效率低 np.array(numpy):相同数据的n维数组,用于高性能计算,没有GPU加速和自动求导 tf.Tensor(ten 阅读全文
posted @ 2020-08-02 02:44 范仁义 阅读(177) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 7、广播 一、总结 一句话总结: a、手动或自动扩充维度进行运行,numpy也有类似的功能 b、比如x=tf.random.normal([4,32,32,3]); (x+tf.random.normal([3])).shape; TensorShape([ 阅读全文
posted @ 2020-08-02 02:41 范仁义 阅读(105) 评论(1) 推荐(0)
上一页 1 ··· 73 74 75 76 77 78 79 80 81 ··· 498 下一页