微信扫一扫打赏支持
摘要: 神经网络可视化:PlayGround 一、总结 一句话总结: PlayGround是一个在线演示、实验的神经网络平台,是一个入门神经网络非常直观的网站。这个图形化平台非常强大,将神经网络的训练过程直接可视化。 PlayGround的网址是:http://playground.tensorflow.o 阅读全文
posted @ 2020-08-02 13:56 范仁义 阅读(1611) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 9、前k项准确率实例 一、总结 一句话总结: 就是用tf.math.top_k可以得到概率前k的项的索引构成的数组,然后在普通计算即可,核心点就是矩阵的一些操作 def accuracy(output, target, topk=(1,)): maxk = 阅读全文
posted @ 2020-08-02 13:54 范仁义 阅读(339) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 8、前向传播(张量)实战 一、总结 一句话总结: A、就是手动(模拟原理)实现多层多节点的神经网络计算,784(输入)->256->128->10(输出) B、多节点的神经网络,用矩阵计算很方便,比代数计算方便多了 for epoch in range(10 阅读全文
posted @ 2020-08-02 11:02 范仁义 阅读(418) 评论(0) 推荐(0)
摘要: 神经网络中的代数运算和矩阵运算的关系 一、总结 一句话总结: 神经网络中矩阵运算和代数效果是一样的,只不过是代码转成矩阵了,矩阵计算更加方便 1、神经网络中的节点都是简单的感知器? 也就是 y=w*x+b,如果加上激活函数,比如relu,就是y=relu(w*x+b) 二、神经网络中的代数运算和矩阵 阅读全文
posted @ 2020-08-02 09:50 范仁义 阅读(484) 评论(0) 推荐(0)
摘要: tf.random.truncated_normal()-截断正态分布 一、总结 一句话总结: sigmoid激活函数,用截断的正态分布更好,因为这样就不会有两侧的梯度消失的情况 二、tf.random.truncated 转自或参考:tf.random.truncatedhttps://blog. 阅读全文
posted @ 2020-08-02 09:28 范仁义 阅读(770) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 6、tensorflow2 数据类型 一、总结 一句话总结: list(python原生):python中灵活的数据存储方式,但是效率低 np.array(numpy):相同数据的n维数组,用于高性能计算,没有GPU加速和自动求导 tf.Tensor(ten 阅读全文
posted @ 2020-08-02 02:44 范仁义 阅读(177) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 7、广播 一、总结 一句话总结: a、手动或自动扩充维度进行运行,numpy也有类似的功能 b、比如x=tf.random.normal([4,32,32,3]); (x+tf.random.normal([3])).shape; TensorShape([ 阅读全文
posted @ 2020-08-02 02:41 范仁义 阅读(105) 评论(1) 推荐(0)