摘要:
TensorFlow2_200729系列 12、全连接层 一、总结 一句话总结: tf.keras.layers.Dense(2, activation='relu') 1、为什么神经节点一般有多个w和一个b? A、h=relu(X@W)+b,这里的b表示bias,也就是误差, B、比如第一层3个节 阅读全文
posted @ 2020-08-03 07:22
范仁义
阅读(166)
评论(0)
推荐(0)
摘要:
TensorFlow2_200729系列 11、测试(张量)实例 一、总结 一句话总结: 就用算好的w和b,来计算测试集上面的正确率即可,非常简单 # test/evluation # [w1, b1, w2, b2, w3, b3] total_correct, total_num = 0, 0 阅读全文
posted @ 2020-08-03 02:20
范仁义
阅读(254)
评论(0)
推荐(0)
摘要:
TensorFlow2_200729系列 10、meshgrid操作实例 一、总结 一句话总结: point_x, point_y = tf.meshgrid(x, y) import tensorflow as tf import matplotlib.pyplot as plt def func 阅读全文
posted @ 2020-08-03 01:43
范仁义
阅读(321)
评论(0)
推荐(0)

浙公网安备 33010602011771号