摘要:
precision = 5 / 8 (预测中/视野) recall = 5 / 12 (预测中/个数总和) F1 - score = 2 * precision * recall / (precion + recall) 阅读全文
posted @ 2018-12-01 18:53
小草的大树梦
阅读(1039)
评论(0)
推荐(0)
摘要:
从最简单的线性回归来说,小批量随机梯度下降的时候,X,y 从迭代器中取出,也是bach_size大小的数据集,那么网络的计算,同样也是小批量的。 即代码 l = loss(net(X),y) 包含了,小批量数据集,每一个数据丢到网络中,计算出返回值以后,和真实值得损失。 阅读全文
posted @ 2018-12-01 17:21
小草的大树梦
阅读(227)
评论(0)
推荐(0)
摘要:
http://mxnet.apache.org/api/python/gluon/data.html 阅读全文
posted @ 2018-12-01 14:19
小草的大树梦
阅读(387)
评论(0)
推荐(0)
摘要:
http://mxnet.apache.org/api/python/gluon/data.html 阅读全文
posted @ 2018-12-01 12:40
小草的大树梦
阅读(328)
评论(0)
推荐(0)
浙公网安备 33010602011771号