摘要: 先说定义:batch normalization字面意思就是批量标准化。在每次SGD时。在activation前,对mini-batch做规范化操作,使得结果的均值为0,方差为1. 阅读全文
posted @ 2018-04-26 19:55 在下小白 阅读(238) 评论(0) 推荐(0)
摘要: 报错信息: OP_REQUIRES failed at assign_op.h:111 : Resource exhausted: OOM when allocating tensor with shape[3,3,384,384] and type float on /job:localhost/ 阅读全文
posted @ 2018-04-26 19:08 在下小白 阅读(5844) 评论(1) 推荐(1)
摘要: def onehot(labels): '''one-hot 编码''' #数据有几行输出 n_sample = len(labels) #数据分为几类。因为编码从0开始所以要加1 n_class = max(labels) + 1 #建立一个batch所需要的数组,全部赋0. onehot_lab 阅读全文
posted @ 2018-04-26 11:35 在下小白 阅读(3077) 评论(0) 推荐(1)