上一页 1 2 3 4 5 6 7 8 ··· 62 下一页
摘要: 1、需要加上如下设置,否则转换前后输出可能不一致,这个主要针对dropout、BN层训练测试不一致 2、outputs而非output,否则会导致转换后无法 batch inference 阅读全文
posted @ 2019-12-11 14:29 牧马人夏峥 阅读(2678) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/xv1356027897/article/details/80039615 阅读全文
posted @ 2019-12-10 10:23 牧马人夏峥 阅读(545) 评论(0) 推荐(0)
摘要: https://www.zhihu.com/question/356551927/answer/919612766 知乎上看到的,不错 阅读全文
posted @ 2019-12-08 10:42 牧马人夏峥 阅读(116) 评论(0) 推荐(0)
摘要: 使用multi_gpu_model即可。观察了一下GPU的利用率,非常的低,大部分时候都是0,估计在相互等待,同步更新模型; 当然了,使用多GPU最明显的好处是可以使用更大的batch size https://www.jianshu.com/p/d57595dac5a9 https://keras 阅读全文
posted @ 2019-12-05 10:21 牧马人夏峥 阅读(1236) 评论(0) 推荐(0)
摘要: 最近在做一个鉴黄的项目,数据量比较大,有几百个G,一次性加入内存再去训练模青型是不现实的。 查阅资料发现keras中可以用两种方法解决,一是将数据转为tfrecord,但转换后数据大小会方法不好;另外一种就是利用generator,先一次加入所有数据的路径,然后每个batch的读入 参考:https 阅读全文
posted @ 2019-12-04 17:55 牧马人夏峥 阅读(1772) 评论(0) 推荐(0)
摘要: https://medium.com/analytics-vidhya/is-relu-dead-27943b50102 1、使用relu作为激活函数时,因其在输入小于0时,输出为0,所以可能会造成dead relu,使得输出和梯度都为0; 2、上述文章中使用了多种方式尝试去改善,包括更多层,更多数 阅读全文
posted @ 2019-12-01 22:25 牧马人夏峥 阅读(191) 评论(0) 推荐(0)
摘要: 使用python接口, 另外一种方式就是使用tf-trt,优化后的模型还是pb。优化的过程主要是一些层的合并啊之类的,加速结果不是特别明显,测了两个网络, 加速了10%的样子。优化后仍是pb,因此可以继续用tfserving。 keras/tf model -> pb model ->(trt优化m 阅读全文
posted @ 2019-11-27 19:16 牧马人夏峥 阅读(2538) 评论(0) 推荐(0)
摘要: 1、首先将pb转为uff格式的模型 python /usr/lib/python3.5/dist-packages/uff/bin/convert_to_uff.py --input_file models/lenet5.pb 2、使用trt engine加速 这个加速还是挺明显的,但转换后的模型无 阅读全文
posted @ 2019-11-27 18:56 牧马人夏峥 阅读(1394) 评论(0) 推荐(0)
摘要: pip install alfred-py 在代码中加入 阅读全文
posted @ 2019-11-25 10:22 牧马人夏峥 阅读(532) 评论(0) 推荐(0)
摘要: 1、下载 https://developer.nvidia.com/nvidia-tensorrt-5x-download 选择5 GA版本,注意选择与自己CUDA匹配的版本 2、安装 参考:https://blog.csdn.net/zong596568821xp/article/details/ 阅读全文
posted @ 2019-11-25 10:10 牧马人夏峥 阅读(1111) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 62 下一页