摘要: NCNN 下FP16、FP32速度耗时一般情况下:GPU使用FP16模型<CPU使用FP32模型<GPU使用FP32模型ncnn int8量化后的改进, 参考链接: https://baijiahao.baidu.com/s?id=1699724039745016586&wfr=spider&for 阅读全文
posted @ 2022-05-13 14:02 阿呦33 阅读(699) 评论(0) 推荐(0)
摘要: 记录一下自己的转换过程,中间也踩了很多坑。。 第一步, pytorch转onnx 这一步比较方便,pyroch自身就支持,注意input和output_names一定要填写正确。 net = torch.load("./model17_4.pkl") net.eval() test_arr = np 阅读全文
posted @ 2022-05-13 12:00 阿呦33 阅读(726) 评论(0) 推荐(0)