摘要: ###排版方式: 行级元素(inline):使用$...$,表示公式的首尾 块级元素(displayed):使用$$...$$,默认居中显示 ###LaTex数学符号表 小写希腊字母 大写希腊字母 数学函数名 二元关系符 二元运算符 大尺寸运算符 箭头 定界符 大尺寸定界符 其它符号 AMS二元关系 阅读全文
posted @ 2019-06-05 09:26 虔诚的树 阅读(698) 评论(0) 推荐(0) 编辑
摘要: 问题背景 基于 WSL 的 Ubuntu-18.04 所占空间越来越大,因此需要从 C 盘迁移到 D 盘。 解决方案 迁移过程可参考这篇博客:https://blog.csdn.net/weixin_50321412/article/details/124592284。 在迁移之后,再次打开 Ubu 阅读全文
posted @ 2022-07-07 16:44 虔诚的树 阅读(421) 评论(0) 推荐(0) 编辑
摘要: 问题描述: 报错信息: error C2280: “WorkerData::WorkerData(const WorkerData &)”:尝试引用已删除的函数 threadpool\build\main.vcxproj] \src\workerdata.h(18): message : 参见“Wo 阅读全文
posted @ 2022-06-07 10:57 虔诚的树 阅读(302) 评论(0) 推荐(0) 编辑
摘要: 在 ONNX Runtime 源码(onnxruntime/core/framework/graph_partitioner.cc,函数GraphPartitioner::Partition)中,有这么一段注释: NOTE: A 'sub-graph' is a subset of nodes wi 阅读全文
posted @ 2022-05-10 11:28 虔诚的树 阅读(734) 评论(0) 推荐(0) 编辑
摘要: 出处:代码的注释内容 include/onnxruntime/core/framework/alloc_kind.h ONNX Runtime 在推理流程中,存在以下几类值(ml-Values): inference inputs:由调用者(caller)分配以及释放内存空间,默认情况下运行时(ru 阅读全文
posted @ 2022-05-07 14:56 虔诚的树 阅读(474) 评论(0) 推荐(0) 编辑
摘要: 前言 为了深入理解ONNX Runtime的底层机制,本文将对 Graph::SetGraphInputsOutputs() 的代码逐行分析。 正文 首先判断Graph是否从ONNX文件中加载所得: if (is_loaded_from_model_file_) return Status::OK( 阅读全文
posted @ 2022-05-04 09:52 虔诚的树 阅读(450) 评论(0) 推荐(0) 编辑
摘要: 【问题描述】 在使用 git 克隆 github 上项目时,速度会很慢,尤其是递归克隆时。。。 【解决方案】 可通过 ssh 的方式替换 https 的方式(前提是已经在 github 账号中配置 ssh 公钥,这里不再赘述),比如: git clone https://github.com/mic 阅读全文
posted @ 2022-04-21 16:57 虔诚的树 阅读(1527) 评论(0) 推荐(0) 编辑
摘要: 如果模型中有些算子不被ONNX算子库支持,我们就需要利用ONNXRuntime提供的API手动添加新算子。在官方文档中已经对如何添加定制算子进行了介绍(https://onnxruntime.ai/docs/reference/operators/add-custom-op.html ),这里我们主 阅读全文
posted @ 2022-03-30 18:28 虔诚的树 阅读(4381) 评论(1) 推荐(1) 编辑
摘要: 背景:在学习如何往ONNXRuntime中添加新算子时,参考了官方测试代码:onnxruntime/test/shared_lib/test_inference.cc,代码内部使用GTest作为单元测试工具。为了清楚地学习运行过程,一步一步地调试是不可缺少的。 开始调试前需要以Debug方式编译代码 阅读全文
posted @ 2022-03-30 12:08 虔诚的树 阅读(933) 评论(0) 推荐(0) 编辑
摘要: 前言 在上一篇博客中:【推理引擎】ONNXRuntime 的架构设计,主要从文档上对ONNXRuntime的执行流程进行了梳理,但是想要深入理解,还需从源码角度进行分析。 本文以目标检测模型NanoDet作为分析的基础,部分代码主要参考:超轻量级NanoDet MNN/TNN/NCNN/ONNXRu 阅读全文
posted @ 2022-03-29 15:40 虔诚的树 阅读(4322) 评论(0) 推荐(0) 编辑
摘要: ONNXRuntime,深度学习领域的神经网络模型推理框架,从名字中可以看出它和 ONNX 的关系:以 ONNX 模型作为中间表达(IR)的运行时(Runtime)。 本文许多内容翻译于官方文档:https://onnxruntime.ai/docs/reference/high-level-des 阅读全文
posted @ 2022-03-29 08:40 虔诚的树 阅读(2563) 评论(0) 推荐(0) 编辑