2、Jetson部署
系列博客目录:
----------------------------------------------------------- 正文 -------------------------------------------------------------------
jetson-inference是用在NVIDIA Jetson设备上的深度学习推理框架,支持C++和Python。具体任务如下:
- 图像分类 (imageNet)
- 目标检测 (detectNet)
- 语义分割 (segNet)
- 姿态估计 (poseNet)
- 动作识别 (actionNet)
以下内容中,【Jetson】指ARM64平台,【主机】指AMD64平台。Jetson只用来推理,训练在主机上训练,因此Jetson不安装Pytorch
先验证Jetson环境是否配置好:
- 【Jetson】获取jetson-inference源码,编译安装
- 【主机】下载模型,利用pytorch转onnx
- 将onnx拷贝到【Jetson】,转trt,推理测试
正式开发自己的C++程序、训练自己的模型:
- 【主机】CLion创建C++项目
- 【主机】交叉编译为ARM64程序,拷贝到【Jetson】
- 【主机】训练自己的模型,pt或pth转onnx
- 将onnx拷贝到【Jetson】,转trt,推理测试
1、验证Jetson环境
1.1 【Jetson】获取jetson-inference源码,编译安装
git clone https://github.com/dusty-nv/jetson-inference #或者从国内镜像下载 #git clone https://gitcode.com/gh_mirrors/je/jetson-inference
编辑jetson-inference/CMakePreBuild.sh。把./download-models.sh和./install-pytorch.sh注释掉,既不下载模型也不安装pytorch

cd jetson-inference #进入jetson-inference文件夹 git submodule update --init mkdir build #创建build文件夹 cd build #进入build cmake ../ #自动执行上一级目录下面的 CMakePreBuild.sh make -j4
参考此博客的4.1 Jetson Nano目标检测手把手实战教程(pytorch训练、tensorrt推理,含完整代码和数据)_pdf 下载人工智能边缘计算开发实战 基于nvidia jetson nano-CSDN博客
参考 5.Jetson Nano之TensorRT 环境搭建(jetson-inference)
参考 AI学习库的安装jetson-inference(国内详细教程) - Yimiu - 博客园
整个过程遇到的一些问题解决办法 jetson-inference 项目常见问题解决方案-CSDN博客
待更新---
2、开发自己的C++程序、训练自己的模型
待更新---
参考源码里的说明 jetson-inference-master\docs\imagenet-example-2.md
【其他部署方式】
Jetson嵌入式系列模型部署-1_onnx部署jetsonnano-CSDN博客 ,右下角,专栏目录


浙公网安备 33010602011771号