Triton服务部署

  • 选取一个镜像下拉到docker
命令:sudo docker pull nvcr.io/nvidia/tritonserver:23.04-py3
  • 如果用python作为后端推理代码,肯定会用到pytorch,还需要安装torch等依赖包的镜像。可以创建一个Dockerfile,然后在tritonserver镜像基础上构建新的包含依赖包的镜像。如

 

然后构建新镜像:
命令:sudo docker build -t nvcr.io/nvidia/tritonserver:23.04-py3-torch .
成功后,可查看新的镜像

 

2.1 创建一个模型目录结构

  • 首先,创建一个模型仓库目录
例如,我在/home/public_sudo/data/qu 目录下创建了一个triton-models目录
用triton-models目录表示模型仓库,所有的模型都在这个模型目录中。启动容器后会将 triton-models映射到tritonserver的docker镜像中。
posted @ 2025-03-25 17:24  15375357604  阅读(198)  评论(0)    收藏  举报