triton部署yolov5笔记五

github链接:https://github.com/Lobaer-D/triton-onnx

整体流程可以参考CSDN链接

triton部署yolov5笔记(一)

triton部署yolov5笔记(二)

triton部署yolov5笔记(三)

triton部署yolov5笔记(四)

一、docker安装

nvidia-docker安装

Nvidia-Docker安装需要安装两个部分,Docker-CENVIDIA Container Toolkit

1、安装Dokcer-CE

Docker-CE on Ubuntu can be setup using Docker’s official convenience script:

官方的快速安装脚本,具体安装的版本应该是最新版,如果用此脚本安装Docker,以后还可以使用此脚本更新:

curl https://get.docker.com | sh \
  && sudo systemctl --now enable docker

注意:如果你的机器已经有安装Docker,那么使用这个脚本可能会出错,要是你本机的Docker就是用这个脚本安装的,那么你可以再次用这个脚本进行更新。

在这里插入图片描述

我使用此脚本进行安装后:

在这里插入图片描述

需要执行sudo /lib/systemd/systemd-sysv-install enable docker来激活docker,激活后查看Docker版本docker --version

在这里插入图片描述

2、更改docker镜像源

复制以下命令到终端,直接运行即可完成

sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["https://sx1pmhon.mirror.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

3、Linux下修改docker默认存储位置

docker 默认安装存储位置为 /var/lib/docker。当镜像多了以后,会占用大量的存储空间,当所在的分区存储空间不足时,我们可以通过扩展磁盘空间,或者修改 docker 配置中的存储位置来解决上述问题。

(0)确认存储位置

输入以下命令即可查看doker默认存储位置,最初默认位置为/var/lib/docker

sudo docker info|grep "Docker Root Dir"

(1)软链接

软链接 (Symbolic Link),也称符号链接,这里不再详细介绍。最简单的修改方法是将原docker 目录下的文件迁移到新的目录,然后将原目录链接到新的目录,这种方法的好处是不用修改 docker 配置,从系统文件操作的层面来解决。方法如下:

①首先停止 docker 服务:
# systemctl stop docker
②然后移动整个 /var/lib/docker 目录到目的路径(/data/docker):
# mv /var/lib/docker /data/docker
③ 创建软链接
# ln -s /root/docker /var/lib/docker

**Note:**命令的意思是 /var/lib/docker 是链接文件名,其作用是当进入/var/lib/docker目录时,实际上是链接进入了 /root/docker 目录

④重启docker
# systemctl start docker

(2)修改docker配置文件

也可以通过修改 docker.service 文件,使用 --graph newPath 参数指定存储位置,方法如下:

①首先停止 docker 服务:
# systemctl stop docker
②然后移动整个 /var/lib/docker 目录到目的路径(/data/docker):
# mv /var/lib/docker /data/docker
③ 修改 docker.service 文件

centos7 下默认路径为 /usr/lib/systemd/system/docker.service

# vim /usr/lib/systemd/system/docker.service

在 ExecStart=/usr/bin/dockerd 后面添加参数 --graph /data/docker

结果如下:

ExecStart=/usr/bin/dockerd --graph /data/docker -H fd:// --containerd=/run/containerd/containerd.sock
④重启 docker 服务
# systemctl daemon-reload 
# systemctl start docker
⑤查看配置是否生效
# docker info | grep "Docker Root Dir"
 Docker Root Dir: /data/docker

4、安装NVIDIA Container Toolkit

设置稳定版本的库及GPG密钥

distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \
   && curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - \
   && curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

Optional:如果想要使用实验特性,需要加入experimental分支到库下:

curl -s -L https://nvidia.github.io/nvidia-container-runtime/experimental/$distribution/nvidia-container-runtime.list | sudo tee /etc/apt/sources.list.d/nvidia-container-runtime.list

更新好包列表之后,安装nvidia-docker2包及其依赖:

sudo apt-get update
sudo apt-get install -y nvidia-docker2

在这里插入图片描述

安装完毕…

上述默认运行时设置好后,重启Docker后台驻留程序:

sudo systemctl restart docker

现在可以通过运行base CUDA container来测试一个working setup

sudo docker run --rm --gpus all nvidia/cuda:11.0-base nvidia-smi

二 、模型转换

1、将训练好的模型转化为onnx格式

先给出官方代码链接,yolov5。这里不对yolov5原理做介绍,直接从训练的pt文件开始。当我们训练好模型以后,在官方给的yolov5代码结构中,runs目录下会生成train目录,找到最终训练的exp,在weights目录下会生成best.pt和last.pt,我们选择best.pt,指定输入输出路径,输入以下命令

python export.py --weights yolov5s.pt --include torchscript onnx

在有的情况下输出模型结构需要进行调整,修改fucs网络层,输出节点进行拼接等。这里不需要对模型的输入输出节点进行修改。输出网络结构如图所示。

2、修改onnx输出字节的名称

PaddleUtils-main目录下提供了相关的修改工具

将417,437,output输出节点改为output1,output2,output3

①ONNX模型shape推理

有时遇到拿到的ONNX模型缺少中间节点的shape信息,可以使用onnx_infer_shape来进行shape推理,此脚本源于onnxruntime,使用方式如下

python onnx_infer_shape.py --input model.onnx --output new_model.onnx

②裁剪ONNX模型

在部分场景下,我们可能只需要整个模型的一部分,那么可以使用prune_onnx_model.py来裁剪模型,如我们只需要模型中的输出x和y及其之前的节点即可,那么可使用如下方式处理模型

python prune_onnx_model.py --model model.onnx --output_names x y --save_file new_model.onnx

其中output_names用于指定最终模型的输出tensor,可以指定多个

③修改模型中间节点命名(包含输入、输出重命名)

python rename_onnx_model.py --model model.onnx --origin_names x y z --new_names x1 y1 z1 --save_file new_model.onnx

其中origin_names和new_names,前者表示原模型中各个命名(可指定多个),后者表示新命名,两个参数指定的命名个数需要相同

三、模型部署

1、拉取triton镜像

docker pull nvcr.io/nvidia/tritonserver:22.04-py3

2、构建模型容器

在triton_inference_server目录下分别创建deploy、images、labels文件夹,其中deploy文件夹下放置我们的模型文件,images文件夹下放置模型输入输出图片,labels文件夹放置模型分类的标签类别。

deploy文件夹下的模型放置结构要严格按照这个结构进行放置。

其中custom_model目录下为python backend模型,其作用是在服务端进行模型的推理与后处理,config.pbtxt文件为模型的配置文件,triton.tar.gz文件为运行model.py文件所需的python环境,由于该文件太大,没有上传,获取方式稍后介绍。

model_0、1、2目录下放置我们训练并转化好的模型文件。

images目录下有两个目录,input_img目录放置要输入进行预测的图片(代码中目前没有调用该目录下的图片,调用的是网络图片,如果想要调用该目录下的图片只需要将model.py文件稍作修改即可);output_img目录存放预测完成的图片,他会按照日期生成文件夹,该文件夹下存放当天生成的图片,图片命名方式由uuid随机生成。

目录结构如下:

triton_inference_server
├── client.py
├── deploy
│   ├── custom_model
│   │   ├── 1
│   │   │   ├── model.py
│   │   │   └── __pycache__
│   │   │       ├── hat_utils.cpython-38.pyc
│   │   │       └── model.cpython-38.pyc
│   │   ├── config.pbtxt
│   │   └── triton.tar.gz
│   ├── model_0
│   │   ├── 1
│   │   │   └── model.onnx
│   │   └── config.pbtxt
│   ├── model_1
│   │   ├── 1
│   │   │   └── model.onnx
│   │   └── config.pbtxt
│   └── model_2
│       ├── 1
│       │   └── model.onnx
│       └── config.pbtxt
├── images
│   ├── input_img
│   │   └── 4.jpg
│   └── output_img
│       └── 20220805
│           └──  02e2f779-461f-40be-8d7d-43f46e73a62a.jpg
└── labels
    ├── label_0.txt
    ├── label_1.txt
    └── label_2.txt

注:使用本地环境(生成triton.tar.gz)

在创建虚拟环境之前运行

export PYTHONNOUSERSITE=True

创建一个虚拟环境,安装服务端需要的包

conda create -n triton python=3.8
pip install opencv-python  # conda 安装不了,用 pip,如果有问题安装opencv-python-headless
pip3 install torch torchvision torchaudio
# 清华镜像源
# pip install xxx -i https://pypi.tuna.tsinghua.edu.cn/simple
conda install conda-pack
conda-pack  # 运行打包程序,将会打包到运行的目录下面

如果需要,安装opencv的依赖

apt update
apt install ffmpeg libsm6 libxext6 -y --fix-missing  # 安装 opencv 的依赖, -y 表示 yes

将打包的triton.tar.gz文件放到cuetom_model路径下

3、启动容器

进入工作空间

cd triton_inference_server

启动容器

sudo docker run --gpus all --name triton-inference-server --rm --shm-size=1g -p9090:8000 -p9091:8001 -p9092:8002 -v $(pwd)/deploy:/models -v $(pwd)/images:/images -v $(pwd)/labels:/labels nvcr.io/nvidia/tritonserver:21.09-py3
tritonserver --model-repository=/models

4、测试结果

安装依赖包

pip install tritonclient[all]

运行client.py文件

python client.py

References

nvidia-docker安装教程

Linux下更换Docker镜像源

Linux下修改Docker默认存储位置

我不会用 Triton 系列:Python Backend 的使用

人脸识别例程

官方github[triton-inference-server]

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


学习编程是顺着互联网的发展潮流,是一件好事。新手如何学习编程?其实不难,不过在学习编程之前你得先了解你的目的是什么?这个很重要,因为目的决定你的发展方向、决定你的发展速度。
IT行业是什么工作做什么?IT行业的工作有:产品策划类、页面设计类、前端与移动、开发与测试、营销推广类、数据运营类、运营维护类、游戏相关类等,根据不同的分类下面有细分了不同的岗位。
女生学Java好就业吗?女生适合学Java编程吗?目前有不少女生学习Java开发,但要结合自身的情况,先了解自己适不适合去学习Java,不要盲目的选择不适合自己的Java培训班进行学习。只要肯下功夫钻研,多看、多想、多练
Can’t connect to local MySQL server through socket \'/var/lib/mysql/mysql.sock问题 1.进入mysql路径
oracle基本命令 一、登录操作 1.管理员登录 # 管理员登录 sqlplus / as sysdba 2.普通用户登录
一、背景 因为项目中需要通北京网络,所以需要连vpn,但是服务器有时候会断掉,所以写个shell脚本每五分钟去判断是否连接,于是就有下面的shell脚本。
BETWEEN 操作符选取介于两个值之间的数据范围内的值。这些值可以是数值、文本或者日期。
假如你已经使用过苹果开发者中心上架app,你肯定知道在苹果开发者中心的web界面,无法直接提交ipa文件,而是需要使用第三方工具,将ipa文件上传到构建版本,开...
下面的 SQL 语句指定了两个别名,一个是 name 列的别名,一个是 country 列的别名。**提示:**如果列名称包含空格,要求使用双引号或方括号:
在使用H5混合开发的app打包后,需要将ipa文件上传到appstore进行发布,就需要去苹果开发者中心进行发布。​
+----+--------------+---------------------------+-------+---------+
数组的声明并不是声明一个个单独的变量,比如 number0、number1、...、number99,而是声明一个数组变量,比如 numbers,然后使用 nu...
第一步:到appuploader官网下载辅助工具和iCloud驱动,使用前面创建的AppID登录。
如需删除表中的列,请使用下面的语法(请注意,某些数据库系统不允许这种在数据库表中删除列的方式):
前不久在制作win11pe,制作了一版,1.26GB,太大了,不满意,想再裁剪下,发现这次dism mount正常,commit或discard巨慢,以前都很快...
赛门铁克各个版本概览:https://knowledge.broadcom.com/external/article?legacyId=tech163829
实测Python 3.6.6用pip 21.3.1,再高就报错了,Python 3.10.7用pip 22.3.1是可以的
Broadcom Corporation (博通公司,股票代号AVGO)是全球领先的有线和无线通信半导体公司。其产品实现向家庭、 办公室和移动环境以及在这些环境...
发现个问题,server2016上安装了c4d这些版本,低版本的正常显示窗格,但红色圈出的高版本c4d打开后不显示窗格,
TAT:https://cloud.tencent.com/document/product/1340