前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >一小时肝一份文档,宠你我们是认真的

一小时肝一份文档,宠你我们是认真的

作者头像
OpenMMLab 官方账号
发布2022-04-09 16:48:42
4630
发布2022-04-09 16:48:42
举报
文章被收录于专栏:OpenMMLabOpenMMLab

一个月黑风高、万籁俱静的夜晚,MMDeploy 社区群里传来一阵躁动,群友们纷纷直呼:牛啊,强啊!

究竟发生了什么事呢?资深吃瓜小编迅速搬好板凳,马上带大家一探究竟!

时间回到 2 月 25 日下午 6 点,我们的 Z 同学在模型部署后,推理图像的时候,输入图像预处理时间远远超出预期,竟然达到了 2 秒!Z 同学又是改函数又是 debug,还是一头雾水。可 Z 同学锲而不舍,继续钻研,最后推理成功了,但是奈何遇到了推理性能低、速度慢的问题。几经辗转,还是不得解决……

群里的躁动引起了我们江湖大佬晗哥的注意,看到社区同学这么困扰,还怎么坐得住。当天晚上 6:25 分直接撂下狠话,答应码个文档,从搭建环境、到模型转换、到模型运行,手把手教学,快速上手 MMDeploy!仅一小时十六分钟,仅一小时十六分钟,文档就已经出现在了社区——《手把手教你在 ubuntu 上使用 MMDeploy》,让社区同学上手模型部署时能够避开一些可能会碰到的疑难杂症。

此举一出,社区小伙伴们直接 respect!晗哥笑称,在“好用”这一点上,MMDeploy Team 责无旁贷。

So,让我们来看看,让社区欢呼、对手沉默的文档——

MMDeploy Example for Ubuntu

注意!

以下操作,是在临时目录 /tmp 下,进行演示。大家根据自己的实际情况,选择合适的工作目录。

1. 下载 MMDeploy,设置 MMDeploy 目录

为当前环境变量

代码语言:javascript
复制
git clone -b master git@github.com:open-mmlab/mmdeploy.git MMDeploy
cd MMDeploy
git submodule update --init --recursive
export MMDEPLOY_DIR=`pwd`

Tips

走 GitHub 可能会因为网络问题过程坎坷,所以无法使用代理的同学可以动动小手在 gitee 带着子仓库克隆一份。

2. 准备编译工具链

2.1 cmake>=3.14

代码语言:javascript
复制
sudo apt-get install -y libssl-dev
wget https://github.com/Kitware/CMake/releases/download/v3.20.0/cmake-3.20.0.tar.gz
tar -zxvf cmake-3.20.0.tar.gz
cd cmake-3.20.0
./bootstrap
make
sudo make install

2.2 gcc>=7

? 当 ubuntu >= 18.04, gcc 版本默认为 7 或以上,不用安装。

? 当 ubuntu == 16.04 时,可用以下命令。

代码语言:javascript
复制
sudo add-apt-repository ppa:ubuntu-toolchain-r/test
sudo apt-get update
sudo apt-get install gcc-7
sudo apt-get install g++-7

3. 下载安装依赖库

3.1 Model Converter 的依赖库

1)创建以及激活 conda 环境(需要安装 anaconda 或者 miniconda )

代码语言:javascript
复制
conda create -n mmdeploy python=3.7 -y
conda activate mmdeploy

2)安装 pytorch >= 1.8.0

Tips

示例环境中 cuda 版本是11.1。如果你的 cuda 版本不是11.1,一定要参考 pytorch 官网,选择合适的安装包。

代码语言:javascript
复制
# CUDA 11.1
conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolkit=11.1 -c pytorch -c conda-forge

3)安装 mmcv-full

Tips

示例环境中 cuda 版本是 11.1。如果你的 cuda 版本不是 11.1,参考 MMCV 官方文档,选择合适的包安装。

代码语言:javascript
复制
export cu_version=cu111
export torch_version=torch1.8
pip install mmcv-full==1.4.0 -f https://download.openmmlab.com/mmcv/dist/${cu_version}/${torch_version}/index.html

3.2 SDK 的依赖

1)安装 Spdlog

如果 ubuntu >= 18.04,

代码语言:javascript
复制
sudo apt-get install libspdlog-dev

ubuntu == 16.04,

代码语言:javascript
复制
wget http://archive.ubuntu.com/ubuntu/pool/universe/s/spdlog/libspdlog-dev_0.16.3-1_amd64.deb
sudo dpkg -i libspdlog-dev_0.16.3-1_amd64.deb

2)Opencv

Tips

需要安装 v3+ 以上的版本。

如果 ubuntu >= 18.04,

代码语言:javascript
复制
sudo apt-get install libopencv-dev

如果 ubuntu == 16.04,

需要从源码安装,参考:

https://docs.opencv.org/3.4/d2/de6/tutorial_py_setup_in_ubuntu.html

3)ppl.cv

代码语言:javascript
复制
git clone https://github.com/openppl-public/ppl.cv.git
cd ppl.cv
git checkout tags/v0.6.2 -b v0.6.2
./build.sh cuda

3.3 后端推理引擎

安装 TensorRT

需下载和 cuda 版本配套的 tensorrt 和 cudnn 压缩包。示例环境是 cuda11.1 ,所以下载了如下的压缩包:

-TensorRT-8.2.1.8.Linux.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz

-cudnn-11.3-linux-x64-v8.2.1.32.tgz

解压上述两个压缩包,安装 TensorRT。

代码语言:javascript
复制
tar -xvf TensorRT-8.2.1.8.Linux.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz
tar -xvf cudnn-11.3-linux-x64-v8.2.1.32.tgz
pip install TensorRT-8.2.1.8/python/tensorrt-8.2.1.8-cp37-none-linux_x86_64.whl

4. 编译 MMDeploy

代码语言:javascript
复制
cd ${MMDEPLOY_DIR}
# 编译 MMDeploy 库
mkdir -p build && cd build
cmake .. -DCMAKE_CXX_COMPILER=g++-7 -DMMDEPLOY_BUILD_SDK=ON -DMMDEPLOY_TARGET_DEVICES="cpu;cuda" -DMMDEPLOY_TARGET_BACKENDS="trt" \
-DMMDEPLOY_CODEBASES=all \
-DMMDEPLOY_BUILD_SDK_PYTHON_API=ON \
-Dpplcv_DIR=/tmp/ppl.cv/cuda-build/install/lib/cmake/ppl \
-DTENSORRT_DIR=/tmp/TensorRT-8.2.1.8 \
-DCUDNN_DIR=/tmp/cuda 

# 安装 MMDeploy 的 Model Converter
cd ${MMDEPLOY_DIR}
pip install -e .

Tips

以上是在临时目录 /tmp 下,进行演示。大家根据自己的实际情况,选择合适的工作目录。

5. 转换模型

这里使用 MMDetection 中的 RetinaNet 为例:

代码语言:javascript
复制
# 设置环境变量
export LD_LIBRARY_PATH=/tmp/TensorRT-8.2.1.8/lib/:$LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/tmp/cuda/lib64:$LD_LIBRARY_PATH
# 模型转换
python tools/deploy.py configs/mmdet/detection/detection_tensorrt_dynamic-320x320-1344x1344.py ../mmdetection/configs/retinanet/retinanet_r50_fpn_1x_coco.py~/Data/checkpoints/retinanet_r50_fpn_1x_coco_20200130-c2398f9e.pth ~/mmdeploy_test_resources/mmdet/images/dog.jpg --device cuda --work-dir /tmp/retinanet --dump-info

6. 使用 SDK 测试模型

6.1 使用 SDK Python 接口

样例代码 test.py

代码语言:javascript
复制
# 调用 MMDeploy SDK python API,输入上述模型转换产生的sdk model路径,图像,得到检测结果
import mmdeploy_python
import sys
import cv2

# 第一个参数是模型转换命令中 --work-dir选项的值
detector = mmdeploy_python.Detector('/tmp/retinanet', 'cuda', 0)
# 需要读取自己路径下的图片
img = cv2.imread(
    '/home/PJLAB/lvhan/mmdeploy_test_resources/mmdet/images/dogs.jpg')

result = detector([img])

print(result)

执行

代码语言:javascript
复制
#设置环境变量
export PYTHONPATH=/tmp/MMDeploy/build/lib/
python test.py
本文参与?腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-03-21,如有侵权请联系?cloudcommunity@tencent.com 删除

本文分享自 OpenMMLab 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com