目标检测算法在Yolo算法提出后拥有了新的提升空间,在全球技术人员的研究下,迭代速度越来越快,性能也越来越好,目前该算法已具备很好的实时性,加上图像处理技术逐步成熟,Yolo已经被广泛应用到目标检测领域中。一般我们训练出来的模型直接移植到嵌入式平台进行验证检测时会发现检测效果很难达到我们的预期。本文将详细介绍如何在嵌入式平台提升Yolo的检测速度。
方式一:官网下载
方式二:百度网盘下载,提取码:9g88
在终端输入以下指令
sudo apt-get install python3-pip libopenblas-base libopenmpi-dev
pip3 install Cython
pip3 install numpy torch-1.8.0-cp36-cp36m-linux_aarch64.whl # 注意你自己.whl包路径
sudo apt-get install libjpeg-dev zlib1g-dev libpython3-dev libavcodec-dev libavformat-dev libswscale-dev
git clone --branch v0.9.0 torchvision
cd torchvision
export BUILD_VERSION=0.9.0
python3 setup.py install --user
git clone .git
python3 -m pip install --upgrade pip
cd yolov5
pip3 install - -i
环境配置好以后,进行第一次推理,会下载yolov5.pt
python3 detect.py
git clone .git
cd tensorrtx
cp yolov5/gen_wts.py ~/yolov5
cd ~/yolov5
python3 gen_wts.py yolov5s.pt
cd ~/tensorrtx/yolov5
mkdir build && cd build
mv ~/yolov5/yolov5s.wts ./
cmake ..
./yolov5 -s yolov5s.ine s #生成engine文件需要一段时间,请耐心等待
./yolov5 -ine ../samples # 推理结果保存在samples文件夹下
下载链接
sudo apt install
libssl1.0.0
libgstreamer1.0-0
gstreamer1.0-tools
gstreamer1.0-plugins-good
gstreamer1.0-plugins-bad
gstreamer1.0-plugins-ugly
gstreamer1.0-libav
libgstrtspserver-1.0-0
libjansson4=2.11-1
libgstrtspserver-1.0-dev
git clone
cd librdkafka
git reset --hard 7101c2310341ab3f4675fc565f64f0967e135a6a
./configure
make -j4
sudo make install
sudo mkdir -p /opt/nvidia/deepstream/deepstream-5.1/lib
sudo cp /usr/local/lib/librdkafka* /opt/nvidia/deepstream/deepstream-5.1/lib
cd /opt/nvidia/deepstream/deepstream-5.1/samples/configs/deepstream-app/
deepstream-app -c source8_1080p_dec_infer-resnet_tracker_tiled_display_
运行8路视频检测,帧率平均28fps/s。
git clone .0.git
Yolov5-in-Deepstream-5.0/Deepstream 5.0/nvdsinfer_custom_impl_Yolo这个文件夹下少了yolo.o和yoloPlugins.o两个文件,我放在了百度网盘,链接同上。
cd Yolov5-in-Deepstream-5.0/Deepstream 5.0
cp ~/darknet/data/coco.names ./
如图修改config_infer_
cp ~/tensorrtx/yolov5/ine ./ #复制之前生成的引擎文件到当前目录
cp ~/tensorrtx/yolov5/build/libmyplugins.so ./
cd nvdsinfer_custom_impl_Yolo
make -j
编译好的libnvdsinfer_custom_impl_Yolo.so文件我也上传到了百度网盘,连接同上,需要自取。
cd .. LD_PRELOAD=./libmyplugins.so deepstream-app -c deepstream_app_
如果这一步失败,打开deepstream_app_文件,看一下[source0]中要检测的官方视频路径是否正确。视频存放路径:/opt/nvidia/deepstream/deepstream-5.1/samples/configs/deepstream-app/deepstream-app -c source8_1080p_dec_infer-resnet_tracker_tiled_display_ ili
修改deepstream_app_文件,注释掉[source0]这一段,在下面添加以下内容:
[source1]
enable=1
#Type - 1=CameraV4L2 2=URI 3=MultiURI 4=RTSP 5=CSI
type=5
camera-csi-sensor-id=1
camera-width=1280
camera-height=720
camera-fps-n=30
camera-fps-d=1
camera-csi-sensor-id表示你要开启哪一个CSI摄像头,没写这条语句时,一般默认是0号CSI摄像头。查看Jetson挂载的CSI摄像头方法,可以移步到我介绍调用摄像头的那篇博客。
参考博客:Jetson Xavier NX使用Yolov5+DeepStream+TensorRT实现CSI摄像头的目标识别及采坑记录
这篇博客应该能解决大部分安装过程中的问题。
本文介绍了同时使用TensorRT和Deepstream为Yolo模型加速的方法,如果想要用自己的模型,一定要注意自己训练模型的yolo版本是和tensorrt版本一致,否则无法生成引擎文件。同时要修改tensorrtx/yolov5/yololayer.h文件,static constexpr int CLASS_NUM = num
,其中num是你自己模型要识别目标的数量。
通过修改config_infer_这个文件,可以选择引擎文件和标签文本,通过添加/注释deepstream_app_中[source],可以选择检测模式。
本文发布于:2024-02-05 04:10:54,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170723800662947.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |