前言

上一篇博客给我们介绍了运用opencv加载YOLOv5的onnx模型,但咱们发现运用CPU进行推理检测的确有些慢,那难道在CPU上就不能愉快地进行物体辨认了吗?当然能够啦,这不LabVIEW和OpenVINO就来了嘛!今日就和我们一起看一下如安在CPU上也能感触丝滑的实时物体辨认。

一、OpenVINO是什么

OpenVINO是英特尔针对自家硬件渠道开发的一套深度学习东西库,用于快速布置应用和解决方案,包含推断库,模型优化等等一系列与深度学习模型布置相关的功能。

【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来

特色:

  1. 在边际启用基于CNN的深度学习推理
  2. 支持经过英特尔Movidius™VPU在英特尔CPU,英特尔集成显卡,英特尔神经计算棒2和英特尔视觉加速器设计之间进行异构履行
  3. 经过易于运用的计算机视觉功能库和预先优化的内核加速上市时刻
  4. 包含对计算机视觉标准(包含OpenCV *和OpenCL™)的优化调用
  5. 通俗易懂点说想要在intel-cpu或者嵌入式上布置深度学习模型,能够考虑考虑openvino

二、LabVIEW视觉东西包下载与配置

1、视觉东西包的下载装置

可在如下链接中下载并装置东西包:/post/712459…

2、OpenVINO toolkit下载装置

下载地址:英特尔 Distribution of OpenVINO™ 东西套件 1)点击Dev Tools

【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来
2)挑选版别,挑选如下版别,并DownLoad:

【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来
3)下载后,运行装置即可!

4)能够挑选装置路径,详细装置能够参阅官方文档:docs.openvino.ai/cn/latest/o…

三、模型获取

openvino作业流程,和其他的布置东西都差不多,训练好模型,解析成openvino专用的.xml和.bin,随后传入Inference Engine中进行推理。这儿和上一篇博客一样能够运用export.py导出openvino模型:python export.py –weights yolov5s.pt –include openvino 当然这儿现已为我们转化好了模型,我们能够直接下载,下载链接:YOLOv5 OpenVINO IR模型

【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来

四、LabVIEW+OpenVINO调用Yolov5进行实时物体辨认

1、完成进程

  • dnn模块调用IR模型(模型优化器)
  • 设置计算后台与计算方针设备(推理引擎加速)
  • 获取输出端的LayerName
  • 图画预处理
  • 推理
  • 后处理
  • 绘制检测出的对象

2、程序源码

【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来
【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来

3、辨认结果

CPU形式下,运用openvino进行推理加速,实时检测推理用时仅95ms/frame,是之前加载速度的三分之一

【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来

留意:

  • readNetFromModelOptimizer.vi中IR模型路径不能够包含中文

附加阐明:计算机环境

  • 操作系统:Windows10
  • python:3.6及以上
  • LabVIEW:2018及以上 64位版别
  • 视觉东西包:techforce_lib_opencv_cpu-1.0.0.73.vip
  • OpenVINO:2021.4.2

总结

以上便是今日要给我们分享的内容。

如需源码,请重视微信大众号VIRobotics,回复关键词:yolov5_openvino。

如您想要讨论更多关于LabVIEW与人工智能技术,欢迎加入咱们的技术交流群:705637299,进群请补白暗号:LabVIEW机器学习