当前位置: 首页 > 资讯中心 > 游戏攻略 > OpenVino快速落地部署教程

OpenVino快速落地部署教程

来源:网络作者:提莫时间:2024-08-28 09:58:06
分享到:
标签:
OpenVino快速落地部署教程 Openvino是由Intel开发的专门用于优化和部署人工智能推理的半开源的工具包,主要用于对深度推理做优化。本教程适用于Yolov5-7.0,直接跑Yolov5为6FPS,使用OpenVino后为30FPS,未来将会出一系列其他模型(Paddle等)的OpenVi

OpenVino 是由 Intel 开发的半开源工具包,专门用于优化和部署人工智能推理,主要用于对深度 推理做优化 。本教程适用于 Yolov5-7.0 ,直接跑Yolov5为6FPS,使用OpenVino后为30FPS。未来将会出一系列其他模型(Paddle等)的OpenVino部署教程。测试平台为Intel Nuc 11代i5处理器。

一、安装OpenVino

进入OpenVino官网: https://docs.openvino.ai/2024/get-started/install-openvino.html

选择自己喜欢的下载方式,本教程采用OpenVino-2022.3.1版本。

二、模型转换

  1. 通过Yolov5自带的export.py文件将.pt转为.onnx格式:

    python3 export.py --weights xxxx/xxxxx.pt --include onnx --batch_size 1 --opset 10
    PS:如果出现转换失败的提示,如:opset 10不支持或是onnx版本问题请重新搭建yolov5环境,按照requirements.txt里库的最低版本进行安装
    
  2. 使用OpenVino工具链将.onnx转为xml、bin模型:

    mo --input_model xxx/xxx.onnx
    PS:如果openvino环境安装成功将可以在yolov5的环境中直接使用mo命令
    

PS:转换完成后请一定用模型可视化工具查看转换是否正确。

三、采用以下代码快速部署

import openvino.runtime as ov
import cv2
import numpy as np
import openvino.preprocess as op

class ObjectDetector:
    def __init__(self, model_xml, model_bin, labels, device="CPU"):
        self.core = ov.Core()
        self.model = self.core.read_model(model_xml, model_bin)
        self.labels = labels
        self.preprocess_model()
        self.compiled_model = self.core.compile_model(self.model, device)
        self.infer_request = self.compiled_model.create_infer_request()

    # 以下代码段省略...
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

相关阅读

装机必备软件
  • 下载总排行
  • 下载月排行

1高德地图2021

新闻资讯

2大众点评

聊天社交

3迅雷

壁纸主题

4一波语音

聊天社交

5知乎

摄影摄像

6映客

学习教育

7哈啰出行最新版

聊天社交

8花小猪打车

学习教育

9qq邮箱

摄影摄像

10贝壳找房

生活健康