全部版块 我的主页
论坛 数据科学与人工智能 人工智能 自然语言处理
1040 3
2023-06-29
OpenVINO2022计算机视觉模型部署与加速教程
学习地址1:https://pan.baidu.com/s/1-NsZHwkVVcNmLUOGb82A2Q 提取码: amzn
学习地址2:https://share.weiyun.com/qPIH3bzY 密码:v6ytaw

《OpenVINO2022计算机视觉模型部署与加速教程》分享,视频+源码+模型文件+思维导图下载!

1.1 OpenVINOTMTM 安装环境
OpenVINOTMTM 是一款依赖计算机或智能设备硬件的模型推理部署套件,在边缘启用基于 CNN 的深度学习推理,支持跨英特尔® CPU、英特尔® 集成显卡、英特尔® 神经计算棒 2 和英特尔® 视觉加速器设计与英特尔® MovidiusTM VPU 的异构执行。此处我们介绍在Windows平台上的安装和使用。

由于OpenVINOTMTM 是一款依赖计算机或智能设备硬件的模型推理部署套件,因此它可以在自家的设备上很好的运行,经过测试,在Windows平台上,非 intel CPU设备也可以运行OpenVINOTMTM,例如AMD推出的CPU,此处安装使用的设备为AMD R7-5800H;对于显卡设备不支持英伟达等其他显卡,仅支持英特尔自家显卡。

友情提醒
在导出ONNX格式模型后,可以使用Netron可视化网络结构,明确网络的输入、输出名称以及尺寸,为推理作准备!
导出时可以指定input&output name,尤其是多输出模型,这样在推理后可以推理请求中根据name获取结果;
实际上,OpenVINO 2022支持自动获取输入、输出节点名称!!单输入、单输出的模型可以放心交给API,而多输出模型也可以像旧版本一样通过name获取,也可以通过输出编号获取结果。

2022版本加载模型提供了两种模式分别是read_model与compile_model方式,这两种方式得到分别是model跟compiled model,其中通过read_model方式读取的model对象可以通过compile_model函数转换为compiled model,同时它们都支持直接访问属性获取输入与输出层信息(inputs/outputs)

然后重启VS2019,执行如下代码测试:

#include <openvino/openvino.hpp>
#include <opencv2/opencv.hpp>

using namespace cv;
using namespace std;

int main(int argc, char** argv) {
    // 创建IE插件, 查询支持硬件设备
    ov::Core ie;
    vector<string> availableDevices = ie.get_available_devices();
    for (int i = 0; i < availableDevices.size(); i++) {
        printf("supported device name : %s \n", availableDevices[i].c_str());
    }
    return 0;
}


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2023-8-22 22:56:56

谢谢分享
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2023-10-26 13:47:45
必备技能
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2024-2-27 09:17:18
谢谢分享!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群