这篇文章主要讲解了“C++怎么实现基于OpenCV的DNN网络”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“C++怎么实现基于OpenCV的DNN网络”吧!
OpenCV从3.3版本就开始引入DNN模块,现在已经是4.5版本了,DNN模块的支持度也更好了。目前OpenCV已经支持ONNX格式的模型加载和推理,后端的推理引擎也有了多种选择。
而Pytorch作为目前易用性相对最好的深度学习训练框架,使用非常广泛。Pytorch的pth格式模型没法直接用OpenCV加载,但可以转换成ONNX格式使用。
首先在Ubuntu下编译OpenCV,默认配置选项已经可以支持加载ONNX模型进行推理,不需要contrib
库支持或其他的特殊配置。
我在编译过程中,按照习惯仅指定了CMAKE_INSTALL_PREFIX
参数,用来指定编译后的安装路径,方便后期管理,不干扰系统目录。
Pytorch已经原生支持导出ONNX模型,具体可以参见官方教程和文档。
一个最简化的导出Demo如下,核心的只有torch.onnx.export
一个函数。
import torch import torchvision model = torchvision.models.mobilenet_v2(pretrained=True) x = torch.rand(1, 3, 224, 224) save_path = "./model_file/mobilenetv2.onnx" torch.onnx.export(model, x, save_path, input_names=["input"], output_names=["output"], opset_version=11)
利用OpenCV的DNN模块进行网络推理,可以参考官方教程,以及源码包中的samples/dnn/classification.cpp
。
这边以我之前做的一个目标修正的小网络为例,演示一个简化的Demo。
模型借鉴MobilenetV2
中的InvertedResidual
模块,搭建特征提取部分,输入64*64的图像,最后通过pooling
层和fc
层,输出一个10维的向量。
输出向量的含义分别为:
0:目标Confidence,是否包含目标;
1-5:目标Class,分类得分;
6-9:2D-BBox,按xywh方式表述。
一个简化的推理Demo如下所示。
#include <iostream> #include <opencv2/opencv.hpp> using namespace cv; int main(int argc, char** argv) { // load model String model = "../model_file/mobilenet.onnx"; dnn::Net net = dnn::readNetFromONNX(model); // load image data float scale = 0.0078125; Scalar mean = Scalar(128.0, 128.0, 128.0); Mat frame = imread("../images/car.png"); Mat blob; dnn::blobFromImage(frame, blob, scale, Size(64, 64), mean, false, false); // inference and time double t = getTickCount(); net.setInput(blob); Mat output = net.forward(); t = (getTickCount() - t) / getTickFrequency(); std::cout << "Output shape: " << output.size() << ", Time-cost: " << t << std::endl; // visualize visualize_result(frame, output); return 0; }
其中结果可视化的代码不再赘述,主要是把回归出的2DBBox画出来。
结果输出如下:
Output shape: [10 x 1], Time-cost: 0.0013024
输出结果维度符合预期,运行时间也与python调用onnxruntime
的运行耗时差不多。
结果可视化如下,可以正确地对车辆目标的位置进行修正。
感谢各位的阅读,以上就是“C++怎么实现基于OpenCV的DNN网络”的内容了,经过本文的学习后,相信大家对C++怎么实现基于OpenCV的DNN网络这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。