c++用opencv调用onnx
使用OpenCV调用ONNX需要以下步骤:
首先,确保已经安装了OpenCV和ONNX的库和依赖项,并且正确地配置了环境变量。
导入必要的库文件,包括opencv2和onnxruntime。
加载ONNX模型。使用onnxruntime的InferenceSession类加载ONNX模型,将模型文件路径作为参数传递给构造函数。
准备输入数据。根据模型的输入要求,准备输入数据。可以从图像文件中读取图像数据,然后调整大小和归一化。
运行推理。使用OpenCV中的cv::dnn::Net类创建网络,并使用onnx模型初始化。将准备好的图像数据传递给网络,然后调用前向传播方法。
获取输出结果。从网络中获取输出结果,可以通过cv::Mat对象来处理和显示。
后处理。根据模型的输出要求,对输出进行后处理,例如解码类别标签或进行特定的处理。
显示结果。可以使用OpenCV中的函数显示结果图像,例如cv::imshow或cv::imwrite。
需要注意的是,ONNX模型的输入和输出要求可能有所不同,因此在调用模型之前,需要仔细了解模型的结构和要求。此外,还应该处理异常情况,例如模型加载失败或输入数据不符合要求的情况。
总结起来,使用OpenCV调用ONNX模型需要加载模型、准备输入数据、运行推理、获取输出结果、后处理和显示结果等步骤。通过仔细理解模型的要求和OpenCV的接口,可以成功地调用ONNX模型。
使用OpenCV、ONNXRuntime在c++平台部署YOLOV7实时目标检测的代码
好的,以下是一个简单的使用OpenCV和ONNXRuntime在C++平台部署YOLOv7实时目标检测的代码示例:
#include <iostream>
#include <chrono>
#include <opencv2/opencv.hpp>
#include <onnxruntime_cxx_api.h>
using namespace std;
using namespace cv;
using namespace std::chrono;
using namespace Ort;
int main() {
// 加载模型
Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test");
Ort::SessionOptions session_options;
OrtSession* session;
Ort::AllocatorWithDefaultOptions allocator;
const char* model_path = "yolov7.onnx";
session = new Ort::Session(env, model_path, session_options);
// 加载图像
Mat frame = imread("test.jpg");
if (frame.empty()) {
cout << "读取图像失败!" << endl;
return -1;
}
// 预处理图像
Mat input_blob = blobFromImage(frame, 1 / 255.0, Size(416, 416), Scalar(0, 0, 0), true, false);
Tensor input_tensor = Tensor(
DataType::FLOAT,
{1, 3, input_blob.rows, input_blob.cols},
input_blob.data
);
// 运行模型
vector<const char*> input_names = {"input_1"};
vector<const char*> output_names = {"Identity_1", "Identity_2", "Identity_3"};
vector<Ort::Value> input_tensors = {input_tensor};
vector<Ort::Value> output_tensors = session->Run(Ort::RunOptions{}, input_names.data(), input_tensors.data(), input_names.size(), output_names.data(), output_names.size());
// 后处理输出结果
vector<Mat> detections;
for (int i = 0; i < output_tensors.size(); i++) {
float* output_data = output_tensors[i].GetTensorMutableData<float>();
vector<int64_t> output_shape = output_tensors[i].GetTensorTypeAndShapeInfo().GetShape();
Mat detection(output_shape[1], output_shape[0], CV_32F, output_data);
detections.push_back(detection);
}
float confidence_threshold = 0.5;
vector<int> class_ids;
vector<float> confidences;
vector<Rect> boxes;
for (int i = 0; i < detections.size(); i++) {
for (int j = 0; j < detections[i].rows; j++) {
float* data = detections[i].ptr<float>(j);
float confidence = data[4];
if (confidence > confidence_threshold) {
int class_id = j;
float left = data[0] * frame.cols;
float top = data[1] * frame.rows;
float right = data[2] * frame.cols;
float bottom = data[3] * frame.rows;
int width = right - left + 1;
int height = bottom - top + 1;
class_ids.push_back(class_id);
confidences.push_back(confidence);
boxes.push_back(Rect(left, top, width, height));
}
}
}
for (int i = 0; i < boxes.size(); i++) {
Scalar color(0, 255, 0);
rectangle(frame, boxes[i], color, 2);
string label = format("%.2f", confidences[i]);
int baseline;
Size label_size = getTextSize(label, FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseline);
rectangle(frame, Point(boxes[i].x, boxes[i].y - label_size.height - baseline), Point(boxes[i].x + label_size.width, boxes[i].y), color, FILLED);
putText(frame, label, Point(boxes[i].x, boxes[i].y - baseline), FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 0, 0));
}
// 显示结果
namedWindow("YOLOv7", WINDOW_NORMAL);
resizeWindow("YOLOv7", 800, 600);
imshow("YOLOv7", frame);
waitKey(0);
// 释放资源
delete session;
return 0;
}
这段代码首先使用ONNXRuntime加载YOLOv7模型,然后利用OpenCV读取图像并进行预处理,接着调用ONNXRuntime运行模型,最后根据模型输出结果进行后处理并显示检测结果。需要注意的是,这段代码只是一个简单的示例,实际部署时需要根据具体的场景进行调整。
windows c++如何调用.onnx格式的yolo模型
在Windows环境下使用C++调用ONNX(Open Neural Network Exchange)格式的YOLO(You Only Look Once)模型,你需要遵循以下步骤:
安装依赖库:
- ONNX C++ API:需要安装
onnxruntime
库,这是一个高性能的ONNX运行时环境。可以访问官网https://github.com/microsoft/onnxruntime 或者通过包管理工具如vcpkg来安装。 - 边界框处理库:如
dlib
、OpenCV
等,用于图像处理和目标检测。
- ONNX C++ API:需要安装
加载模型: 使用
onnxruntime:: OrtSession
类来创建一个会话,并通过.LoadModelFromPath()
方法加载ONNX模型文件。例如:std::string model_path = "path_to_your_onnx_model.onnx"; onnxruntime::InferenceSession session(model_path);
输入数据准备: 确定模型所需的输入数据格式,通常是张量,然后准备好待检测的图片数据。
前向传播: 调用
.Run()
函数来执行模型推理,传入输入数据和对应的输入名称:std::vector<float> input_data; // ...填充输入数据... std::vector<onnxruntime::Tensor> inputs = {session.GetInputBlob("input_0"), /*其他输入*/}; std::vector<onnxruntime::Tensor> outputs; session.Run(inputs, {}, outputs);
结果解析: 接收并解析输出张量,通常YOLO模型的输出是一些边界框信息,包括类别概率和坐标,然后根据框架提供的API解析成检测结果。
展示或保存结果: 最后,将检测到的目标在原始图像上绘制出来,或者保存为JSON或其他便于后续处理的格式。