std::cout<<"mask_out: "<<mask_out.size()<<std::endl; std::cout<<mask_out[0].size()<<std::endl; std::cout<<mask_out[1].size()<<std::endl; long time_cast = (tt_end - tt_init)/10; std::cout<<"平均每次模型处理图片运行时间: "<<time_cast<<" ms"<<std::endl; // Check if the values are boolean and rescale for (int i = 0 ; i < mask_out.size() ; i++){ int num = 0 ; for (int row = 0; row < mask_out[i].rows; ++row) { for (int col = 0; col < mask_out[i].cols; ++col) { uchar value = mask_out[i].at<uchar>(row, col); if (value != 0) { mask_out[i].at<uchar>(row, col) = 255; num += 1; } else{ mask_out[i].at<uchar>(row, col) = 0; } } } std::cout<<num<<std::endl; } // Save the scaled cv::Mat as an image cv::imwrite("/app/SamCython/imgs/results/Cython_C_l_0.jpg", mask_out[0]); cv::imwrite("/app/SamCython/imgs/results/Cython_C_l_1.jpg", mask_out[1]); CythonSegmentation::version(handle); CythonSegmentation::destroy(&handle); mask_out[0]的size为[1920X1080] 为什么我没有成功保存图片
时间: 2024-04-26 12:24:41 浏览: 8
根据您提供的代码,您的图片保存部分看起来是正确的。可能是由于您没有在代码中设置正确的文件路径或者没有写入文件的写入权限等原因导致保存失败。
您可以检查以下几个方面:
1. 检查您的文件路径是否正确,确保您打算写入的文件夹已经创建,如果没有,请创建一个新的文件夹。
2. 检查您的写入权限,确保您的程序有允许写入文件的权限。
3. 检查您的代码是否有运行时错误或异常。您可以使用异常处理来捕获可能的错误,并在控制台中输出错误信息以帮助您调试。
如果您没有发现任何问题,请尝试使用其他图片格式(如PNG)保存,并检查是否可以正常保存。
相关问题
解释下面这段代码 if(currentFrame.mTcw.empty()){ std::cout << "Geometry not working." << std::endl; } else if (mDB.mNumElem >= ELEM_INITIAL_MAP)// >5 { std::cout << "Geometry DB size ." << mDB.mNumElem << std::endl; vector<ORB_SLAM2::Frame> vRefFrames = GetRefFrames(currentFrame); // 从关键帧数据库中获取当前帧的参考帧==== vector<DynKeyPoint> vDynPoints = ExtractDynPoints(vRefFrames,currentFrame);// 提取运动点= mask = DepthRegionGrowing(vDynPoints,imDepth);// 对稀疏的运动点 使用深度信息 进行扩展=====
这段代码是一个条件语句,其作用是根据当前帧的状态执行不同的操作。具体来说:
1. 如果当前帧的位姿转换矩阵(mTcw)为空,输出“Geometry not working.”的提示语句。
2. 否则,如果关键帧数据库中的元素个数(mNumElem)大于等于一个预设的值(ELEM_INITIAL_MAP),则执行以下操作:
a. 输出“Geometry DB size .”和关键帧数据库中元素个数(mNumElem)的提示语句。
b. 从关键帧数据库中获取当前帧的参考帧(vRefFrames)。
c. 提取当前帧和参考帧之间的运动点(vDynPoints)。
d. 对稀疏的运动点使用深度信息进行扩展,生成一个掩码(mask),用于后续的运动物体分割等操作。
以上是对代码的简单解释,具体的实现细节需要参考代码中各个函数的实现。
std::cout << "***************************" <<std::endl; yolov5trt->detect_api(color_img, conf_thre, is_seg); res_boxes = yolov5trt->res; boxes.clear(); for (int id = 0; id < res_boxes.size(); id++) { this->Draw_mask_bbox(res_boxes[id]); // int dist = yolov5trt->get_distance(resized_box, depth_img, 24); int dist = -1; b.cls = all_classes[class_names[res_boxes[id].class_id]]; b.box = resized_box; b.conf = res_boxes[id].conf; // b.dist = (dist / 1000); b.dist = dist; boxes.push_back(b); std::cout << "class_name: " << class_names[res_boxes[id].class_id] << " conf: " << res_boxes[id].conf << " dist: " << dist << std::endl;
这段代码涉及到输出检测结果和一些相关信息的过程。
首先,使用 `std::cout` 输出一行分隔符,用于区分不同的输出结果。
接下来,调用 `yolov5trt->detect_api` 方法对 `color_img` 进行目标检测,设置置信度阈值为 `conf_thre`,并指定是否进行分割操作。
然后,将检测到的结果赋值给 `res_boxes`。
接下来,清空 `boxes` 容器,为后续的结果存储做准备。
然后,使用 `for` 循环遍历 `res_boxes` 中的每个检测结果。
在循环中,调用 `this->Draw_mask_bbox(res_boxes[id])` 方法绘制目标的掩膜边界框。
接下来,使用 `yolov5trt->get_distance` 方法计算目标框到深度图像的距离,并将结果赋值给 `dist`。
然后,将目标的类别、边界框、置信度和距离信息保存到结构体 `b` 中。
将 `b` 添加到 `boxes` 容器中。
最后,使用 `std::cout` 输出目标类别、置信度和距离等信息。
这段代码的目的是输出检测到的目标类别、置信度和距离等信息,并将检测结果保存到容器中。