Yy2_3[i] = XYxy[ei[i, 2 - 1] - 1, 0][1] - XYxy[ei[i, 3 - 1] - 1, 0][1] B[i, 0] = 1 / 2 / Ae[i] * Yy2_3[i] Yy3_1[i] = XYxy[ei[i, 3 - 1] - 1, 0][1] - XYxy[ei[i, 1 - 1] - 1, 0][1] B[i, 1] = 1 / 2 / Ae[i] * Yy3_1[i] Yy1_2[i] = XYxy[ei[i, 1 - 1] - 1, 0][1] - XYxy[ei[i, 2 - 1] - 1, 0][1] B[i, 2] = 1 / 2 / Ae[i] * Yy1_2[i] 优化

时间: 2023-08-18 21:31:32 浏览: 23
可以将代码中的重复计算进行简化,优化后的代码如下: ``` y_diff = XYxy[ei[:,2]-1, 0][:, 1] - XYxy[ei[:,3]-1, 0][:, 1] B[:, 0] = 1 / 2 / Ae * y_diff y_diff = XYxy[ei[:,3]-1, 0][:, 1] - XYxy[ei[:,1]-1, 0][:, 1] B[:, 1] = 1 / 2 / Ae * y_diff y_diff = XYxy[ei[:,1]-1, 0][:, 1] - XYxy[ei[:,2]-1, 0][:, 1] B[:, 2] = 1 / 2 / Ae * y_diff ``` 其中,通过使用切片操作和数组索引,可以避免重复计算。同时,注意到B、ei、Ae、XYxy、y_diff都是数组,需要在代码其他部分定义或赋值。
相关问题

def trigger(self, detections: Detections) -> np.ndarray: """ Determines if the detections are within the polygon zone. Parameters: detections (Detections): The detections to be checked against the polygon zone Returns: np.ndarray: A boolean numpy array indicating if each detection is within the polygon zone """ clipped_xyxy = clip_boxes( boxes_xyxy=detections.xyxy, frame_resolution_wh=self.frame_resolution_wh ) clipped_detections = replace(detections, xyxy=clipped_xyxy) clipped_anchors = np.ceil( clipped_detections.get_anchor_coordinates(anchor=self.triggering_position) ).astype(int) is_in_zone = self.mask[clipped_anchors[:, 1], clipped_anchors[:, 0]] self.current_count = np.sum(is_in_zone) return is_in_zone.astype(bool)

这是一个名为 `trigger` 的方法,用于确定检测结果是否位于多边形区域内。 该方法接受一个 `Detections` 对象作为参数,该对象包含了待检测的结果。在方法中,首先通过 `clip_boxes` 函数对检测结果的边界框进行裁剪,以确保其不超出帧的分辨率。然后,使用 `replace` 函数将裁剪后的边界框应用到 `detections` 对象中。 接下来,使用 `get_anchor_coordinates` 方法获取裁剪后的边界框的锚点坐标,并将其取整为最接近的整数,并将其设置为 `clipped_anchors`。 然后,通过使用 `self.mask` 和 `clipped_anchors`,获取每个锚点坐标是否位于多边形区域内的布尔值,并将结果保存在 `is_in_zone` 中。 最后,通过使用 `np.sum` 统计位于多边形区域内的锚点的数量,并将其保存在 `self.current_count` 中。最后,将 `is_in_zone` 转换为布尔类型并返回。 请注意,上述代码中使用的函数和类,如 `clip_boxes`、`replace`、`Detections` 等,都没有给出具体实现。您需要根据您的需求自行实现或导入这些函数和类。 以下是代码示例: ```python import numpy as np class PolygonZone: def trigger(self, detections: Detections) -> np.ndarray: # 裁剪边界框 clipped_xyxy = clip_boxes( boxes_xyxy=detections.xyxy, frame_resolution_wh=self.frame_resolution_wh ) clipped_detections = replace(detections, xyxy=clipped_xyxy) # 获取锚点坐标 clipped_anchors = np.ceil( clipped_detections.get_anchor_coordinates(anchor=self.triggering_position) ).astype(int) # 检测是否位于多边形区域内 is_in_zone = self.mask[clipped_anchors[:, 1], clipped_anchors[:, 0]] # 统计位于多边形区域内的数量 self.current_count = np.sum(is_in_zone) return is_in_zone.astype(bool) ``` 请根据您的需求实现或导入缺失的函数和类,并根据具体情况进行调整。

translation this code to c:def filter_box(org_box, conf_thres, iou_thres): org_box = np.squeeze(org_box) conf = org_box[..., 4] > conf_thres box = org_box[conf == True] print('box:') print(box.shape) cls_cinf = box[..., 5:] cls = [] for i in range(len(cls_cinf)): cls.append(int(np.argmax(cls_cinf[i]))) all_cls = list(set(cls)) output = [] for i in range(len(all_cls)): curr_cls = all_cls[i] curr_cls_box = [] curr_out_box = [] for j in range(len(cls)): if cls[j] == curr_cls: box[j][5] = curr_cls curr_cls_box.append(box[j][:6]) curr_cls_box = np.array(curr_cls_box) curr_cls_box = xywh2xyxy(curr_cls_box) curr_out_box = nms(curr_cls_box, iou_thres) for k in curr_out_box: output.append(curr_cls_box[k]) output = np.array(output) return output

以下是该代码的 C 语言版本: ```c #include <stdio.h> #include <stdlib.h> #include <math.h> #define MAX_BOX_NUM 1000 typedef struct { float x, y, w, h, score; int cls; } Box; float max(float a, float b) { return a > b ? a : b; } float min(float a, float b) { return a < b ? a : b; } float iou(Box a, Box b) { float inter_xmin = max(a.x - a.w / 2, b.x - b.w / 2); float inter_ymin = max(a.y - a.h / 2, b.y - b.h / 2); float inter_xmax = min(a.x + a.w / 2, b.x + b.w / 2); float inter_ymax = min(a.y + a.h / 2, b.y + b.h / 2); float inter_w = max(inter_xmax - inter_xmin, 0.f); float inter_h = max(inter_ymax - inter_ymin, 0.f); float inter_area = inter_w * inter_h; float a_area = a.w * a.h; float b_area = b.w * b.h; float union_area = a_area + b_area - inter_area; return inter_area / union_area; } void xywh2xyxy(float* box) { float x = box[0], y = box[1], w = box[2], h = box[3]; box[0] = x - w / 2; box[1] = y - h / 2; box[2] = x + w / 2; box[3] = y + h / 2; } void nms(Box* boxes, int box_num, float iou_thres, Box* out_boxes, int* out_box_num) { int* mask = (int*)malloc(sizeof(int) * box_num); int i, j, k; for (i = 0; i < box_num; ++i) { mask[i] = 1; } for (i = 0; i < box_num; ++i) { if (!mask[i]) { continue; } out_boxes[(*out_box_num)++] = boxes[i]; for (j = i + 1; j < box_num; ++j) { if (!mask[j]) { continue; } float iou_val = iou(boxes[i], boxes[j]); if (iou_val > iou_thres) { mask[j] = 0; } } } free(mask); } Box* filter_box(float* org_box, float conf_thres, float iou_thres, int* box_num) { int i, j; float* box = (float*)malloc(sizeof(float) * MAX_BOX_NUM * 6); int conf_box_num = 0; int cls[MAX_BOX_NUM]; int cls_num = 0; for (i = 0; i < MAX_BOX_NUM; ++i) { float* cur_box = org_box + i * 6; if (cur_box[4] <= conf_thres) { continue; } for (j = 0; j < 5; ++j) { box[conf_box_num * 6 + j] = cur_box[j]; } cls[conf_box_num] = (int)round(cur_box[5]); ++conf_box_num; } for (i = 0; i < conf_box_num; ++i) { int cur_cls = cls[i]; int is_new_cls = 1; for (j = 0; j < cls_num; ++j) { if (cur_cls == cls[j]) { is_new_cls = 0; break; } } if (is_new_cls) { cls[cls_num++] = cur_cls; } } Box* output = (Box*)malloc(sizeof(Box) * MAX_BOX_NUM); int output_box_num = 0; for (i = 0; i < cls_num; ++i) { int cur_cls = cls[i]; float curr_cls_box[MAX_BOX_NUM][6]; int curr_cls_box_num = 0; for (j = 0; j < conf_box_num; ++j) { if (cls[j] == cur_cls) { box[j * 6 + 5] = cur_cls; int k; for (k = 0; k < 6; ++k) { curr_cls_box[curr_cls_box_num][k] = box[j * 6 + k]; } ++curr_cls_box_num; } } for (j = 0; j < curr_cls_box_num; ++j) { xywh2xyxy(curr_cls_box[j]); } Box curr_out_box[MAX_BOX_NUM]; int curr_out_box_num = 0; nms((Box*)curr_cls_box, curr_cls_box_num, iou_thres, curr_out_box, &curr_out_box_num); for (j = 0; j < curr_out_box_num; ++j) { output[output_box_num++] = curr_out_box[j]; } } free(box); *box_num = output_box_num; return output; } ```

相关推荐

代码解释# Process detections for i, det in enumerate(pred): # detections per image if webcam: # batch_size >= 1 p, s, im0 = path[i], '%g: ' % i, im0s[i].copy() else: p, s, im0 = path, '', im0s save_path = str(Path(out) / Path(p).name) s += '%gx%g ' % img.shape[2:] # print string gn = torch.tensor(im0.shape)[[1, 0, 1, 0]] # normalization gain whwh if det is not None and len(det): # Rescale boxes from img_size to im0 size det[:, :4] = scale_coords(img.shape[2:], det[:, :4], im0.shape).round() # Print results for c in det[:, -1].unique(): n = (det[:, -1] == c).sum() # detections per class s += '%g %ss, ' % (n, names[int(c)]) # add to string # Write results for *xyxy, conf, cls in det: if save_txt: # Write to file xywh = (xyxy2xywh(torch.tensor(xyxy).view(1, 4)) / gn).view(-1).tolist() # normalized xywh with open(save_path[:save_path.rfind('.')] + '.txt', 'a') as file: file.write(('%g ' * 5 + '\n') % (cls, *xywh)) # label format if save_img or view_img: # Add bbox to image label = '%s %.2f' % (names[int(cls)], conf) if label is not None: if (label.split())[0] == 'person': people_coords.append(xyxy) # plot_one_box(xyxy, im0, line_thickness=3) plot_dots_on_people(xyxy, im0) # Plot lines connecting people distancing(people_coords, im0, dist_thres_lim=(100, 150)) # Print time (inference + NMS) print('%sDone. (%.3fs)' % (s, t2 - t1)) # Stream results if 1: ui.showimg(im0) if cv2.waitKey(1) == ord('q'): # q to quit raise StopIteration # Save results (image with detections) if save_img: if dataset.mode == 'images': cv2.imwrite(save_path, im0) else: if vid_path != save_path: # new video vid_path = save_path if isinstance(vid_writer, cv2.VideoWriter): vid_writer.release() # release previous video writer fps = vid_cap.get(cv2.CAP_PROP_FPS) w = int(vid_cap.get(cv2.CAP_PROP_FRAME_WIDTH)) h = int(vid_cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) vid_writer = cv2.VideoWriter(save_path, cv2.VideoWriter_fourcc(*opt.fourcc), fps, (w, h)) vid_writer.write(im0)

最新推荐

recommend-type

高校学生选课系统项目源码资源

项目名称: 高校学生选课系统 内容概要: 高校学生选课系统是为了方便高校学生进行选课管理而设计的系统。该系统提供了学生选课、查看课程信息、管理个人课程表等功能,同时也为教师提供了课程发布和管理功能,以及管理员对整个选课系统的管理功能。 适用人群: 学生: 高校本科生和研究生,用于选课、查看课程信息、管理个人课程表等。 教师: 高校教师,用于发布课程、管理课程信息和学生选课情况等。 管理员: 系统管理员,用于管理整个选课系统,包括用户管理、课程管理、权限管理等。 使用场景及目标: 学生选课场景: 学生登录系统后可以浏览课程列表,根据自己的专业和兴趣选择适合自己的课程,并进行选课操作。系统会实时更新学生的选课信息,并生成个人课程表。 教师发布课程场景: 教师登录系统后可以发布新的课程信息,包括课程名称、课程描述、上课时间、上课地点等。发布后的课程将出现在课程列表中供学生选择。 管理员管理场景: 管理员可以管理系统的用户信息,包括学生、教师和管理员账号的添加、删除和修改;管理课程信息,包括课程的添加、删除和修改;管理系统的权限控制,包括用户权限的分配和管理。 目标: 为高校学生提
recommend-type

TC-125 230V 50HZ 圆锯

TC-125 230V 50HZ 圆锯
recommend-type

影音娱乐北雨影音系统 v1.0.1-bymov101.rar

北雨影音系统 v1.0.1_bymov101.rar 是一个计算机专业的 JSP 源码资料包,它为用户提供了一个强大而灵活的在线影音娱乐平台。该系统集成了多种功能,包括视频上传、播放、分享和评论等,旨在为用户提供一个全面而便捷的在线视频观看体验。首先,北雨影音系统具有强大的视频上传功能。用户可以轻松地将本地的视频文件上传到系统中,并与其他人分享。系统支持多种视频格式,包括常见的 MP4、AVI、FLV 等,确保用户能够方便地上传和观看各种类型的视频。其次,该系统提供了丰富的视频播放功能。用户可以选择不同的视频进行观看,并且可以调整视频的清晰度、音量等参数,以适应不同的观看需求。系统还支持自动播放下一个视频的功能,让用户可以连续观看多个视频,无需手动切换。此外,北雨影音系统还提供了一个社交互动的平台。用户可以在视频下方发表评论,与其他观众进行交流和讨论。这为用户之间的互动提供了便利,增加了观看视频的乐趣和参与感。最后,该系统还具备良好的用户体验和界面设计。界面简洁明了,操作直观易用,让用户可以快速上手并使用各项功能。同时,系统还提供了个性化的推荐功能,根据用户的观看历史和兴趣,为用户推荐
recommend-type

Tripp Trapp 儿童椅用户指南 STOKKE

Tripp Trapp 儿童椅用户指南
recommend-type

node-v8.13.0-linux-armv6l.tar.gz

Node.js,简称Node,是一个开源且跨平台的JavaScript运行时环境,它允许在浏览器外运行JavaScript代码。Node.js于2009年由Ryan Dahl创立,旨在创建高性能的Web服务器和网络应用程序。它基于Google Chrome的V8 JavaScript引擎,可以在Windows、Linux、Unix、Mac OS X等操作系统上运行。 Node.js的特点之一是事件驱动和非阻塞I/O模型,这使得它非常适合处理大量并发连接,从而在构建实时应用程序如在线游戏、聊天应用以及实时通讯服务时表现卓越。此外,Node.js使用了模块化的架构,通过npm(Node package manager,Node包管理器),社区成员可以共享和复用代码,极大地促进了Node.js生态系统的发展和扩张。 Node.js不仅用于服务器端开发。随着技术的发展,它也被用于构建工具链、开发桌面应用程序、物联网设备等。Node.js能够处理文件系统、操作数据库、处理网络请求等,因此,开发者可以用JavaScript编写全栈应用程序,这一点大大提高了开发效率和便捷性。 在实践中,许多大型企业和组织已经采用Node.js作为其Web应用程序的开发平台,如Netflix、PayPal和Walmart等。它们利用Node.js提高了应用性能,简化了开发流程,并且能更快地响应市场需求。
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章

![:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章](https://img-blog.csdnimg.cn/img_convert/69b98e1a619b1bb3c59cf98f4e397cd2.png) # 1. 目标检测算法概述 目标检测算法是一种计算机视觉技术,用于识别和定位图像或视频中的对象。它在各种应用中至关重要,例如自动驾驶、视频监控和医疗诊断。 目标检测算法通常分为两类:两阶段算法和单阶段算法。两阶段算法,如 R-CNN 和 Fast R-CNN,首先生成候选区域,然后对每个区域进行分类和边界框回归。单阶段算法,如 YOLO 和 SSD,一次性执行检
recommend-type

info-center source defatult

这是一个 Cisco IOS 命令,用于配置 Info Center 默认源。Info Center 是 Cisco 设备的日志记录和报告工具,可以用于收集和查看设备的事件、警报和错误信息。该命令用于配置 Info Center 默认源,即设备的默认日志记录和报告服务器。在命令行界面中输入该命令后,可以使用其他命令来配置默认源的 IP 地址、端口号和协议等参数。
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。