把以上编码写成实验步骤

时间: 2024-12-04 10:28:21 浏览: 11
### 实验步骤:基于计算机视觉的自行车导航系统 #### 准备工作 1. **环境搭建**: - 安装必要的Python包:`sklearn`, `numpy`, `opencv-python`, `enum`, `base64`, `math`, `struct`, `time`。 - 如果使用OpenNI摄像头,安装OpenNI库和驱动。 - 如果使用普通摄像头,确保摄像头正常连接并可用。 2. **导入依赖**: ```python from sklearn.cluster import KMeans import numpy as np import cv2 from enum import Enum import base64 import math import struct import time ``` #### 初始化参数和类 3. **定义状态枚举**: ```python class State(Enum): left = 1 right = 2 center = 3 left_to_center = 4 right_to_center = 5 ``` 4. **定义自行车参数类**: ```python class Bike_args: def __init__(self, _camera): self.camera = _camera self.blue_low = np.array([65, 66, 60]) self.blue_upper = np.array([125, 254, 255]) self.yellow_low = np.array([23, 0, 144]) self.yellow_upper = np.array([180, 255, 255]) self.find_current_x_delta_x = 130 self.shifted_x = 22 self.block_detect_y = 290 self.block_detect_delta_y = 80 self.block_h_upper = 30 self.stop_line1_detect_y = 400 self.wait_back_center_data = struct.pack("!BB", 0xA5, 0X01) self.first_stop_line = struct.pack("!BB", 0xA5, 0X02) ``` 5. **定义自行车主类**: ```python class Bike_class: def __init__(self, _socketio, _camera, _task=0, _block_nums=3, _skip_times=400, _block_dirc=(3, 3, 3)): self.socketio = _socketio self.init_flag = 0 self.kmeans = KMeans(n_clusters=2) self.bike_args = Bike_args(_camera) self.M = None self.M_inverse = None self.M_inverse_list = None self.get_warp_M() self.color_stream = None self.cap = None if self.bike_args.camera == 0: from openni import openni2 openni2.initialize() dev = openni2.Device.open_any() self.color_stream = dev.create_color_stream() self.color_stream.start() elif self.bike_args.camera == 1: self.cap = cv2.VideoCapture(0) self.state = State.center self.dynamic_center_x = 320 self.left_fit = None self.right_fit = None self.skip_frame_times = 0 self.initial_skip_frame_times = 80 self.shift_to_center_x = 0 self.to_center_x = 0 self.dynamic_shift_x = 0 self.task = _task self.skip_block_nums = 0 self.last_block_state = State.center self.catch_block_times = 0 self.wait_back_center_flag = 0 self.block_nums = _block_nums self.stop_skip_times = _skip_times self.block_direction_list = [] for _ in _block_dirc: if _ == 1: self.block_direction_list.append(State.right) elif _ == 2: self.block_direction_list.append(State.left) else: self.block_direction_list.append(State.center) self.log_times = 0 self.block_detect_times = 0 self.stop_line_times = 0 self.img = None self.warp_img = None self.edges = None self.line_points_x = [] self.left_line_x = [] self.right_line_x = [] self.leftx_mean = None self.left_point_source = None self.rightx_mean = None self.right_point_source = None self.catch_point_source = None self.rightx_mean_list = [] self.leftx_mean_list = [] self.x_mean_list = [] self.x_mean = None self.x_error = None self.last_x_error = None self.error_flag = 0 self.img_size = (640, 480) self.y = 180 self.wait_back_center_flag_debug = 0 self.record_flag = 0 self.error_x_save_list = [] def show_image(self, _img, flag): if flag == 0: frame = cv2.resize(_img, (160, 120)) encode_param = [int(cv2.IMWRITE_JPEG_QUALITY), 85] _, compressed_frame = cv2.imencode('.jpg', frame, encode_param) frame_data = base64.b64encode(compressed_frame).decode('utf-8') self.socketio.emit('image', {'image_data': frame_data}) else: encode_param = [int(cv2.IMWRITE_JPEG_QUALITY), 85] _, compressed_frame = cv2.imencode('.jpg', _img, encode_param) frame_data = base64.b64encode(compressed_frame).decode('utf-8') self.socketio.emit('event_image', {'image_data': frame_data}) def show_log(self, _text): self.socketio.emit('log', {'log': _text}) def get_warp_M(self): objdx = 200 objdy = 230 imgdx = 220 imgdy = 250 list_pst = [[172, 330], [461, 330], [75, 475], [546, 475]] pts1 = np.float32(list_pst) pts2 = np.float32([[imgdx, imgdy], [imgdx + objdx, imgdy], [imgdx, imgdy + objdy], [imgdx + objdx, imgdy + objdy]]) self.M = cv2.getPerspectiveTransform(pts1, pts2) self.M_inverse = cv2.getPerspectiveTransform(pts2, pts1) self.M_inverse_list = self.M_inverse.flatten() def point_reverse_perspective(self, point): x, y = point denom = self.M_inverse_list[6] * x + self.M_inverse_list[7] * y + 1 x_transformed = (self.M_inverse_list[0] * x + self.M_inverse_list[1] * y + self.M_inverse_list[2]) / denom y_transformed = (self.M_inverse_list[3] * x + self.M_inverse_list[4] * y + self.M_inverse_list[5]) / denom return (int(x_transformed), int(y_transformed)) def interpolate_value(self, start_value, end_value, initial_times, current_times): step = (end_value - start_value) / initial_times current_value = start_value + step * current_times return int(current_value) def img_preprocess(self): self.img = cv2.medianBlur(self.img, 9) self.warp_img = cv2.warpPerspective(self.img, self.M, self.img_size) warp_img_hsv = cv2.cvtColor(self.warp_img, cv2.COLOR_BGR2HSV) blue_mask_white = cv2.inRange(warp_img_hsv, self.bike_args.blue_low, self.bike_args.blue_upper) blue_mask_white = cv2.bitwise_not(blue_mask_white) kernel = np.ones((5, 5), np.uint8) blue_mask_white = cv2.erode(blue_mask_white, kernel, iterations=1) edges = cv2.Canny(self.warp_img, 50, 40, apertureSize=3) edges = cv2.bitwise_and(edges, edges, mask=blue_mask_white) kernel = np.ones((3, 3), np.uint8) edges = cv2.dilate(edges, kernel, iterations=2) edges_mask = np.zeros((self.img_size[1], self.img_size[0]), dtype=np.uint8) cv2.rectangle(edges_mask, (160, 0), (480, 480), 255, thickness=cv2.FILLED) self.edges = cv2.bitwise_and(edges, edges, mask=edges_mask) def img_HoughLines(self): self.line_points_x.clear() lines = cv2.HoughLines(self.edges, 1, np.pi / 180, threshold=260) if lines is not None: for line in lines: rho, theta = line[0] theta_degree = np.degrees(theta) if theta_degree > 90: theta_degree = 180 - theta_degree if np.abs(theta_degree) > 35: continue elif np.abs(theta) == 0: b = rho self.line_points_x.append(int(b)) else: m = -1 / np.tan(theta) b = rho / np.sin(theta) self.line_points_x.append(int((self.y - b) / m)) def img_HoughLines_filter(self): self.left_line_x.clear() self.right_line_x.clear() if len(self.line_points_x) != 0: for point_x in self.line_points_x: if point_x < self.dynamic_center_x and point_x > (self.dynamic_center_x - self.bike_args.find_current_x_delta_x): self.left_line_x.append(point_x) cv2.circle(self.warp_img, (point_x, self.y), radius=5, color=(255, 255, 255), thickness=-1) elif point_x > self.dynamic_center_x and point_x < (self.dynamic_center_x + self.bike_args.find_current_x_delta_x): self.right_line_x.append(point_x) cv2.circle(self.warp_img, (point_x, self.y), radius=5, color=(255, 255, 255), thickness=-1) if self.state == State.left or self.state == State.left_to_center or self.state == State.center: if len(self.left_line_x) != 0: self.leftx_mean = int(np.mean(self.left_line_x)) cv2.line(self.warp_img, (self.leftx_mean, 0), (self.leftx_mean, 480), (255, 0, 0), 3) self.error_flag = 0 else: self.error_flag = 1 if self.state == State.right or self.state == State.right_to_center or self.state == State.center: if len(self.right_line_x) != 0: self.rightx_mean = int(np.mean(self.right_line_x)) cv2.line(self.warp_img, (self.rightx_mean, 0), (self.rightx_mean, 480), (255, 0, 0), 3) self.error_flag = 0 else: self.error_flag = 1 else: self.error_flag = 1 def img_swap_windows(self): margin = 35 minpix = 25 try: if self.error_flag != 1: left_lane_inds = [] last_good_left_inds_len = 0 right_lane_inds = [] last_good_right_inds_len = 0 nwindows = 8 window_height = np.int32(self.img_size[1] / nwindows) nonzero = self.edges.nonzero() nonzeroy = np.array(nonzero[0]) nonzerox = np.array(nonzero[1]) for window in range(nwindows): win_y_low = self.img_size[1] - (window + 1) * window_height win_y_high = self.img_size[1] - window * window_height if self.state == State.left or self.state == State.center or self.state == State.left_to_center: win_xleft_low = self.leftx_mean - margin win_xleft_high = self.leftx_mean + margin if self.state == State.right or self.state == State.center or self.state == State.right_to_center: win_xright_low = self.rightx_mean - margin win_xright_high = self.rightx_mean + margin if self.state == State.left or self.state == State.center or self.state == State.left_to_center: good_left_inds = ((nonzeroy >= win_y_low) & (nonzeroy < win_y_high) & (nonzerox >= win_xleft_low) & (nonzerox < win_xleft_high)).nonzero()[0] left_lane_inds.append(good_left_inds) last_good_left_inds_len = len(good_left_inds) if self.state == State.right or self.state == State.center or self.state == State.right_to_center: good_right_inds = ((nonzeroy >= win_y_low) & (nonzeroy < win_y_high) & (nonzerox >= win_xright_low) & (nonzerox < win_xright_high)).nonzero()[0] right_lane_inds.append(good_right_inds) last_good_right_inds_len = len(good_right_inds) if self.state == State.left or self.state == State.center or self.state == State.left_to_center: if last_good_left_inds_len > minpix: self.leftx_mean = np.int32(np.mean(nonzerox[good_left_inds])) if self.state == State.right or self.state == State.center or self.state == State.right_to_center: if last_good_right_inds_len > minpix: self.rightx_mean = np.int32(np.mean(nonzerox[good_right_inds])) if self.state == State.left or self.state == State.center or self.state == State.left_to_center: left_lane_inds = np.concatenate(left_lane_inds) leftx = nonzerox[left_lane_inds] lefty = nonzeroy[left_lane_inds] if self.state == State.right or self.state == State.center or self.state == State.right_to_center: right_lane_inds = np.concatenate(right_lane_inds) rightx = nonzerox[right_lane_inds] righty = nonzeroy[right_lane_inds] if self.state == State.left or self.state == State.left_to_center: self.left_fit = np.polyfit(lefty, leftx, 2) self.left_fit[2] = self.left_fit[2] + 5 _x = self.left_fit[0] * self.y ** 2 + self.left_fit[1] * self.y + self.left_fit[2] self.left_point_source = self.point_reverse_perspective((_x, self.y)) elif self.state == State.right or self.state == State.right_to_center: self.right_fit = np.polyfit(righty, rightx, 2) _x = self.right_fit[0] * self.y ** 2 + self.right_fit[1] * self.y + self.right_fit[2] self.right_point_source = self.point_reverse_perspective((_x, self.y)) elif self.state == State.
阅读全文

相关推荐

最新推荐

recommend-type

实验报告 LED计数电路绘制及测试.docx

实验报告“LED计数电路绘制及测试”是华中科技大学计算机组成原理课程的一部分,旨在让学生通过Logisim软件学习和实践数字逻辑电路的设计。Logisim是一款常用的逻辑电路设计工具,适合初学者使用,它提供了丰富的...
recommend-type

C语言 霍夫曼编码+译码

在C语言中实现霍夫曼编码与译码主要涉及以下几个步骤: 1. **霍夫曼树的构建**: - **初始化权重数组**:根据字符的出现频率,初始化一个权重数组,每个元素表示一个字符的权重。 - **创建最小堆**:使用一个最小...
recommend-type

单片机硬件实验 单片机系统扩展

4. **工业顺序控制实验(0190H)**:这种实验通常涉及到多个步骤的操作顺序,如生产线自动化中的设备控制,需要使用到计数器、定时器等控制逻辑。 5. **8255ABC口输出方波(0580H)**:8255是可编程并行接口芯片,...
recommend-type

C##词法分析实验(内附程序)

词法分析是编译器设计中的重要步骤,它负责将源代码分解成一系列有意义的标记,也称为单词符号。在本实验中,我们关注的是C++语言的词法分析,特别是使用C++来构建一个简单的词法分析器。这个分析器能够识别C++语言...
recommend-type

程控交换实验、用户模块电路 主要完成BORSCHT七种功能,它由下列电路组成:

五、 实验步骤 1、接上交流电源线。 2、将K11~K14,K21~K24,K31~K34,K41~K44接2,3脚;K70~K75接2,3脚;K60~K63接2,3脚。 3、先打开“交流开关”,指示发光二极管亮后,再分别按下直流输出开关J8,J9。此时实验箱...
recommend-type

易语言例程:用易核心支持库打造功能丰富的IE浏览框

资源摘要信息:"易语言-易核心支持库实现功能完善的IE浏览框" 易语言是一种简单易学的编程语言,主要面向中文用户。它提供了大量的库和组件,使得开发者能够快速开发各种应用程序。在易语言中,通过调用易核心支持库,可以实现功能完善的IE浏览框。IE浏览框,顾名思义,就是能够在一个应用程序窗口内嵌入一个Internet Explorer浏览器控件,从而实现网页浏览的功能。 易核心支持库是易语言中的一个重要组件,它提供了对IE浏览器核心的调用接口,使得开发者能够在易语言环境下使用IE浏览器的功能。通过这种方式,开发者可以创建一个具有完整功能的IE浏览器实例,它不仅能够显示网页,还能够支持各种浏览器操作,如前进、后退、刷新、停止等,并且还能够响应各种事件,如页面加载完成、链接点击等。 在易语言中实现IE浏览框,通常需要以下几个步骤: 1. 引入易核心支持库:首先需要在易语言的开发环境中引入易核心支持库,这样才能在程序中使用库提供的功能。 2. 创建浏览器控件:使用易核心支持库提供的API,创建一个浏览器控件实例。在这个过程中,可以设置控件的初始大小、位置等属性。 3. 加载网页:将浏览器控件与一个网页地址关联起来,即可在控件中加载显示网页内容。 4. 控制浏览器行为:通过易核心支持库提供的接口,可以控制浏览器的行为,如前进、后退、刷新页面等。同时,也可以响应浏览器事件,实现自定义的交互逻辑。 5. 调试和优化:在开发完成后,需要对IE浏览框进行调试,确保其在不同的操作和网页内容下均能够正常工作。对于性能和兼容性的问题需要进行相应的优化处理。 易语言的易核心支持库使得在易语言环境下实现IE浏览框变得非常方便,它极大地降低了开发难度,并且提高了开发效率。由于易语言的易用性,即使是初学者也能够在短时间内学会如何创建和操作IE浏览框,实现网页浏览的功能。 需要注意的是,由于IE浏览器已经逐渐被微软边缘浏览器(Microsoft Edge)所替代,使用IE核心的技术未来可能面临兼容性和安全性的挑战。因此,在实际开发中,开发者应考虑到这一点,并根据需求选择合适的浏览器控件实现技术。 此外,易语言虽然简化了编程过程,但其在功能上可能不如主流的编程语言(如C++, Java等)强大,且社区和技术支持相比其他语言可能较为有限,这些都是在选择易语言作为开发工具时需要考虑的因素。 文件名列表中的“IE类”可能是指包含实现IE浏览框功能的类库或者示例代码。在易语言中,类库是一组封装好的代码模块,其中包含了各种功能的实现。通过在易语言项目中引用这些类库,开发者可以简化开发过程,快速实现特定功能。而示例代码则为开发者提供了具体的实现参考,帮助理解和学习如何使用易核心支持库来创建IE浏览框。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

STM32F407ZG引脚功能深度剖析:掌握引脚分布与配置的秘密(全面解读)

![STM32F407ZG引脚功能深度剖析:掌握引脚分布与配置的秘密(全面解读)](https://tapit.vn/wp-content/uploads/2019/01/cubemx-peripheral-1024x545.png) # 摘要 本文全面介绍了STM32F407ZG微控制器的引脚特性、功能、配置和应用。首先概述了该芯片的引脚布局,然后详细探讨了标准外设、高级控制以及特殊功能引脚的不同配置和使用方法。在此基础上,文章深入分析了引脚模式配置、高级配置技巧,并提供了实际应用案例,如LED控制和串口通信。在设计方面,阐述了引脚布局策略、多层板设计及高密度引脚应用的解决方案。最后,介绍
recommend-type

给出文档中问题的答案代码

您提到的是需要编写MATLAB代码来实现文档中的实验任务。以下是根据文档内容编写的MATLAB代码示例: ```matlab % 上机2 实验代码 % 读取输入图像 inputImage = imread('your_face_image.jpg'); % 替换为您的图像文件路径 if size(inputImage, 1) < 1024 || size(inputImage, 2) < 1024 error('图像尺寸必须大于1024x1024'); end % 将彩色图像转换为灰度图像 grayImage = rgb2gray(inputImage); % 调整图像大小为5
recommend-type

Docker构建与运行Next.js应用的指南

资源摘要信息:"rivoltafilippo-next-main" 在探讨“rivoltafilippo-next-main”这一资源时,首先要从标题“rivoltafilippo-next”入手。这个标题可能是某一项目、代码库或应用的命名,结合描述中提到的Docker构建和运行命令,我们可以推断这是一个基于Docker的Node.js应用,特别是使用了Next.js框架的项目。Next.js是一个流行的React框架,用于服务器端渲染和静态网站生成。 描述部分提供了构建和运行基于Docker的Next.js应用的具体命令: 1. `docker build`命令用于创建一个新的Docker镜像。在构建镜像的过程中,开发者可以定义Dockerfile文件,该文件是一个文本文件,包含了创建Docker镜像所需的指令集。通过使用`-t`参数,用户可以为生成的镜像指定一个标签,这里的标签是`my-next-js-app`,意味着构建的镜像将被标记为`my-next-js-app`,方便后续的识别和引用。 2. `docker run`命令则用于运行一个Docker容器,即基于镜像启动一个实例。在这个命令中,`-p 3000:3000`参数指示Docker将容器内的3000端口映射到宿主机的3000端口,这样做通常是为了让宿主机能够访问容器内运行的应用。`my-next-js-app`是容器运行时使用的镜像名称,这个名称应该与构建时指定的标签一致。 最后,我们注意到资源包含了“TypeScript”这一标签,这表明项目可能使用了TypeScript语言。TypeScript是JavaScript的一个超集,它添加了静态类型定义的特性,能够帮助开发者更容易地维护和扩展代码,尤其是在大型项目中。 结合资源名称“rivoltafilippo-next-main”,我们可以推测这是项目的主目录或主仓库。通常情况下,开发者会将项目的源代码、配置文件、构建脚本等放在一个主要的目录中,这个目录通常命名为“main”或“src”等,以便于管理和维护。 综上所述,我们可以总结出以下几个重要的知识点: - Docker容器和镜像的概念以及它们之间的关系:Docker镜像是静态的只读模板,而Docker容器是从镜像实例化的动态运行环境。 - `docker build`命令的使用方法和作用:这个命令用于创建新的Docker镜像,通常需要一个Dockerfile来指定构建的指令和环境。 - `docker run`命令的使用方法和作用:该命令用于根据镜像启动一个或多个容器实例,并可指定端口映射等运行参数。 - Next.js框架的特点:Next.js是一个支持服务器端渲染和静态网站生成的React框架,适合构建现代的Web应用。 - TypeScript的作用和优势:TypeScript是JavaScript的一个超集,它提供了静态类型检查等特性,有助于提高代码质量和可维护性。 - 项目资源命名习惯:通常项目会有一个主目录,用来存放项目的源代码和核心配置文件,以便于项目的版本控制和团队协作。 以上内容基于给定的信息进行了深入的分析,为理解该项目的构建、运行方式以及技术栈提供了基础。在实际开发中,开发者应当参考更详细的文档和指南,以更高效地管理和部署基于Docker和TypeScript的Next.js项目。