void Tracking_Mode(void) { u8 Get_Black = 0; while(1) { Get_Black = Track_GetState(); //00111----01111-----10111 if((Get_Black == 0X07)||(Get_Black == 0X0F)||(Get_Black == 0X17)) { moter_control(MOVE_LEFT,40);//左转 } //11100----11110-----11101 else if((Get_Black == 0X1C)||(Get_Black == 0X1E)||(Get_Black == 0X1D)) { moter_control(MOVE_RIGTH,40);//右转 } //11011-----11001-----10011 else if((Get_Black == 0X1B)||(Get_Black == 0X19)||(Get_Black == 0X13)||(Get_Black == 0X11)) { moter_control(MOVE_GO,40); } //00000 else if(Get_Black == 0X00) { SysTick_delayms(100); if(Track_GetState() == 0X00) { moter_control(MOVE_STOP,0);//停止 } } } },为什么我在直行的地方加了(Get_Black == 0X11)反而更容易跑出跑道
时间: 2024-04-01 22:31:21 浏览: 8
根据代码,当Get_Black的值为0X11时,会执行直行的代码段。但是,根据你所提供的情况,加入该判断反而更容易跑出跑道,这可能是因为在特定的场景下,该判断条件不适用。
可能的原因是,当车辆行驶在直线上时,传感器可能会受到干扰,导致Get_Black的值出现了偏差。因此,建议你在直行的代码段中加入一些额外的条件,例如判断Get_Black的值是否在某个特定的范围内,或者判断车辆是否在一段时间内保持了直行状态。这些额外的条件将有助于提高代码的稳定性,从而减少跑出跑道的情况。
相关问题
min_tracking_confidence
min_tracking_confidence 是指目标跟踪中对于目标的最小置信度阈值。在目标跟踪任务中,模型会根据之前的检测结果和目标的运动状态,预测目标在当前帧中的位置。与目标检测不同,目标跟踪通常会利用前一帧的信息来预测当前帧的目标位置。min_tracking_confidence 参数用来指定一个阈值,只有当预测的目标位置的置信度高于这个阈值时,才会被认为是有效的跟踪结果。低于该阈值的跟踪结果会被认为是不可靠的,可能需要重新进行目标检测。通过调整这个参数,可以控制模型对目标跟踪的可靠性和准确性。
mediapipe 0.8.9 用holistic_tracking_cpu.pbtxt输出右肩坐标
在Mediapipe 0.8.9中,可以使用Holistic模型进行人体姿态估计和跟踪,并输出右肩的坐标。具体方法如下:
1. 配置Holistic模型:在Mediapipe中,需要使用Holistic模型进行人体姿态估计和跟踪,可以通过MediaPipe框架提供的HolisticCalculator类或者直接使用HolisticGraph.pbtxt来进行配置。
2. 处理输入图像:在运行Holistic模型之前,需要将输入图像进行处理,将图像数据转换为TensorFlow的输入格式,并将其传递给Holistic模型进行处理。
3. 解析输出结果:在Holistic模型处理完毕后,可以从输出结果中解析出右肩的坐标。
4. 输出右肩坐标:根据Holistic模型输出的关键点编号,可以获取右肩的坐标。
下面是在Python中使用Holistic模型输出右肩坐标的示例代码:
```python
import cv2
import mediapipe as mp
# 配置Holistic模型
mp_holistic = mp.solutions.holistic
holistic = mp_holistic.Holistic(static_image_mode=False, min_detection_confidence=0.5, min_tracking_confidence=0.5)
# 加载图像
image = cv2.imread('image.jpg')
# 处理输入图像
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
results = holistic.process(image)
# 解析输出结果
if results.pose_landmarks is not None:
# 获取右肩坐标
right_shoulder_x = results.pose_landmarks.landmark[mp_holistic.PoseLandmark.RIGHT_SHOULDER].x
right_shoulder_y = results.pose_landmarks.landmark[mp_holistic.PoseLandmark.RIGHT_SHOULDER].y
right_shoulder_z = results.pose_landmarks.landmark[mp_holistic.PoseLandmark.RIGHT_SHOULDER].z
# 输出右肩坐标
print('Right shoulder coordinate: ({}, {}, {})'.format(right_shoulder_x, right_shoulder_y, right_shoulder_z))
else:
print('No pose landmarks detected.')
```
需要注意的是,Holistic模型输出的坐标值是归一化的坐标值,范围在[0, 1]之间。如果需要将其转换为图像坐标或者其他坐标系的坐标值,需要进行相应的转换。