cap = cv2.VideoCapture(0)打开摄像头之后,如何实时显示摄像头
时间: 2024-12-11 21:15:41 浏览: 30
要在打开摄像头后实时显示摄像头画面,可以使用OpenCV库中的循环结构来不断读取摄像头捕捉的帧,并将其显示在窗口中。以下是一个示例代码:
```python
import cv2
# 打开默认摄像头(0表示第一个摄像头)
cap = cv2.VideoCapture(0)
# 检查摄像头是否成功打开
if not cap.isOpened():
print("无法打开摄像头")
exit()
while True:
# 逐帧捕捉
ret, frame = cap.read()
# 如果正确读取帧,ret为True
if not ret:
print("无法获取帧,退出...")
break
# 显示帧
cv2.imshow('实时摄像头', frame)
# 按下 'q' 键退出
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# 释放摄像头并关闭所有窗口
cap.release()
cv2.destroyAllWindows()
```
这个代码的工作原理如下:
1. 使用 `cv2.VideoCapture(0)` 打开默认摄像头。
2. 检查摄像头是否成功打开。
3. 使用 `while True` 循环不断读取摄像头捕捉的帧。
4. 使用 `cv2.imshow` 显示每一帧。
5. 按下 'q' 键退出循环并关闭摄像头和所有窗口。
相关问题
def getInfo(sourcePath): cap = cv2.VideoCapture(sourcePath)#用于读取视频文件或者从摄像头采集实时视频的函数 info = { "framecount": cap.get(cv2.CAP_PROP_FRAME_COUNT), "fps": cap.get(cv2.CAP_PROP_FPS), "width": int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), "heigth": int(cap.get(cv2.CAP_PROP_FRAME_Heigth)), "codec": int(cap.get(cv2.CAP_PROP_FOURCC)) } cap.release() return info 给这行代码做标注
这段代码定义了一个名为 `getInfo` 的函数,它接收一个参数 `sourcePath`,该参数用于指定要读取的视频文件路径。函数的作用是返回一个字典类型的视频信息,包括视频帧数、帧率、宽度、高度和编解码器等信息。
在函数内部,首先使用 `cv2.VideoCapture()` 函数打开指定的视频文件,并将返回的 VideoCapture 对象赋值给变量 `cap`。然后,使用 `cap.get()` 方法获取视频的相关信息,包括帧数、帧率、宽度、高度和编解码器。这些信息对应的参数是 `cv2.CAP_PROP_FRAME_COUNT`、`cv2.CAP_PROP_FPS`、`cv2.CAP_PROP_FRAME_WIDTH`、`cv2.CAP_PROP_FRAME_HEIGHT` 和 `cv2.CAP_PROP_FOURCC`。其中,`cv2.CAP_PROP_FRAME_COUNT` 表示视频的帧数,`cv2.CAP_PROP_FPS` 表示视频的帧率,`cv2.CAP_PROP_FRAME_WIDTH` 和 `cv2.CAP_PROP_FRAME_HEIGHT` 分别表示视频的宽度和高度,`cv2.CAP_PROP_FOURCC` 表示视频的编解码器。获取到这些信息后,将它们保存在一个字典类型的变量 `info` 中。
最后,使用 `cap.release()` 方法释放 VideoCapture 对象,并返回保存视频信息的字典变量 `info`。
import cv2 import mediapipe as mp import time cap = cv2.VideoCapture(0) mpHands = mp.solutions.hands hands = mpHands.Hands() mpDraw = mp.solutions.drawing_utils pTime = 0 cTime = 0 while True: success, img = cap.read() imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) results = hands.process(imgRGB) #print(results.multi_hand_landmarks) if results.multi_hand_landmarks: for handLms in results.multi_hand_landmarks: for id, lm in enumerate(handLms.landmark): #print(id,lm) h, w, c = img.shape cx, cy = int(lm.x *w), int(lm.y*h) #if id ==0: cv2.circle(img, (cx,cy), 7, (255,0,255), cv2.FILLED) mpDraw.draw_landmarks(img, handLms, mpHands.HAND_CONNECTIONS) cTime = time.time() fps = 1/(cTime-pTime) pTime = cTime cv2.putText(img,str(int(fps)), (10,70), cv2.FONT_HERSHEY_PLAIN, 3, (255,0,255), 3) cv2.imshow("Image", img) cv2.waitKey(1)
这段代码使用OpenCV和MediaPipe库实现了手部姿势检测,并在视频流中绘制了手部关键点和连接线。具体实现如下:
1. 导入必要的库和模块:
```
import cv2
import mediapipe as mp
import time
```
2. 初始化摄像头并创建MediaPipe Hands模型:
```
cap = cv2.VideoCapture(0) # 初始化摄像头
mpHands = mp.solutions.hands # 创建MediaPipe Hands模型
hands = mpHands.Hands() # 实例化模型
mpDraw = mp.solutions.drawing_utils # 创建绘图工具
```
3. 循环读取视频帧并进行手部姿势检测:
```
while True:
success, img = cap.read() # 读取视频帧
imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) # 将BGR图像转换为RGB图像
results = hands.process(imgRGB) # 进行手部姿势检测
```
4. 绘制手部关键点和连接线:
```
if results.multi_hand_landmarks:
for handLms in results.multi_hand_landmarks:
for id, lm in enumerate(handLms.landmark):
h, w, c = img.shape
cx, cy = int(lm.x *w), int(lm.y*h)
cv2.circle(img, (cx,cy), 7, (255,0,255), cv2.FILLED)
mpDraw.draw_landmarks(img, handLms, mpHands.HAND_CONNECTIONS)
```
5. 计算并显示帧率:
```
cTime = time.time()
fps = 1/(cTime-pTime)
pTime = cTime
cv2.putText(img,str(int(fps)), (10,70), cv2.FONT_HERSHEY_PLAIN, 3, (255,0,255), 3)
```
6. 显示处理后的帧:
```
cv2.imshow("Image", img)
cv2.waitKey(1)
```
阅读全文