yolov8 linux c++
时间: 2023-07-29 16:13:17 浏览: 197
yolov8pose算法c++移植部署于RK3588开发板源码+使用说明.zip
5星 · 资源好评率100%
关于yolov8在Linux上的C++实现,你可以参考仓库TensorRT-Alpha中的代码和说明。该仓库基于TensorRT和CUDA C++实现了模型的GPU加速,并支持多个版本的yolov8模型,如yolov8n、yolov8s、yolov8m等\[1\]。你可以通过克隆仓库并编译运行来使用yolov8模型。
首先,你需要安装CUDA 11.3和cuDNN 8.2。你可以从NVIDIA开发者网站下载对应版本的cuDNN库,并解压安装\[2\]。
然后,你可以克隆TensorRT-Alpha仓库,并进入yolov8目录。在该目录下创建一个build文件夹,并使用cmake和make命令进行编译\[2\]。
编译完成后,你可以使用以下命令来运行yolov8模型:
- 推理图片:`./app_yolov8 --model=../../data/yolov8/yolov8n.trt --size=640 --batch_size=1 --img=../../data/6406407.jpg --show --savePath`
- 推理视频:`./app_yolov8 --model=../../data/yolov8/yolov8n.trt --size=640 --batch_size=8 --video=../../data/people.mp4 --show --savePath`
- 在线推理相机视频:`./app_yolov8 --model=../../data/yolov8/yolov8n.trt --size=640 --batch_size=2 --cam_id=0 --show`
你可以根据需要选择不同的模型、输入大小、批处理大小和其他参数来运行yolov8模型\[3\]。推理结果默认保存在build目录中。
希望这些信息对你有帮助!
#### 引用[.reference_title]
- *1* *2* *3* [linux下 yolov8 tensorrt模型加速部署【实战】](https://blog.csdn.net/m0_72734364/article/details/128758544)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文