c++ 使用ffmpeg录制视频

时间: 2023-12-17 21:28:26 浏览: 178
ZIP

基于C++与ffmpeg的视频播放项目源码(支持本地视频、RTSP流播放,支持录制、OSD叠加)+详细注释.zip

使用FFmpeg库可以在C++中实现录制视频的功能。下面是一个简单的示例代码,可以录制桌面并将其保存为MP4格式的视频文件: ```c++ #include <iostream> #include <string> #include <sstream> #include <ctime> #include <chrono> #include <thread> extern "C" { #include <libavcodec/avcodec.h> #include <libavformat/avformat.h> #include <libavutil/imgutils.h> #include <libswscale/swscale.h> #include <libavutil/opt.h> } using namespace std; int main(int argc, char* argv[]) { // 初始化FFmpeg库 av_register_all(); avformat_network_init(); // 获取当前时间作为文件名 time_t now = time(nullptr); tm* localtm = localtime(&now); stringstream ss; ss << "output_" << localtm->tm_year + 1900 << "-" << localtm->tm_mon + 1 << "-" << localtm->tm_mday << "_" << localtm->tm_hour << "-" << localtm->tm_min << "-" << localtm->tm_sec << ".mp4"; string filename = ss.str(); // 打开视频输出文件 AVFormatContext* outctx = nullptr; int ret = avformat_alloc_output_context2(&outctx, nullptr, nullptr, filename.c_str()); if (ret < 0) { cerr << "Could not create output context: " << av_err2str(ret) << endl; return 1; } // 查找视频编码器 AVCodec* codec = avcodec_find_encoder(AV_CODEC_ID_H264); if (!codec) { cerr << "Could not find encoder" << endl; return 1; } // 创建视频流 AVStream* stream = avformat_new_stream(outctx, codec); if (!stream) { cerr << "Could not create stream" << endl; return 1; } // 配置视频编码器参数 AVCodecContext* codecctx = avcodec_alloc_context3(codec); if (!codecctx) { cerr << "Could not allocate codec context" << endl; return 1; } codecctx->width = 640; codecctx->height = 480; codecctx->time_base = { 1, 25 }; codecctx->framerate = { 25, 1 }; codecctx->pix_fmt = AV_PIX_FMT_YUV420P; codecctx->gop_size = 10; codecctx->max_b_frames = 1; av_opt_set(codecctx->priv_data, "preset", "ultrafast", 0); av_opt_set(codecctx->priv_data, "tune", "zerolatency", 0); ret = avcodec_open2(codecctx, codec, nullptr); if (ret < 0) { cerr << "Could not open codec: " << av_err2str(ret) << endl; return 1; } // 将视频流的编码器参数复制到输出文件的视频流中 ret = avcodec_parameters_from_context(stream->codecpar, codecctx); if (ret < 0) { cerr << "Could not copy codec parameters: " << av_err2str(ret) << endl; return 1; } // 打开视频输出文件 ret = avio_open(&outctx->pb, filename.c_str(), AVIO_FLAG_WRITE); if (ret < 0) { cerr << "Could not open output file: " << av_err2str(ret) << endl; return 1; } // 写入输出文件的头部信息 ret = avformat_write_header(outctx, nullptr); if (ret < 0) { cerr << "Could not write header: " << av_err2str(ret) << endl; return 1; } // 初始化屏幕捕获 AVFormatContext* inctx = nullptr; AVDictionary* options = nullptr; av_dict_set(&options, "framerate", "5", 0); av_dict_set(&options, "offset_x", "10", 0); av_dict_set(&options, "offset_y", "20", 0); av_dict_set(&options, "video_size", "640x480", 0); ret = avformat_open_input(&inctx, "desktop", nullptr, &options); if (ret < 0) { cerr << "Could not open input: " << av_err2str(ret) << endl; return 1; } ret = avformat_find_stream_info(inctx, nullptr); if (ret < 0) { cerr << "Could not find stream info: " << av_err2str(ret) << endl; return 1; } AVCodec* incodec = avcodec_find_decoder(inctx->streams[0]->codecpar->codec_id); if (!incodec) { cerr << "Could not find decoder" << endl; return 1; } AVCodecContext* incodecctx = avcodec_alloc_context3(incodec); if (!incodecctx) { cerr << "Could not allocate codec context" << endl; return 1; } ret = avcodec_parameters_to_context(incodecctx, inctx->streams[0]->codecpar); if (ret < 0) { cerr << "Could not copy codec parameters: " << av_err2str(ret) << endl; return 1; } ret = avcodec_open2(incodecctx, incodec, nullptr); if (ret < 0) { cerr << "Could not open codec: " << av_err2str(ret) << endl; return 1; } AVFrame* inframe = av_frame_alloc(); if (!inframe) { cerr << "Could not allocate frame" << endl; return 1; } AVPacket* inpacket = av_packet_alloc(); if (!inpacket) { cerr << "Could not allocate packet" << endl; return 1; } // 初始化视频帧转换器 SwsContext* swsctx = sws_getContext(incodecctx->width, incodecctx->height, incodecctx->pix_fmt, codecctx->width, codecctx->height, codecctx->pix_fmt, SWS_BICUBIC, nullptr, nullptr, nullptr); if (!swsctx) { cerr << "Could not create sws context" << endl; return 1; } AVFrame* frame = av_frame_alloc(); if (!frame) { cerr << "Could not allocate frame" << endl; return 1; } frame->format = codecctx->pix_fmt; frame->width = codecctx->width; frame->height = codecctx->height; ret = av_frame_get_buffer(frame, 32); if (ret < 0) { cerr << "Could not allocate frame data: " << av_err2str(ret) << endl; return 1; } // 录制视频 int64_t pts = 0; while (true) { // 从屏幕捕获中读取一帧视频 ret = av_read_frame(inctx, inpacket); if (ret < 0) { cerr << "Could not read frame: " << av_err2str(ret) << endl; break; } if (inpacket->stream_index != 0) { av_packet_unref(inpacket); continue; } ret = avcodec_send_packet(incodecctx, inpacket); if (ret < 0) { cerr << "Could not send packet: " << av_err2str(ret) << endl; break; } while (ret >= 0) { ret = avcodec_receive_frame(incodecctx, inframe); if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF) { break; } else if (ret < 0) { cerr << "Could not receive frame: " << av_err2str(ret) << endl; break; } // 将视频帧转换为输出文件的格式 sws_scale(swsctx, inframe->data, inframe->linesize, 0, incodecctx->height, frame->data, frame->linesize); // 编码视频帧并写入输出文件 frame->pts = pts++; ret = avcodec_send_frame(codecctx, frame); if (ret < 0) { cerr << "Could not send frame: " << av_err2str(ret) << endl; break; } while (ret >= 0) { AVPacket pkt = { 0 }; ret = avcodec_receive_packet(codecctx, &pkt); if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF) { break; } else if (ret < 0) { cerr << "Could not receive packet: " << av_err2str(ret) << endl; break; } av_packet_rescale_ts(&pkt, codecctx->time_base, stream->time_base); pkt.stream_index = stream->index; ret = av_interleaved_write_frame(outctx, &pkt); if (ret < 0) { cerr << "Could not write frame: " << av_err2str(ret) << endl; break; } av_packet_unref(&pkt); } } av_packet_unref(inpacket); // 暂停一段时间,以控制录制视频的帧率 this_thread::sleep_for(chrono::milliseconds(200)); } // 写入输出文件的尾部信息 ret = av_write_trailer(outctx); if (ret < 0) { cerr << "Could not write trailer: " << av_err2str(ret) << endl; return 1; } // 释放资源 av_frame_free(&frame); sws_freeContext(swsctx); av_packet_free(&inpacket); av_frame_free(&inframe); avcodec_free_context(&incodecctx); avformat_close_input(&inctx); avio_close(outctx->pb); avformat_free_context(outctx); return 0; } ``` 该示例代码使用了FFmpeg库中的AVFormatContext、AVCodecContext、AVStream、AVFrame、AVPacket等结构体和函数,实现了从屏幕捕获视频帧、转换视频帧格式、编码视频帧、写入输出文件等功能。你可以根据自己的需求修改代码中的参数和细节。
阅读全文

相关推荐

最新推荐

recommend-type

基于AForge实现C#摄像头视频录制功能

本文将从概述开始,介绍AForge的基本概念和使用方法,然后深入探讨使用AForge实现C#摄像头视频录制功能的具体步骤和代码实现。 一、概述 AForge是一款功能强大的.NET视觉开发库,提供了对视频和图像处理的支持。它...
recommend-type

Linux服务器安装ffmpeg+libx264+libmp3lame

FFmpeg 是一个强大的开源工具,用于处理音频和视频文件,包括录制、转换和传输等多种功能。它支持多种编码格式,并提供了命令行界面以及用于开发的库。在 Linux 服务器上安装 FFmpeg,通常需要先安装一些依赖库,...
recommend-type

CPPC++_PCLPoint Cloud Library点云库学习记录.zip

CPPC++_PCLPoint Cloud Library点云库学习记录
recommend-type

前端协作项目:发布猜图游戏功能与待修复事项

资源摘要信息:"People-peephole-frontend是一个面向前端开发者的仓库,包含了一个由Rails和IOS团队在2015年夏季亚特兰大Iron Yard协作完成的项目。该仓库中的项目是一个具有特定功能的应用,允许用户通过iPhone或Web应用发布图像,并通过多项选择的方式让用户猜测图像是什么。该项目提供了一个互动性的平台,使用户能够通过猜测来获取分数,正确答案将提供积分,并防止用户对同一帖子重复提交答案。 当前项目存在一些待修复的错误,主要包括: 1. 答案提交功能存在问题,所有答案提交操作均返回布尔值true,表明可能存在逻辑错误或前端与后端的数据交互问题。 2. 猜测功能无法正常工作,这可能涉及到游戏逻辑、数据处理或是用户界面的交互问题。 3. 需要添加计分板功能,以展示用户的得分情况,增强游戏的激励机制。 4. 删除帖子功能存在损坏,需要修复以保证应用的正常运行。 5. 项目的样式过时,需要更新以反映跨所有平台的流程,提高用户体验。 技术栈和依赖项方面,该项目需要Node.js环境和npm包管理器进行依赖安装,因为项目中使用了大量Node软件包。此外,Bower也是一个重要的依赖项,需要通过bower install命令安装。Font-Awesome和Materialize是该项目用到的前端资源,它们提供了图标和界面组件,增强了项目的视觉效果和用户交互体验。 由于本仓库的主要内容是前端项目,因此JavaScript知识在其中扮演着重要角色。开发者需要掌握JavaScript的基础知识,以及可能涉及到的任何相关库或框架,比如用于开发Web应用的AngularJS、React.js或Vue.js。同时,对于iOS开发,可能还会涉及到Swift或Objective-C等编程语言,以及相应的开发工具Xcode。对于Rails,开发者则需要熟悉Ruby编程语言以及Rails框架的相关知识。 开发流程中可能会使用的其他工具包括: - Git:用于版本控制和代码管理。 - HTML/CSS:用于构建网页结构和样式。 - Webpack或Gulp:用于项目构建和优化流程。 - Babel:用于JavaScript代码的兼容性处理。 - Linting工具:如ESLint,用于代码质量检查和维护代码风格一致性。 总结来看,People-peephole-frontend项目不仅涉及到了跨平台协作的经验分享,还提供了前端开发的学习和实践机会,尤其在交互设计、前端工程化、依赖管理及样式设计等方面。开发者可以通过参与该项目的修复和完善工作,提高自身技能并积累宝贵的项目经验。"
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【高斯信道信号编码优化】:4大方法优化Chirp信号编码过程

![高斯信道下的chirp信号解调](https://img-blog.csdnimg.cn/d37646d14e4e4b51b01e617b59167c74.png) # 1. 高斯信道与Chirp信号编码基础 ## 简介 在现代通信领域,信息的传递无处不在,而保障信息传递的清晰与高效是通信技术的核心挑战之一。高斯信道作为通信系统中最常见和基础的模型,为我们理解和优化信号传输提供了重要的理论支持。Chirp信号,以其独特的频谱扩展特性,在无线通信、雷达和声纳系统中发挥着越来越重要的作用。本章将介绍高斯信道的特性以及Chirp信号的基础知识,为读者搭建起后续章节深入探讨优化方法的理论基础。
recommend-type

对给定图,实现图的深度优先遍历和广度优先遍历。以邻接表或邻接矩阵为存储结构,实现连通无向图的深度优先和广度优先遍历。以用户指定的结点为起点,分别输出每种遍历下的结点访问序列,并调试算法。使用C语言

在C语言中,我们可以使用邻接表或邻接矩阵来存储图的数据结构。这里我将简单介绍如何实现深度优先搜索(DFS)和广度优先搜索(BFS): **使用邻接表实现:** ```c #include <stdio.h> #include <stdlib.h> typedef struct Node { int val; struct Node* next; } Node; // 创建邻接列表表示图 Node* createAdjacencyList(int numNodes) { // 初始化节点数组 Node** adjList = malloc(sizeof(No
recommend-type

Spring框架REST服务开发实践指南

资源摘要信息: "在本教程中,我们将详细介绍如何使用Spring框架来构建RESTful Web服务,提供对Java开发人员的基础知识和学习参考。" 一、Spring框架基础知识 Spring是一个开源的Java/Java EE全功能栈(full-stack)应用程序框架和 inversion of control(IoC)容器。它主要分为以下几个核心模块: - 核心容器:包括Core、Beans、Context和Expression Language模块。 - 数据访问/集成:涵盖JDBC、ORM、OXM、JMS和Transaction模块。 - Web模块:提供构建Web应用程序的Spring MVC框架。 - AOP和Aspects:提供面向切面编程的实现,允许定义方法拦截器和切点来清晰地分离功能。 - 消息:提供对消息传递的支持。 - 测试:支持使用JUnit或TestNG对Spring组件进行测试。 二、构建RESTful Web服务 RESTful Web服务是一种使用HTTP和REST原则来设计网络服务的方法。Spring通过Spring MVC模块提供对RESTful服务的构建支持。以下是一些关键知识点: - 控制器(Controller):处理用户请求并返回响应的组件。 - REST控制器:特殊的控制器,用于创建RESTful服务,可以返回多种格式的数据(如JSON、XML等)。 - 资源(Resource):代表网络中的数据对象,可以通过URI寻址。 - @RestController注解:一个方便的注解,结合@Controller注解使用,将类标记为控制器,并自动将返回的响应体绑定到HTTP响应体中。 - @RequestMapping注解:用于映射Web请求到特定处理器的方法。 - HTTP动词(GET、POST、PUT、DELETE等):在RESTful服务中用于执行CRUD(创建、读取、更新、删除)操作。 三、使用Spring构建REST服务 构建REST服务需要对Spring框架有深入的理解,以及熟悉MVC设计模式和HTTP协议。以下是一些关键步骤: 1. 创建Spring Boot项目:使用Spring Initializr或相关构建工具(如Maven或Gradle)初始化项目。 2. 配置Spring MVC:在Spring Boot应用中通常不需要手动配置,但可以进行自定义。 3. 创建实体类和资源控制器:实体类映射数据库中的数据,资源控制器处理与实体相关的请求。 4. 使用Spring Data JPA或MyBatis进行数据持久化:JPA是一个Java持久化API,而MyBatis是一个支持定制化SQL、存储过程以及高级映射的持久层框架。 5. 应用切面编程(AOP):使用@Aspect注解定义切面,通过切点表达式实现方法的拦截。 6. 异常处理:使用@ControllerAdvice注解创建全局异常处理器。 7. 单元测试和集成测试:使用Spring Test模块进行控制器的测试。 四、学习参考 - 国际奥委会:可能是错误的提及,对于本教程没有相关性。 - AOP:面向切面编程,是Spring的核心功能之一。 - MVC:模型-视图-控制器设计模式,是构建Web应用的常见架构。 - 道:在这里可能指学习之道,或者是学习Spring的原则和最佳实践。 - JDBC:Java数据库连接,是Java EE的一部分,用于在Java代码中连接和操作数据库。 - Hibernate:一个对象关系映射(ORM)框架,简化了数据库访问代码。 - MyBatis:一个半自动化的ORM框架,它提供了更细致的SQL操作方式。 五、结束语 以上内容为《learnSpring:学习春天》的核心知识点,涵盖了从Spring框架的基础知识、RESTful Web服务的构建、使用Spring开发REST服务的方法,以及与学习Spring相关的技术栈介绍。对于想要深入学习Java开发,特别是RESTful服务开发的开发者来说,这是一份非常宝贵的资源。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【Chirp信号检测算法精解】:掌握高效检测Chirp信号的5大关键步骤

![高斯信道下的chirp信号解调](https://img-blog.csdnimg.cn/1fb88c1f540143859ce0683d26104234.png) # 1. Chirp信号检测算法概述 Chirp信号检测是现代信号处理中的一个关键环节,广泛应用于雷达、声纳、无线通信等领域。Chirp信号,即线性调频连续波信号,因其具有良好的时频特性、抗噪声干扰能力强而备受青睐。本章将对Chirp信号检测算法做一个简要介绍,概述其核心原理与应用场景,为后续深入探讨基础理论和关键技术打下基础。 ## 1.1 Chirp信号检测的应用背景 Chirp信号检测算法的开发与优化,源于对信号在