FFmpeg通过从callback在fifo中读取视频H264buff并且进行解码成YUV格式的示例
时间: 2024-03-11 09:46:14 浏览: 147
以下是一个基本的 FFmpeg 通过 callback 在 FIFO 中读取 H.264 视频数据并进行解码的示例,输出 YUV 格式的视频数据:
```c
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#define BUFFER_SIZE 4096
#define FRAME_WIDTH 640
#define FRAME_HEIGHT 480
// 从 FIFO 中读取 H.264 视频数据的 callback 函数
int read_packet_callback(void *opaque, uint8_t *buf, int buf_size)
{
FILE *file = (FILE *)opaque;
return fread(buf, 1, buf_size, file);
}
int main(int argc, char *argv[])
{
AVCodecContext *codec_context;
AVCodec *codec;
AVFrame *frame;
AVPacket packet;
struct SwsContext *sws_context;
uint8_t *src_data[4], *dst_data[4];
int src_linesize[4], dst_linesize[4];
int ret;
// 打开输入 FIFO
FILE *file = fopen("input.fifo", "rb");
if (!file) {
av_log(NULL, AV_LOG_ERROR, "Could not open input FIFO\n");
return AVERROR(errno);
}
// 注册 FFmpeg 所有组件
av_register_all();
// 初始化 AVFormatContext
AVFormatContext *format_context = avformat_alloc_context();
AVIOContext *io_context = avio_alloc_context((unsigned char *)av_malloc(BUFFER_SIZE),
BUFFER_SIZE, 0, file, read_packet_callback, NULL, NULL);
format_context->pb = io_context;
// 查找视频流信息
ret = avformat_find_stream_info(format_context, NULL);
if (ret < 0) {
av_log(NULL, AV_LOG_ERROR, "Could not find stream information\n");
return ret;
}
// 查找视频流
int stream_index = av_find_best_stream(format_context, AVMEDIA_TYPE_VIDEO, -1, -1, &codec, 0);
if (stream_index < 0) {
av_log(NULL, AV_LOG_ERROR, "Could not find video stream in input file\n");
return stream_index;
}
// 打开视频解码器
codec_context = avcodec_alloc_context3(codec);
if (!codec_context) {
av_log(NULL, AV_LOG_ERROR, "Could not allocate codec context\n");
return AVERROR(ENOMEM);
}
ret = avcodec_parameters_to_context(codec_context, format_context->streams[stream_index]->codecpar);
if (ret < 0) {
av_log(NULL, AV_LOG_ERROR, "Could not copy codec parameters to codec context\n");
return ret;
}
ret = avcodec_open2(codec_context, codec, NULL);
if (ret < 0) {
av_log(NULL, AV_LOG_ERROR, "Could not open codec\n");
return ret;
}
// 初始化 AVPacket
av_init_packet(&packet);
packet.data = NULL;
packet.size = 0;
// 分配视频帧内存
frame = av_frame_alloc();
if (!frame) {
av_log(NULL, AV_LOG_ERROR, "Could not allocate frame\n");
return AVERROR(ENOMEM);
}
// 初始化 sws_context
sws_context = sws_getContext(codec_context->width, codec_context->height, codec_context->pix_fmt,
FRAME_WIDTH, FRAME_HEIGHT, AV_PIX_FMT_YUV420P, SWS_BILINEAR, NULL, NULL, NULL);
if (!sws_context) {
av_log(NULL, AV_LOG_ERROR, "Could not initialize sws_context\n");
return AVERROR(EINVAL);
}
// 分配输出帧内存
av_image_alloc(dst_data, dst_linesize, FRAME_WIDTH, FRAME_HEIGHT, AV_PIX_FMT_YUV420P, 1);
// 解码并转换视频帧
while (av_read_frame(format_context, &packet) >= 0) {
if (packet.stream_index == stream_index) {
// 将 AVPacket 转换为 AVFrame
ret = avcodec_send_packet(codec_context, &packet);
if (ret < 0) {
av_log(NULL, AV_LOG_ERROR, "Error sending packet to codec\n");
break;
}
while (ret >= 0) {
ret = avcodec_receive_frame(codec_context, frame);
if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF)
break;
else if (ret < 0) {
av_log(NULL, AV_LOG_ERROR, "Error receiving frame from codec\n");
break;
}
// 转换视频帧格式
src_data[0] = frame->data[0];
src_data[1] = frame->data[1];
src_data[2] = frame->data[2];
src_linesize[0] = frame->linesize[0];
src_linesize[1] = frame->linesize[1];
src_linesize[2] = frame->linesize[2];
sws_scale(sws_context, src_data, src_linesize, 0, codec_context->height, dst_data, dst_linesize);
// 在这里处理输出的 YUV 数据
}
av_packet_unref(&packet);
}
}
// 清理
av_freep(&io_context->buffer);
av_free(io_context);
avformat_close_input(&format_context);
avcodec_free_context(&codec_context);
av_frame_free(&frame);
av_freep(&dst_data[0]);
sws_freeContext(sws_context);
fclose(file);
return 0;
}
```
在上面的代码中,通过 `fread()` 函数从 FIFO 中读取 H.264 视频数据,然后使用 `avcodec_send_packet()` 函数将 `AVPacket` 发送到解码器。使用 `avcodec_receive_frame()` 函数将 `AVPacket` 转换为 `AVFrame`,然后使用 `sws_scale()` 函数将 `AVFrame` 转换为 YUV 格式的视频帧,并在代码中的注释部分进行输出。
阅读全文