在windows cpp 动态库 读取 test.mp4 视频流到 Windows窗口的离屏表面,且要求再调用该函数时不卡UI, 在Qt调用该动态库。完整源码

时间: 2023-12-06 21:42:00 浏览: 38
以下是一个简单的示例代码,展示如何在Windows平台上使用C++动态库读取视频流并将其渲染到窗口的离屏表面中。该示例使用了FFmpeg和DirectX,同时在Qt中调用了该动态库。 1. 动态库代码 首先,我们需要编写动态库的代码。下面是一个简单的示例,它使用FFmpeg读取视频流,并将视频帧渲染到DirectX纹理中。这个示例假设输入视频流的编码格式为H.264,输出窗口使用的是DirectX 11。 ```cpp #include <Windows.h> #include <d3d11.h> #include <dxgi.h> #include <ffmpeg/avcodec.h> #include <ffmpeg/avformat.h> #include <ffmpeg/swscale.h> #define WIDTH 640 #define HEIGHT 480 AVFormatContext *pFormatCtx; AVCodecContext *pCodecCtx; AVCodec *pCodec; AVFrame *pFrame; AVPacket packet; int videoStreamIndex; struct SwsContext *pSwsCtx; ID3D11Device *pDevice; ID3D11DeviceContext *pContext; IDXGISurface *pSurface; ID3D11Texture2D *pTexture; ID3D11ShaderResourceView *pSRV; extern "C" __declspec(dllexport) bool initialize(HWND hwnd) { // Initialize FFmpeg av_register_all(); avformat_network_init(); // Open video file if (avformat_open_input(&pFormatCtx, "test.mp4", NULL, NULL) != 0) { return false; } // Retrieve stream information if (avformat_find_stream_info(pFormatCtx, NULL) < 0) { return false; } // Find the first video stream videoStreamIndex = -1; for (int i = 0; i < pFormatCtx->nb_streams; i++) { if (pFormatCtx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) { videoStreamIndex = i; break; } } if (videoStreamIndex == -1) { return false; } // Get codec parameters for video stream AVCodecParameters *pCodecPar = pFormatCtx->streams[videoStreamIndex]->codecpar; // Find the decoder for the video stream pCodec = avcodec_find_decoder(pCodecPar->codec_id); if (pCodec == NULL) { return false; } // Initialize codec context pCodecCtx = avcodec_alloc_context3(pCodec); if (avcodec_parameters_to_context(pCodecCtx, pCodecPar) != 0) { return false; } if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) { return false; } // Allocate video frame pFrame = av_frame_alloc(); if (pFrame == NULL) { return false; } // Initialize SwsContext for color conversion pSwsCtx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, WIDTH, HEIGHT, AV_PIX_FMT_BGRA, SWS_FAST_BILINEAR, NULL, NULL, NULL); // Create Direct3D device and context D3D_FEATURE_LEVEL featureLevels[] = {D3D_FEATURE_LEVEL_11_0}; D3D11CreateDevice(NULL, D3D_DRIVER_TYPE_HARDWARE, NULL, 0, featureLevels, 1, D3D11_SDK_VERSION, &pDevice, NULL, &pContext); // Create DXGI surface DXGI_SWAP_CHAIN_DESC scd = {}; scd.BufferCount = 1; scd.BufferDesc.Width = WIDTH; scd.BufferDesc.Height = HEIGHT; scd.BufferDesc.Format = DXGI_FORMAT_B8G8R8A8_UNORM; scd.BufferDesc.RefreshRate.Numerator = 60; scd.BufferDesc.RefreshRate.Denominator = 1; scd.BufferUsage = DXGI_USAGE_RENDER_TARGET_OUTPUT; scd.OutputWindow = hwnd; scd.SampleDesc.Count = 1; scd.SampleDesc.Quality = 0; scd.Windowed = TRUE; IDXGISwapChain *pSwapChain; D3D11CreateDeviceAndSwapChain(NULL, D3D_DRIVER_TYPE_HARDWARE, NULL, 0, featureLevels, 1, D3D11_SDK_VERSION, &scd, &pSwapChain, &pDevice, NULL, &pContext); pSwapChain->GetBuffer(0, __uuidof(IDXGISurface), (void **)&pSurface); pSwapChain->Release(); pContext->OMSetRenderTargets(1, &pSurface, NULL); // Create Direct3D texture and shader resource view D3D11_TEXTURE2D_DESC td = {}; td.Width = WIDTH; td.Height = HEIGHT; td.MipLevels = 1; td.ArraySize = 1; td.Format = DXGI_FORMAT_B8G8R8A8_UNORM; td.SampleDesc.Count = 1; td.Usage = D3D11_USAGE_DEFAULT; td.BindFlags = D3D11_BIND_SHADER_RESOURCE; td.CPUAccessFlags = 0; pDevice->CreateTexture2D(&td, NULL, &pTexture); pDevice->CreateShaderResourceView(pTexture, NULL, &pSRV); return true; } extern "C" __declspec(dllexport) void renderNextFrame() { // Read the next packet from the video stream while (av_read_frame(pFormatCtx, &packet) >= 0) { if (packet.stream_index == videoStreamIndex) { // Decode the video frame if (avcodec_send_packet(pCodecCtx, &packet) == 0) { while (avcodec_receive_frame(pCodecCtx, pFrame) == 0) { // Convert the video frame to the desired format uint8_t *data[4]; int linesize[4]; data[0] = (uint8_t *)pTexture->Map(0, D3D11_MAP_WRITE_DISCARD, 0); linesize[0] = WIDTH * 4; sws_scale(pSwsCtx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, data, linesize); pTexture->Unmap(0, NULL); // Render the video frame to the surface pContext->ClearRenderTargetView(pSurface, DirectX::Colors::Black); pContext->PSSetShaderResources(0, 1, &pSRV); pContext->Draw(3, 0); pContext->Flush(); } } } av_packet_unref(&packet); } } extern "C" __declspec(dllexport) void cleanup() { avformat_close_input(&pFormatCtx); avformat_network_deinit(); avcodec_close(pCodecCtx); av_frame_free(&pFrame); sws_freeContext(pSwsCtx); pSurface->Release(); pTexture->Release(); pSRV->Release(); pContext->Release(); pDevice->Release(); } ``` 2. Qt代码 接下来,我们需要编写一个Qt应用程序来调用该动态库并渲染视频。下面是一个简单的示例,它创建一个窗口,并在该窗口上绘制动态库中读取的视频流。 ```cpp #include <QtWidgets/QApplication> #include <QtWidgets/QMainWindow> #include <QtGui/QPainter> #include <QtCore/QTimer> #include <Windows.h> #include <d3d11.h> typedef bool (*InitializeFn)(HWND hwnd); typedef void (*RenderNextFrameFn)(); typedef void (*CleanupFn)(); class VideoPlayer : public QMainWindow { public: VideoPlayer() : m_hwnd(NULL), m_initialized(false), m_renderTimer(this) {} virtual void paintEvent(QPaintEvent *event) { if (!m_initialized) { return; } // Render the video frame to the window m_renderNextFrameFn(); QPainter painter(this); painter.drawImage(0, 0, m_image); } void startRendering() { // Load the dynamic library HMODULE hModule = LoadLibrary(TEXT("VideoRenderer.dll")); if (hModule == NULL) { return; } // Get function pointers InitializeFn initializeFn = (InitializeFn)GetProcAddress(hModule, "initialize"); if (initializeFn == NULL) { return; } m_renderNextFrameFn = (RenderNextFrameFn)GetProcAddress(hModule, "renderNextFrame"); if (m_renderNextFrameFn == NULL) { return; } CleanupFn cleanupFn = (CleanupFn)GetProcAddress(hModule, "cleanup"); if (cleanupFn == NULL) { return; } // Initialize the dynamic library m_hwnd = (HWND)winId(); if (!initializeFn(m_hwnd)) { return; } m_initialized = true; // Start rendering timer connect(&m_renderTimer, &QTimer::timeout, this, [this]() { update(); }); m_renderTimer.start(16); // Register event handler for window close qApp->installEventFilter(this); } bool eventFilter(QObject *obj, QEvent *event) { if (event->type() == QEvent::Close) { // Stop rendering timer m_renderTimer.stop(); // Clean up dynamic library m_initialized = false; m_cleanupFn(); // Unregister event handler for window close qApp->removeEventFilter(this); } return QMainWindow::eventFilter(obj, event); } private: HWND m_hwnd; bool m_initialized; RenderNextFrameFn m_renderNextFrameFn; CleanupFn m_cleanupFn; QImage m_image; QTimer m_renderTimer; }; int main(int argc, char *argv[]) { QApplication app(argc, argv); VideoPlayer player; player.show(); player.startRendering(); return app.exec(); } ``` 3. 编译和运行 为了编译该程序,您需要安装FFmpeg和DirectX SDK,并将其包含在项目中。您还需要将VideoRenderer.dll复制到应用程序的运行目录中。 由于该程序在Windows平台上运行,因此您需要使用Visual Studio来编译该程序。您可以将Qt项目导入Visual Studio,并在Visual Studio中设置项目属性以包含所需的库和头文件。 完成编译后,您可以运行该程序并播放test.mp4文件。该程序将在窗口中显示视频流。

相关推荐

最新推荐

recommend-type

VS2019使用Windows桌面应用程序模块创建Win32窗口

本文介绍了VS2019使用Windows桌面应用程序模块创建Win32窗口,分享给大家,具体如下: 头文件Project1.h: #pragma once #include "resource.h" 实现文件Project1.cpp: // Project1.cpp : 定义应用程序的入口点...
recommend-type

cppcheck代码检查工具使用说明.docx

个人原创,汇集windows,linux两大系统安装步骤,包含控制台下使用,VS软件上使用,以及单独的软件使用教程,并配有步骤解说和图示。
recommend-type

yaml-cpp库的编译&安装

yaml-cpp库的编译&安装 一、 下载 二、 解压缩 三、 编译&安装 四、 使用说明
recommend-type

起点小说解锁.js

起点小说解锁.js
recommend-type

299-煤炭大数据智能分析解决方案.pptx

299-煤炭大数据智能分析解决方案.pptx
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章

![:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章](https://img-blog.csdnimg.cn/img_convert/69b98e1a619b1bb3c59cf98f4e397cd2.png) # 1. 目标检测算法概述 目标检测算法是一种计算机视觉技术,用于识别和定位图像或视频中的对象。它在各种应用中至关重要,例如自动驾驶、视频监控和医疗诊断。 目标检测算法通常分为两类:两阶段算法和单阶段算法。两阶段算法,如 R-CNN 和 Fast R-CNN,首先生成候选区域,然后对每个区域进行分类和边界框回归。单阶段算法,如 YOLO 和 SSD,一次性执行检
recommend-type

info-center source defatult

这是一个 Cisco IOS 命令,用于配置 Info Center 默认源。Info Center 是 Cisco 设备的日志记录和报告工具,可以用于收集和查看设备的事件、警报和错误信息。该命令用于配置 Info Center 默认源,即设备的默认日志记录和报告服务器。在命令行界面中输入该命令后,可以使用其他命令来配置默认源的 IP 地址、端口号和协议等参数。
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。