如何实现ffmpeg 推ts流 帧率20fps

时间: 2024-03-02 11:46:34 浏览: 202
要使用FFmpeg推送TS流并设置帧率为20fps,可以按照以下步骤进行操作: 1. 安装FFmpeg:首先,确保你已经安装了FFmpeg。你可以从FFmpeg官方网站(https://ffmpeg.org/)下载并安装适合你操作系统的版本。 2. 准备视频文件:将要推送的视频文件准备好。确保视频文件的编码格式和分辨率与你的需求相匹配。 3. 使用FFmpeg推送TS流:打开终端或命令提示符,输入以下命令来推送TS流: ``` ffmpeg -re -i input.mp4 -c copy -f mpegts udp://localhost:1234 ``` 其中,`input.mp4`是你要推送的视频文件名,`udp://localhost:1234`是目标地址和端口,你可以根据需要修改。 4. 设置帧率为20fps:默认情况下,FFmpeg会以源视频的帧率进行推送。如果你想设置帧率为20fps,可以使用`-r`参数来指定: ``` ffmpeg -re -i input.mp4 -r 20 -c copy -f mpegts udp://localhost:1234 ``` 这样,FFmpeg就会将指定的视频文件以TS流的形式推送到指定的地址,并且设置帧率为20fps。
相关问题

c++ 使用ffmpeg实现rtsp推流代码

以下是使用FFmpeg实现RTSP推流的C++代码示例: ```c++ #include <stdio.h> #include <stdlib.h> #include <string.h> #include <unistd.h> #include <signal.h> #include <pthread.h> #include <errno.h> #include <libavcodec/avcodec.h> #include <libavformat/avformat.h> #include <libswscale/swscale.h> const char* RTSP_URL = "rtsp://192.168.1.1:8554/test"; // 要推流的RTSP地址 const int FRAME_RATE = 25; // 视频帧率 const int VIDEO_WIDTH = 640; // 视频宽度 const int VIDEO_HEIGHT = 480; // 视频高度 int64_t start_time = 0; int interrupt_cb(void* ctx) { int timeout = 10; if (av_gettime_relative() - start_time > timeout * 1000 * 1000) { return 1; } return 0; } void* push_thread(void* arg) { AVFormatContext* fmt_ctx = NULL; AVStream* video_stream = NULL; AVCodecContext* codec_ctx = NULL; AVCodec* codec = NULL; AVFrame* frame = NULL; AVPacket pkt; int ret = 0; avformat_network_init(); // 打开输出RTSP流的上下文 avformat_alloc_output_context2(&fmt_ctx, NULL, "rtsp", RTSP_URL); if (!fmt_ctx) { printf("avformat_alloc_output_context2 failed\n"); goto end; } // 找到h.264编码器 codec = avcodec_find_encoder_by_name("libx264"); if (!codec) { printf("avcodec_find_encoder_by_name failed\n"); goto end; } // 创建视频流 video_stream = avformat_new_stream(fmt_ctx, codec); if (!video_stream) { printf("avformat_new_stream failed\n"); goto end; } video_stream->codecpar->codec_id = codec->id; video_stream->codecpar->codec_type = AVMEDIA_TYPE_VIDEO; video_stream->codecpar->width = VIDEO_WIDTH; video_stream->codecpar->height = VIDEO_HEIGHT; video_stream->codecpar->format = AV_PIX_FMT_YUV420P; video_stream->codecpar->bit_rate = 500000; video_stream->codecpar->fps_num = FRAME_RATE; video_stream->codecpar->fps_den = 1; // 打开编码器 codec_ctx = avcodec_alloc_context3(codec); if (!codec_ctx) { printf("avcodec_alloc_context3 failed\n"); goto end; } avcodec_parameters_to_context(codec_ctx, video_stream->codecpar); if (avcodec_open2(codec_ctx, codec, NULL) < 0) { printf("avcodec_open2 failed\n"); goto end; } // 创建帧 frame = av_frame_alloc(); if (!frame) { printf("av_frame_alloc failed\n"); goto end; } frame->format = codec_ctx->pix_fmt; frame->width = VIDEO_WIDTH; frame->height = VIDEO_HEIGHT; if (av_frame_get_buffer(frame, 32) < 0) { printf("av_frame_get_buffer failed\n"); goto end; } // 打开输出流 if (avio_open(&fmt_ctx->pb, RTSP_URL, AVIO_FLAG_WRITE) < 0) { printf("avio_open failed\n"); goto end; } // 写输出流头部 avformat_write_header(fmt_ctx, NULL); // 推流 while (1) { // 生成测试图像 uint8_t* data[1]; int linesize[1]; int y_size = VIDEO_WIDTH * VIDEO_HEIGHT; data[0] = (uint8_t*)malloc(y_size * 3 / 2); memset(data[0], 0, y_size * 3 / 2); for (int i = 0; i < VIDEO_HEIGHT; i++) { memset(data[0] + i * VIDEO_WIDTH, i * 255 / (VIDEO_HEIGHT - 1), VIDEO_WIDTH); } for (int i = 0; i < VIDEO_HEIGHT / 2; i++) { memset(data[0] + y_size + i * VIDEO_WIDTH / 2, 128 + i * 127 / (VIDEO_HEIGHT / 2 - 1), VIDEO_WIDTH / 2); } // 将测试图像转换为AVFrame av_image_fill_arrays(frame->data, frame->linesize, data[0], codec_ctx->pix_fmt, VIDEO_WIDTH, VIDEO_HEIGHT, 32); frame->pts = av_rescale_q(av_gettime_relative() - start_time, (AVRational){1, AV_TIME_BASE}, video_stream->time_base); ret = avcodec_send_frame(codec_ctx, frame); if (ret < 0) { printf("avcodec_send_frame failed\n"); goto end; } while (ret >= 0) { ret = avcodec_receive_packet(codec_ctx, &pkt); if (ret < 0) { break; } av_packet_rescale_ts(&pkt, codec_ctx->time_base, video_stream->time_base); pkt.stream_index = video_stream->index; av_interleaved_write_frame(fmt_ctx, &pkt); av_packet_unref(&pkt); } free(data[0]); if (av_gettime_relative() - start_time > 30 * 1000 * 1000) { // 推流30秒后退出 break; } } // 写输出流尾部 av_write_trailer(fmt_ctx); end: if (frame) { av_frame_free(&frame); } if (codec_ctx) { avcodec_free_context(&codec_ctx); } if (fmt_ctx) { avio_close(fmt_ctx->pb); avformat_free_context(fmt_ctx); } return NULL; } int main(int argc, char* argv[]) { pthread_t pid; int ret = 0; // 初始化FFmpeg库 av_register_all(); avformat_network_init(); avcodec_register_all(); start_time = av_gettime_relative(); // 创建推流线程 ret = pthread_create(&pid, NULL, push_thread, NULL); if (ret != 0) { printf("pthread_create failed\n"); return -1; } // 等待推流线程退出 pthread_join(pid, NULL); return 0; } ``` 上述代码中使用libx264编码器,生成测试图像并将其推流到RTSP服务器。可以根据实际需要修改RTSP_URL、FRAME_RATE、VIDEO_WIDTH和VIDEO_HEIGHT等参数。

使用rtsp推流和拉流帧率怎样调节 cpp代码

要调节RTSP推流和拉流的帧率,你需要修改代码中的相关参数。在C++中,推流和拉流通常使用FFmpeg库来实现。以下是一个简单的示例代码,它使用FFmpeg库来推送RTSP流: ``` #include <stdio.h> #include <stdlib.h> #include <string.h> #include <unistd.h> #include <sys/time.h> #include <libavcodec/avcodec.h> #include <libavformat/avformat.h> #include <libswscale/swscale.h> #define STREAM_URL "rtsp://127.0.0.1:8554/test" int main(int argc, char **argv) { AVFormatContext *pFormatCtx; AVOutputFormat *pOutputFmt; AVStream *pStream; AVCodecContext *pCodecCtx; AVCodec *pCodec; AVFrame *pFrame; AVPacket pkt; int ret, i, frame_count = 0; struct timeval start_time, end_time; int64_t start_time_ms, end_time_ms; int video_width = 1920, video_height = 1080; int video_fps = 30; // 设置帧率为30fps char errbuf[1024]; // 初始化FFmpeg库 av_register_all(); avformat_network_init(); // 打开输出流 ret = avformat_alloc_output_context2(&pFormatCtx, NULL, "rtsp", STREAM_URL); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to allocate output context: %s\n", errbuf); return -1; } // 创建视频流 pOutputFmt = pFormatCtx->oformat; pStream = avformat_new_stream(pFormatCtx, NULL); if (!pStream) { fprintf(stderr, "Failed to allocate stream\n"); return -1; } // 设置视频编码器参数 pCodec = avcodec_find_encoder(pOutputFmt->video_codec); if (!pCodec) { fprintf(stderr, "Failed to find video encoder\n"); return -1; } pCodecCtx = avcodec_alloc_context3(pCodec); pCodecCtx->codec_id = pOutputFmt->video_codec; pCodecCtx->codec_type = AVMEDIA_TYPE_VIDEO; pCodecCtx->width = video_width; pCodecCtx->height = video_height; pCodecCtx->time_base.num = 1; pCodecCtx->time_base.den = video_fps; pCodecCtx->pix_fmt = AV_PIX_FMT_YUV420P; // 打开编码器 ret = avcodec_open2(pCodecCtx, pCodec, NULL); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to open video encoder: %s\n", errbuf); return -1; } // 分配帧缓存 pFrame = av_frame_alloc(); pFrame->format = pCodecCtx->pix_fmt; pFrame->width = pCodecCtx->width; pFrame->height = pCodecCtx->height; ret = av_frame_get_buffer(pFrame, 0); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to allocate frame buffer: %s\n", errbuf); return -1; } // 打开输出流 ret = avio_open(&pFormatCtx->pb, STREAM_URL, AVIO_FLAG_WRITE); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to open output stream: %s\n", errbuf); return -1; } // 写文件头 ret = avformat_write_header(pFormatCtx, NULL); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to write file header: %s\n", errbuf); return -1; } // 循环发送视频帧 gettimeofday(&start_time, NULL); start_time_ms = start_time.tv_sec * 1000 + start_time.tv_usec / 1000; for (i = 0; i < 100; i++) { // 填充图像数据 pFrame->data[0] = (uint8_t *) malloc(video_width * video_height); pFrame->data[1] = (uint8_t *) malloc(video_width * video_height / 4); pFrame->data[2] = (uint8_t *) malloc(video_width * video_height / 4); pFrame->linesize[0] = video_width; pFrame->linesize[1] = video_width / 2; pFrame->linesize[2] = video_width / 2; memset(pFrame->data[0], 255, video_width * video_height); memset(pFrame->data[1], 128, video_width * video_height / 4); memset(pFrame->data[2], 128, video_width * video_height / 4); // 编码视频帧 pFrame->pts = i * (pCodecCtx->time_base.den) / ((pCodecCtx->time_base.num) * video_fps); ret = avcodec_send_frame(pCodecCtx, pFrame); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to send frame: %s\n", errbuf); return -1; } while (1) { ret = avcodec_receive_packet(pCodecCtx, &pkt); if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF) break; if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to receive packet: %s\n", errbuf); return -1; } // 写视频帧到输出流 pkt.stream_index = pStream->index; av_packet_rescale_ts(&pkt, pCodecCtx->time_base, pStream->time_base); ret = av_interleaved_write_frame(pFormatCtx, &pkt); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to write frame: %s\n", errbuf); return -1; } av_packet_unref(&pkt); } free(pFrame->data[0]); free(pFrame->data[1]); free(pFrame->data[2]); } // 写文件尾 ret = av_write_trailer(pFormatCtx); if (ret < 0) { av_strerror(ret, errbuf, sizeof(errbuf)); fprintf(stderr, "Failed to write file trailer: %s\n", errbuf); return -1; } // 释放资源 avio_close(pFormatCtx->pb); avformat_free_context(pFormatCtx); avcodec_free_context(&pCodecCtx); av_frame_free(&pFrame); gettimeofday(&end_time, NULL); end_time_ms = end_time.tv_sec * 1000 + end_time.tv_usec / 1000; printf("Total time: %lldms\n", end_time_ms - start_time_ms); return 0; } ``` 要调节帧率,你需要修改以下两个参数: ``` int video_fps = 30; // 设置帧率为30fps ``` ``` pCodecCtx->time_base.den = video_fps; ``` 你可以将`video_fps`变量设置为你想要的帧率,例如60fps,然后重新编译代码即可。对于拉流,你可以在解码器的参数中设置帧率。
阅读全文

相关推荐

最新推荐

recommend-type

FFMpeg对mpeg2ts流解码的流程分析

"FFMpeg对mpeg2ts流解码的流程分析" 本文档将对FFMpeg中mpeg2-ts的解码流程进行详细分析,以帮助读者快速掌握相关知识。 首先,需要了解mpeg2-ts的相关概念。mpeg2是一族协议,已经成为ISO标准,包括系统部分、...
recommend-type

搭建ffmpeg+nginx+yasm 流媒体服务器低延迟,最低延迟两三秒

搭建ffmpeg+nginx+yasm流媒体服务器低延迟 一、流媒体服务器概念 流媒体服务器是指能够实时地传输和处理视频流的服务器,通常用于直播、监控、在线视频等应用场景中。搭建流媒体服务器需要选择合适的软件和硬件...
recommend-type

python调用系统ffmpeg实现视频截图、http发送

标题中的“python调用系统ffmpeg实现视频截图、http发送”是指使用Python编程语言结合系统级调用ffmpeg工具来实现从视频中抓取帧并转换为图片,然后将这些图片通过HTTP协议发送到指定的服务器。这通常用于视频处理、...
recommend-type

ffmpeg命令大全.docx

* libavformat:实现了流协议,容器格式及其本 IO 访问。 * libavutil:包括了 hash 器,解码器和各利工具函数。 * libavfilter:提供了各种音视频过滤器。 * libavdevice:提供了访问捕获设备和回放设备的接口。 * ...
recommend-type

【路径规划】乌燕鸥算法栅格地图机器人最短路径规划【含Matlab仿真 2886期】.zip

CSDN Matlab武动乾坤上传的资料均有对应的仿真结果图,仿真结果图均是完整代码运行得出,完整代码亲测可用,适合小白; 1、完整的代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主或扫描博客文章底部QQ名片; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作
recommend-type

Raspberry Pi OpenCL驱动程序安装与QEMU仿真指南

资源摘要信息:"RaspberryPi-OpenCL驱动程序" 知识点一:Raspberry Pi与OpenCL Raspberry Pi是一系列低成本、高能力的单板计算机,由Raspberry Pi基金会开发。这些单板计算机通常用于教育、电子原型设计和家用服务器。而OpenCL(Open Computing Language)是一种用于编写程序,这些程序可以在不同种类的处理器(包括CPU、GPU和其他处理器)上执行的标准。OpenCL驱动程序是为Raspberry Pi上的应用程序提供支持,使其能够充分利用板载硬件加速功能,进行并行计算。 知识点二:调整Raspberry Pi映像大小 在准备Raspberry Pi的操作系统映像以便在QEMU仿真器中使用时,我们经常需要调整映像的大小以适应仿真环境或为了确保未来可以进行系统升级而留出足够的空间。这涉及到使用工具来扩展映像文件,以增加可用的磁盘空间。在描述中提到的命令包括使用`qemu-img`工具来扩展映像文件`2021-01-11-raspios-buster-armhf-lite.img`的大小。 知识点三:使用QEMU进行仿真 QEMU是一个通用的开源机器模拟器和虚拟化器,它能够在一台计算机上模拟另一台计算机。它可以运行在不同的操作系统上,并且能够模拟多种不同的硬件设备。在Raspberry Pi的上下文中,QEMU能够被用来模拟Raspberry Pi硬件,允许开发者在没有实际硬件的情况下测试软件。描述中给出了安装QEMU的命令行指令,并建议更新系统软件包后安装QEMU。 知识点四:管理磁盘分区 描述中提到了使用`fdisk`命令来检查磁盘分区,这是Linux系统中用于查看和修改磁盘分区表的工具。在进行映像调整大小的过程中,了解当前的磁盘分区状态是十分重要的,以确保不会对现有的数据造成损害。在确定需要增加映像大小后,通过指定的参数可以将映像文件的大小增加6GB。 知识点五:Raspbian Pi OS映像 Raspbian是Raspberry Pi的官方推荐操作系统,是一个为Raspberry Pi量身打造的基于Debian的Linux发行版。Raspbian Pi OS映像文件是指定的、压缩过的文件,包含了操作系统的所有数据。通过下载最新的Raspbian Pi OS映像文件,可以确保你拥有最新的软件包和功能。下载地址被提供在描述中,以便用户可以获取最新映像。 知识点六:内核提取 描述中提到了从仓库中获取Raspberry-Pi Linux内核并将其提取到一个文件夹中。这意味着为了在QEMU中模拟Raspberry Pi环境,可能需要替换或更新操作系统映像中的内核部分。内核是操作系统的核心部分,负责管理硬件资源和系统进程。提取内核通常涉及到解压缩下载的映像文件,并可能需要重命名相关文件夹以确保与Raspberry Pi的兼容性。 总结: 描述中提供的信息详细说明了如何通过调整Raspberry Pi操作系统映像的大小,安装QEMU仿真器,获取Raspbian Pi OS映像,以及处理磁盘分区和内核提取来准备Raspberry Pi的仿真环境。这些步骤对于IT专业人士来说,是在虚拟环境中测试Raspberry Pi应用程序或驱动程序的关键步骤,特别是在开发OpenCL应用程序时,对硬件资源的配置和管理要求较高。通过理解上述知识点,开发者可以更好地利用Raspberry Pi的并行计算能力,进行高性能计算任务的仿真和测试。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Fluent UDF实战攻略:案例分析与高效代码编写

![Fluent UDF实战攻略:案例分析与高效代码编写](https://databricks.com/wp-content/uploads/2021/10/sql-udf-blog-og-1024x538.png) 参考资源链接:[fluent UDF中文帮助文档](https://wenku.csdn.net/doc/6401abdccce7214c316e9c28?spm=1055.2635.3001.10343) # 1. Fluent UDF基础与应用概览 流体动力学仿真软件Fluent在工程领域被广泛应用于流体流动和热传递问题的模拟。Fluent UDF(User-Defin
recommend-type

如何使用DPDK技术在云数据中心中实现高效率的流量监控与网络安全分析?

在云数据中心领域,随着服务的多样化和用户需求的增长,传统的网络监控和分析方法已经无法满足日益复杂的网络环境。DPDK技术的引入,为解决这一挑战提供了可能。DPDK是一种高性能的数据平面开发套件,旨在优化数据包处理速度,降低延迟,并提高网络吞吐量。具体到实现高效率的流量监控与网络安全分析,可以遵循以下几个关键步骤: 参考资源链接:[DPDK峰会:云数据中心安全实践 - 流量监控与分析](https://wenku.csdn.net/doc/1bq8jittzn?spm=1055.2569.3001.10343) 首先,需要了解DPDK的基本架构和工作原理,特别是它如何通过用户空间驱动程序和大
recommend-type

Apache RocketMQ Go客户端:全面支持与消息处理功能

资源摘要信息:"rocketmq-client-go:Apache RocketMQ Go客户端" Apache RocketMQ Go客户端是专为Go语言开发的RocketMQ客户端库,它几乎涵盖了Apache RocketMQ的所有核心功能,允许Go语言开发者在Go项目中便捷地实现消息的发布与订阅、访问控制列表(ACL)权限管理、消息跟踪等高级特性。该客户端库的设计旨在提供一种简单、高效的方式来与RocketMQ服务进行交互。 核心知识点如下: 1. 发布与订阅消息:RocketMQ Go客户端支持多种消息发送模式,包括同步模式、异步模式和单向发送模式。同步模式允许生产者在发送消息后等待响应,确保消息成功到达。异步模式适用于对响应时间要求不严格的场景,生产者在发送消息时不会阻塞,而是通过回调函数来处理响应。单向发送模式则是最简单的发送方式,只负责将消息发送出去而不关心是否到达,适用于对消息送达不敏感的场景。 2. 发送有条理的消息:在某些业务场景中,需要保证消息的顺序性,比如订单处理。RocketMQ Go客户端提供了按顺序发送消息的能力,确保消息按照发送顺序被消费者消费。 3. 消费消息的推送模型:消费者可以设置为使用推送模型,即消息服务器主动将消息推送给消费者,这种方式可以减少消费者轮询消息的开销,提高消息处理的实时性。 4. 消息跟踪:对于生产环境中的消息传递,了解消息的完整传递路径是非常必要的。RocketMQ Go客户端提供了消息跟踪功能,可以追踪消息从发布到最终消费的完整过程,便于问题的追踪和诊断。 5. 生产者和消费者的ACL:访问控制列表(ACL)是一种权限管理方式,RocketMQ Go客户端支持对生产者和消费者的访问权限进行细粒度控制,以满足企业对数据安全的需求。 6. 如何使用:RocketMQ Go客户端提供了详细的使用文档,新手可以通过分步说明快速上手。而有经验的开发者也可以根据文档深入了解其高级特性。 7. 社区支持:Apache RocketMQ是一个开源项目,拥有活跃的社区支持。无论是使用过程中遇到问题还是想要贡献代码,都可以通过邮件列表与社区其他成员交流。 8. 快速入门:为了帮助新用户快速开始使用RocketMQ Go客户端,官方提供了快速入门指南,其中包含如何设置rocketmq代理和名称服务器等基础知识。 在安装和配置方面,用户通常需要首先访问RocketMQ的官方网站或其在GitHub上的仓库页面,下载最新版本的rocketmq-client-go包,然后在Go项目中引入并初始化客户端。配置过程中可能需要指定RocketMQ服务器的地址和端口,以及设置相应的命名空间或主题等。 对于实际开发中的使用,RocketMQ Go客户端的API设计注重简洁性和直观性,使得Go开发者能够很容易地理解和使用,而不需要深入了解RocketMQ的内部实现细节。但是,对于有特殊需求的用户,Apache RocketMQ社区文档和代码库中提供了大量的参考信息和示例代码,可以用于解决复杂的业务场景。 由于RocketMQ的版本迭代,不同版本的RocketMQ Go客户端可能会引入新的特性和对已有功能的改进。因此,用户在使用过程中应该关注官方发布的版本更新日志,以确保能够使用到最新的特性和性能优化。对于版本2.0.0的特定特性,文档中提到的以同步模式、异步模式和单向方式发送消息,以及消息排序、消息跟踪、ACL等功能,是该版本客户端的核心优势,用户可以根据自己的业务需求进行选择和使用。 总之,rocketmq-client-go作为Apache RocketMQ的Go语言客户端,以其全面的功能支持、简洁的API设计、活跃的社区支持和详尽的文档资料,成为Go开发者在构建分布式应用和消息驱动架构时的得力工具。