GPU加速深度报文检测:一种正则表达式匹配引擎
需积分: 9 150 浏览量
更新于2024-09-08
收藏 375KB PDF 举报
"这篇论文提出了一种基于GPU的正则表达式匹配引擎,用于加速深度报文检测中的模式匹配过程。该引擎采用确定性有限自动机(DFA)模型,利用GPU的并行处理能力,每个GPU线程处理一个网络报文,从而提升匹配引擎的吞吐量。在NVIDIA GeForce 9800GT GPU上进行的实验显示,该引擎在处理实际网络报文时可达到7.91 Gbps的吞吐量。"
在网络安全领域,深度报文检测(Deep Packet Inspection, DPI)是一种关键的技术,它允许对网络数据包的内容进行深入分析,而不仅仅是检查其头部信息。这种技术对于识别恶意软件、入侵检测、流量管理以及内容过滤等方面至关重要。然而,随着网络流量的快速增长,传统的基于CPU的DPI方法在处理速度上面临着挑战。
论文提出的GPU-based正则表达式匹配引擎,旨在解决这个问题。正则表达式是模式匹配的一种强大工具,常用于查找、替换或提取符合特定模式的数据。然而,它们的计算复杂性较高,对于CPU来说是个重负。GPU,全称为Graphics Processing Unit,原本是为处理图形和图像计算设计的,但其并行计算能力近年来也被广泛应用于科学计算和数据处理任务。
该引擎采用了DFA模型,这是一种确定性的状态机,可以高效地处理正则表达式匹配。在DFA中,每个状态代表了正则表达式的一部分,报文的每个字符都会导致状态机从一个状态转移到另一个状态。通过在GPU上运行,每个线程可以并行处理一个报文,这极大地提高了处理效率。由于GPU拥有大量线程,因此可以同时处理大量报文,显著提升了整体吞吐量。
实验结果证明,基于NVIDIA GeForce 9800GT GPU的匹配引擎在实际应用中能够达到7.91 Gbps的吞吐量,这是一个显著的性能提升。这意味着它可以快速有效地处理高速网络流量中的报文,这对于实时监控和保护网络环境至关重要。
总结来说,这篇论文展示了如何利用GPU的并行计算能力优化深度报文检测的性能,通过正则表达式匹配引擎的设计,提升了模式匹配的效率,为网络安全领域提供了一种新的、高效的解决方案。这种技术的发展对于应对不断增长的网络流量和日益复杂的网络威胁具有重要意义。
2019-07-22 上传
2019-08-16 上传
2021-10-16 上传
2019-09-07 上传
2019-09-12 上传
2019-08-15 上传
2021-08-15 上传
2020-10-17 上传
weixin_39840650
- 粉丝: 411
- 资源: 1万+
最新资源
- 构建基于Django和Stripe的SaaS应用教程
- Symfony2框架打造的RESTful问答系统icare-server
- 蓝桥杯Python试题解析与答案题库
- Go语言实现NWA到WAV文件格式转换工具
- 基于Django的医患管理系统应用
- Jenkins工作流插件开发指南:支持Workflow Python模块
- Java红酒网站项目源码解析与系统开源介绍
- Underworld Exporter资产定义文件详解
- Java版Crash Bandicoot资源库:逆向工程与源码分享
- Spring Boot Starter 自动IP计数功能实现指南
- 我的世界牛顿物理学模组深入解析
- STM32单片机工程创建详解与模板应用
- GDG堪萨斯城代码实验室:离子与火力基地示例应用
- Android Capstone项目:实现Potlatch服务器与OAuth2.0认证
- Cbit类:简化计算封装与异步任务处理
- Java8兼容的FullContact API Java客户端库介绍