InfiniBand技术与DDS解析:高性能计算的互连技术

需积分: 50 201 下载量 45 浏览量 更新于2024-08-08 收藏 2.5MB PDF 举报
"InfiniBand技术是一种高性能的互连技术,主要用于集群式超级计算机,由多家大厂商如Cisco、IBM、HP等支持。它在2005年后在高性能计算领域广泛使用,并且是RDMA(Remote Direct Memory Access)技术的一种实现方式,包括RoCE(RDMA over Converged Ethernet)和iWARP(Internet Wide Area RDMA Protocol)。RDMA允许数据直接在远程系统的内存和本地系统之间传输,无需操作系统介入,提高了效率和带宽利用率。此外,InfiniBand架构还包括Memory Verbs和Message Verbs等传输接口,以及RDMA原语、队列对(QP)、完成事件和传输类型等组件。InfiniBand协议结构分为物理层、链路层和网络层,其中物理层处理信号传输,链路层负责错误检测和纠正,网络层则处理路由和寻址。" InfiniBand技术起源于1999年,作为一种高速通信技术,最初发展较慢,但随着技术的进步和大公司的加入,逐渐成为高性能计算(HPC)领域的主流选择。在Top 500超级计算机列表中,许多系统都采用了InfiniBand Architecture (IB)。其主要竞争对手包括Rapid I/O、PCI-X、PCI-E和FC,以及以太网,尤其是随着以太网速度从1Gbps提升至10Gbps。 RDMA是InfiniBand的关键特性之一,它允许数据在两个系统间直接交换,绕过操作系统内核,减少了CPU负载并提高了数据传输速度。RDMA有两种主要实现:RoCE和iWARP。RoCE将RDMA功能集成到融合以太网中,而iWARP则是通过TCP/IP协议栈实现RDMA功能,适用于更广阔的网络环境。 InfiniBand技术的优势在于高带宽、低延迟和低CPU利用率。它提供了四种类型的操作:RDMA读、RDMA写、原子操作和消息传递。这些操作通过内存 verbs ( verbs )进行,如Memory Verbs(用于数据传输)和Message Verbs(用于消息传递)。RDMA传输的核心组件包括RDMA原语、队列对(用于数据传输的上下文)和完成事件(通知传输结束)。 InfiniBand协议架构包括三个层次:物理层负责物理介质的传输,链路层处理错误检测和纠正,使用简单的帧结构;网络层则类似于IP网络,但更专注于提供低延迟和高吞吐量。这一设计使得InfiniBand在高并发和大数据量传输的应用场景中表现出色。 InfiniBand技术及其支持的RDMA技术是现代高性能计算和数据中心互连的重要组成部分,它们提供了一种高效、低延迟的数据传输方式,尤其适用于需要大量数据交换的领域,如科学计算、大数据分析和云计算。随着技术的不断发展,InfiniBand有望在更多的应用中发挥其优势。