InfiniBand技术详解:服务器互连与存储优势

需积分: 0 1 下载量 179 浏览量 更新于2024-08-05 收藏 387KB PDF 举报
"InfiniBand网络结构分析2" InfiniBand是一种高性能的互连技术,最初在2000年发布,主要用于加强服务器之间的连接,并支持与远程存储和网络设备的通信。尽管其发展初期面临来自Rapid I/O、PCI-X、PCI-E和FC等竞争技术的挑战,但随着时间的推移,特别是在高性能计算(HPC)、企业数据中心和云计算领域,InfiniBand已成为主流技术之一。 InfiniBand网络结构由五个层次构成: 1. **物理层**:这是网络最基础的层次,负责传输原始比特流。InfiniBand提供了多种数据速率,如SDR(Single Data Rate)、DDR(Double Data Rate)、QDR(Quad Data Rate)、FDR(Fourteen Data Rate)和EDR(Enhanced Data Rate),这些速率的提升使得数据传输速度不断提高,达到56Gbps甚至更高。 2. **链路层**:链路层管理物理层的错误检测和纠正,实现数据帧的传输。它包括了InfiniBand的高级链接层(Advanced Link Layer, ALL)和基础链接层(Base Link Layer, BLL)。ALL处理流量控制和错误恢复,BLL则负责数据编码和解码。 3. **网络层**:InfiniBand的网络层称为路由层(Routing Layer, RL),它处理地址解析和数据包的路由。通过使用虚拟通道(Virtual Lanes, VLs),InfiniBand可以为不同类型的通信提供独立的路径,从而实现服务质量(QoS)控制。 4. **传输层**:传输层负责端到端的数据传输,包括可靠的传输服务和直接内存访问(DMA)。InfiniBand的传输层分为两个子层,传输头层(Transport Header Layer, THL)和传输服务层(Transport Services Layer, TSL)。THL处理数据包头的形成,而TSL处理连接管理和数据传输。 5. **上层协议**:InfiniBand支持多种上层协议,如RDMA(Remote Direct Memory Access)协议,其中iSER(Internet SCSI Extensions for RDMA)已被IETF标准化,允许高效、低延迟的存储访问。此外,HPC领域的并行文件系统,如HPE Scalable File System (SFS) 和IBM GPFS,也是建立在InfiniBand网络之上的。 InfiniBand相对于光纤通道(FC)的优势在于更高的性能和更低的延迟。例如,InfiniBand的交换机延迟仅为FC的十分之一,而且其吞吐量是FC的3.5倍。这使得InfiniBand在存储系统和服务器之间的连接,特别是FC/IPSAN、NAS和iSCSI RDMA应用中得到广泛应用。许多知名厂商,如IBM、HP、Cisco等,都在其产品中采用了InfiniBand技术。 InfiniBand的低延迟特性得益于其基于链路层的流控机制,这种机制能够有效地管理网络拥堵,确保数据传输的高效性。此外,虚通道机制允许多个逻辑通道共享物理链路,进一步增强了网络的灵活性和性能。 InfiniBand技术以其高带宽、低延迟和灵活的QoS策略,成为了高性能计算和数据中心环境中不可或缺的一部分。随着技术的不断演进,更高的数据速率(如HDR和NDR)将进一步提升InfiniBand的性能,满足未来对高速数据传输的需求。