InfiniBand简介_InfiniBand个人资料_InfiniBand微博_百科网
A-A+

InfiniBand简介_InfiniBand个人资料_InfiniBand微博

2018-03-18 11:03:04 科学百科 阅读 2 次

简介/InfiniBand 编辑

IBTA成立于1999年8月31日,由Compaq、惠普、IBM、戴尔、英特尔、微软和Sun七家公司牵头,共同研究发展的高速先进的I/O标准。最初的命名为System I/O,1999年10月,正式改名为InfiniBand。InfiniBand是一种长缆线的连接方式,具有高速、低延迟的传输特性。据星盈科技李泌介绍,InfiniBand用于服务器系统内部,主要用于处理器/内存与I/O(如硬盘、网卡等)的连接,由于InfiniBand具有长缆线连接的特性,从而使得处理核心与I/O在保持运作一致性的同时,在实际的配置上,实现分离的配置。据李泌介绍,星盈科技推出的超级刀片计算机,就采用了类似的技术。

发展/InfiniBand 编辑

InfiniBand用于服务器系统内部并没有发展起来,原因在于英特尔和微软在2002年就退出了IBTA。在此之前,英特尔早已另行倡议Arapahoe,亦称为3GIO(3rd Generation I/O,第三代I/O),即今日鼎鼎大名的PCI Express(PCI-E),InfiniBand、3GIO经过一年的并行,英特尔终究还是选择了PCI-E。因此,现在应用InfiniBand,主要是用于在服务器集群,系统之间的互联。
需要说明的是,即使在系统之间的互联,InfiniBand也还面临着竞争对手,这是因为自英特尔、微软退出IBTA之后,IBM、惠普也在不久后退出,并在第二年提出RDMA(Remote Direct Memory Access,远程直接内存存取)技术,期望用10Gbps Ethernet搭配TOE(TCP/IP offload Engine,TCP/IP负荷卸载引擎)的硬件加速设计,以更标准、低廉的方式与InfiniBand进行竞争。此外,由Broadcom、Chelsio、惠普、NetApp和微软等厂商推动的iWarp,一种用于远程直接内存访问、远程直接数据放置的保护协议,它淘汰了两端的网卡,也是一种标准的协议。另外,英特尔的I/O加速技术也与InfiniBand具有一定的竞争关系。

工作原理/InfiniBand 编辑

与其他网络协议(如TCP/IP)相比,InfiniBand具有更高的传输效率。原因在于许多网络协议具有转发损失的数据包的能力,但是由于要不断地确认与重发,基于这些协议的通信也会因此变慢,极大地影响了性能。
需要说明的是,TCP协议是一种被大量使用的传输协议,从冰箱到超级计算机等各种设备上都可以看到它的身影,但是使用它必须付出高昂的代价:TCP协议极其复杂、代码量巨大并且充满了各种特例,而且它很难卸载(所谓卸载就是不占用CPU的运行时间)。
与之相比,InfiniBand使用基于信任的、流控制的机制来确保连接的完整性,数据包极少丢失。使用InfiniBand,除非确认接收缓存具备足够的空间,否则不会传送数据。接受方在数据传输完毕之后, 返回信用来标示缓存空间的可用性。通过这种办法,InfiniBand消除了由于原数据包丢失而带来的重发延迟,从而提升了效率和整体性能。
目前,基于InfiniBand技术的网卡的单端口带宽最大可达到20Gbps,基于InfiniBand的交换机的单端口带宽最大可达60Gbps,单交换机芯片可以支持达480Gbps的带宽。在2005年的4月份,Cisco公司收购了InfiniBand方案提供商Topspin; 而专业存储厂商Qlogic公司也陆续收购了InfiniBand技术厂商SilverStorm公司和PathScale公司,开始进军InfiniBand领域。

业界反应/InfiniBand 编辑

据曙光公司技术支持中心袁伟介绍,目前曙光的高性能计算机全部采用InfiniBand技术进行节点之间的互联,用InfiniBand替代了Myrinet。原因在于,Mrynet在2Gbps带宽之后,在向10Gbps技术的发展上,路线图不清晰,技术实现上也不好。与之相比,20Gbps InfiniBand技术已经非常成熟,在价格上也具有竞争力。
据宝德服务器事业部经理程佶透露, 宝德InfiniBand服务器的出货主要集中在高性能计算领域,占有30%~40%的份额,其余高性能计算采用千兆以太网的连接方案。程佶表示,除了高性能计算领域之外,其他领域应用InfiniBand服务器的前景并不十分看好。原因在于InfiniBand的价格还是比较高,仅InfiniBand的HCA(主通道适配器)卡就需要4000元~5000元人民币,而性能的提升仅在10%~15%之间。因此,价格将成为InfiniBand服务器进入企业市场的障碍。
据了解,目前IBM、惠普、戴尔、SUN等公司都对InfiniBand做出了积极的响应。在它们的InfiniBand服务器解决方案中,有的在用标准的InfiniBand HCA, 有的在用专门设计的Mezzanine卡,有的在用标准的InfiniBand交换机,有的在用专门设计的交换模块。目前InfiniBand服务器大多采用基于PCI-E的接口,如Arima(华宇)、Tyan(泰安)、Supermicro(超微)等,因为PCI-E比PCI-X能够提供更高的带宽和更低的延时。

性能/InfiniBand 编辑

 

InfiniBand
InfiniBand

InfiniBand HCA卡以及交换机芯片的核心供应商—mellanox公司亚洲区技术总监宋庆春。据他介绍,InfiniBand的应用领域已变得越来越广。从2005年InfiniBand开始进入存储市场以来,已有越来越多的存储客户开始使用InfiniBand技术。他预计到2008年~2009年,InfiniBand应该成为存储市场的主力。目前主流的存储厂商除了EMC之外,其余厂商都宣布了InfiniBand的存储解决方案。分析其中的原因,宋庆春认为,在带宽、价格方面,InfiniBand均比FC方案具有优势,其中InfiniBand带宽为20Gbps,而FC只有4 Gbps,在价格上,一块FC 网卡就要上万元,远比InfiniBand HCA卡昂贵。另外,更为主要的是:InfiniBand是一种标准开放的协议,具有更多的厂商支持。因此,InfiniBand在SAN存储应用里的优势非常明显。
对于InfiniBand而言,它所具有的整合特性,使得它在数据中心将会得到更多的应用。宋庆春表示,InfiniBand的一个端口可以虚拟成为8个虚拟的通道,而这些虚拟的通道可以分别与数据中心中的FC SAN存储模块、计算模块、管理模块以及通信模块进行连接,从而实现基于InfiniBand的统一管理。推广与应用InfiniBand作为一种高带宽、低延时的连接技术,在数据库集群,在金融分析、制造业、石油、气象、生物等仿真技术领域正在得到越来越多的应用,并成为市场的主流。据6月27日发布的全球HPC TOP 500排名情况来看,InfiniBand的份额实现了强有力的增长,从上届的78套增加到了现在的127套。

特点/InfiniBand 编辑

采用Intel架构的处理器的输入/输出性能会受到PCI或者PCI-X总线的限制。总线的吞吐能力是由总线时钟决定的(比如33.3MHz,66.6MHz 以及133.3MHz)和总线的宽度(比如32位或者64位)。在最通常的配置中,PCI总线速度被限制在500 MB /秒,而PCI-X总线速度被限制在1 GB/秒。这种速度上的限制制约了服务器和存储设备、网络节点以及其他服务器通讯的能力。在InfiniBand的技术构想中,InfiniBand直接集成到系统板内,并且直接和CPU以及内存子系统互动。但是,在短期内,InfiniBand支持将由PCI和PCI-X适配器完成;这样,InfiniBand在最初将会受到总线的制约。在2002年年底,InfiniBand技术将会完全被整合在Intel服务器供应商以及Sun生产的服务器中(80%的可能性)