感言

要满足分析日益增多的数据、
支持复杂模拟、克服性能瓶颈和创建智能能数据算法的需求,就必须能够在数据通过
数据中心互联传输时对其进行管理并执行计算操作。Mellanox InfiniBand解决方案采用了
网络内计算技术,可在网络设备内部执行数据算法,从而使性能提升十倍,并使数据中心进入“以数据为中心”的时代。通过提供最快的数据传输速度、最低的延迟、智能加速以及最高的效率和弹性,InfiniBand是连接世界顶级HPC和人工智能超级计算机的最佳之选。
CFMS
加拿大医科学生联合会
加拿大


系统的卓越性能给予了我们巨大的优势,让我们能够更快地部署解决方案

橡树岭
国家实验室
美国


InfiniBand为我们提供了极高的带宽,可满足我们某些最重要应用的需求

SciNet
先进研究计算
多伦多大学


InfiniBand使我们利用系统中60000个核心的能力得以大幅提升

DKRZ
气候计算中心
德国


目前HPC计算机的关键组件是InfiniBand连接,因此Mellanox提供的解决方案的主要优势在于可靠性和性能

Julich
Supercomputer Centre
德国


我们选择了协同设计的方式,选择了合适的硬件,并设计了系统。该系统当然旨在以最好的方式支持我们的关键应用。唯一能够真正实现这个目标的互联就是HPC Testimonia。

NCAR
怀俄明超级计算中心
美国


NCAR中心专注于大气科学研究。其超级计算机在一个完整的胖树拓扑结构中使用InfiniBand互联,并由此促进了超级计算机的高效利用。

信息技术中心
东京大学
日本


InfiniBand EDR配备卸载引擎。与其他网络相比,卸载引擎对于实现大规模应用的高性能是一项有意义的功能。

伯明翰大学
英格兰
 


我们使用InfiniBand而不是其他方案的一个重要原因是其与我们现有的解决方案具有向后兼容性。

上海交通大学
中国
 


HPC Testimonia是世界上最先进的高性能互联技术,其通信开销显著降低,可以完全释放群集性能。

CHPC
高性能计算中心
南非


群集的核心就是互联。一切都取决于所有这些进程如何通信并协同工作。在我看来,InfiniBand和互联定义了HPC。

上海超级计算中心
中国
 


InfiniBand是HPC市场使用最多的互联。它提供完整的技术支持和丰富的软件生态系统,包括全面的管理工具。此外,它可与各种HPC应用程序无缝兼容,包括商业应用程序和我们当前使用的开源代码。

SDSC
圣地亚哥超级计算中心
美国


在HPC中,处理器应该将100%的时间用于科学计算,而不是用来处理通信问题。这就是为什么Mellanox网络的卸载能力至关重要。

iCER,网络研究所
密歇根州立大学
美国


我们有用户需要传输数十个TB的数据,而且需要以很快的速度完成。InfiniBand是实现之道