超级计算机被用来建模和模拟科学计算中最复杂的过程,通常是为了洞察新发现,否则这些新发现将不实际或不可能在物理上演示。
nvidia bluefield data processing unit ( dpu )正在将 high-performance computing ( hpc )资源转化为更高效的系统,同时加速从数学建模和分子动力学到天气预报、气候研究,甚至可再生能源的广泛科学研究中的问题解决。
图 1. nvidia bluefield dpu 的创新领域
bluefield 已经在 云端网络 、 网络安全 、 通信 和 边缘计算 领域产生了显著影响。此外,在高性能计算的几个领域,它正在激发应用程序性能和系统效率方面的创新。
nvidia bluefield-3 提供基于多个 arm aarch64 核的强大计算能力、多线程数据路径加速器、集成的 nvidia connectx-7 400gb/s 网络 ,以及 i / o 路径中广泛的可编程加速引擎。它配备了双 ddr 6500mt / s dram 控制器,并配有高达 32 gb 的板载内存。 bluefield-3 是第三代芯片上数据中心基础设施,支持从云到核心数据中心再到边缘的高效、强大的软件定义、硬件加速基础设施。
那么,这一切对高性能计算意味着什么呢?
提高 hpc 应用程序性能和可扩展性
hpc 的核心是提高性能和可扩展性。近二十年来, infiniband 网络在性能和应用程序可扩展性方面一直处于领先地位,这有几个原因。
从高层次来看, infiniband 只是移动数据的最有效方式:直接数据放置。不需要涉及 cpu 或操作系统,也不需要在数据从网络接口通过系统到达需要它的实际应用程序时制作数据的多个副本。
如果 infiniband 已经如此高效, bluefield 会带来什么好处?
infiniband 多年来一直在解决的一个关键挑战是将网络通信开销从 cpu 移开,使其能够将时间集中在最擅长的方面:应用程序计算和分支代码。
当今主流服务器中的 cpu 过于通用,在数百或数千个与实际计算几乎无关的进程中共享其计算周期、时间和资源。
bluefield 通过卸载、加速和隔离广泛的高级网络、存储和安全服务,为超级计算带来了前所未有的创新和效率。
为什么人工智能时代带来了对 bluefield dpu 的需求
人工智能研究领域成立于 1956 年,是一门学术学科。甚至在那之前的十年,科学家们就开始讨论创造人工大脑的可能性。随着现代计算机硬件和软件的发展,这些概念很晚才成为现实。
2006 年, nvidia 推出了业界第一个针对 gpu 的 c 编译器开发环境 cuda ,解决复杂计算问题的速度比传统方法快 100 倍。今天,人工智能丰富多彩,几乎推动了科学研究的每个领域,改变了我们的生活,塑造了工业景观。
同样, 2006 年中期引入了对非阻塞集合操作的第一个建议的引用。消息传递接口( mpi )的集合组通信功能的非阻塞接口在理论上肯定是丰富的。然而,它并没有在许多应用程序中实现。也许这是因为,在引入 dpu 之前,无法实现全部好处。
今天,随着 bluefield-3 的问世,这项技术已经提供了创新、性能和效率所需的基本要素。为了提高应用程序性能和可伸缩性,并消除操作系统抖动的影响,非阻塞集合操作重新引起了人们的兴趣。
科学计算还有几个领域,包括早期的例子, bluefield 正在演示如何将 hpc 转化为高效和可持续的计算。
使用网络计算节省 cpu 周期
nvidia scalable hierarchical aggregation and reduction protocol (sharp) 技术通过将许多阻塞的集体操作从 cpu 卸载到交换机网络,并消除了在端点之间多次发送数据的需要,从而提高了 mpi 操作的性能。这种创新的方法减少了到达聚合节点时穿越网络的数据量,并大大减少了 mpi 操作时间。
bluefield 通过利用其 arm 内核实现非阻塞操作,扩展了额外的网络计算能力。这使系统主机 cpu 能够执行峰值重叠计算。
图 2 显示了一个使用 mvapich2- dpu 库的示例,该库正在进行优化,以充分利用 bluefield 的潜力。它显示了提取主机上发生的计算与 mpi_ialltoall 通信之间的峰值重叠的能力。
图 2.使用 nvidia bluefield 技术与非阻塞通信和计算的重叠 全部全部
hpc 工作负载的计算存储
计算存储或 in-storage computing 为传统存储设备带来了 hpc 功能。在存储计算中,您可以在存储设备内或旁边执行选定的计算任务,从而减轻主机处理负担并减少数据移动。 bluefield 提供在单个卡上结合存储和网络计算的能力。
bluefield 使存储软件堆栈能够从计算节点卸载,同时作为连接结构的 nvme 控制器存在,能够加速关键存储功能,如压缩、校验和计算和奇偶校验生成。此类服务在并行文件系统中提供。
整个存储系统堆栈在 linux 内核中透明卸载,同时在 nvme 目标端实现标准存储功能的简单 nvidia doca 实现。
新一代开放存储体系结构为加速、隔离和保护高性能存储系统提供了一种新的范例。该系统采用硬件和软件协同设计,使得 dpu 对用户来说非常高效和透明。
文件系统的加速意味着提高存储系统中关键功能的性能,而存储系统性能是基于深入学习的科学探究的关键促成因素。
将存储客户端和服务器完全卸载到 dpu 的能力导致以前无法实现的安全和性能隔离级别。关键数据平面和控制平面功能移动到 dpu 上的单独域。这样可以免除服务器 cpu 的工作,并在 cpu 或其软件受损的情况下保护功能。
nvidia doca 软件框架
nvidia doca sdk 是释放 bluefield 潜力的关键。 nvidia doca 和 bluefield 通过一个全面、开放的开发平台,共同实现了应用程序的开发,这些应用程序可以提供突破性的网络、安全、存储和应用程序性能。
nvidia doca 支持一系列操作系统和发行版,包括驱动程序、库、工具、文档和示例应用程序。即将发布的 nvidia doca 1.5 和 2.0 版本引入了广泛的网络、存储、安全功能和增强功能,为 hpc 开发人员提供突破性的性能和高级编程能力:
一个新的通信通道库
快速访问主机内存以实现 ucx 加速
存储仿真( snap ),包括存储加密
新的 nvidia doca 服务,包括 ucc 卸载服务和遥测服务
nvidia doca 安全 sdk
改造 hpc 的今天和明天
bluefield 、 nvidia doca 以及社区将继续改造 hpc 的许多创新领域已经初露端倪。
有些想法已经过时了,例如在数据中心范围内增强性能隔离,或增强作业调度程序以实现更智能的作业安排。
由于科学应用通常高度同步,系统噪声对大型 hpc 系统的负面影响可能对性能产生更大的影响。减少存储等其他过程引起的系统噪音至关重要。
遥测信息功能强大。它不仅仅是收集有关路由器、交换机和网络流量的信息。相反,可以通过工作负载和 i / o 特性收集和共享信息。
ai 框架精确地调整了 nvidia quantum-2 infiniband 平台中的性能隔离算法。共享公共数据中心资源(如网络和存储)的多应用程序环境可以确保尽可能最佳的性能,就像应用程序作为单个实例在裸机上运行一样。
关于作者
scot schultz 是 hpc 技术专家,专注于人工智能和机器学习系统。 scot 在分布式计算、操作系统、人工智能框架、高速互连和处理器技术方面拥有广泛的知识。在他的整个职业生涯中,拥有超过 25 年的高性能计算系统经验,他的职责包括各种工程和领导角色,包括战略 hpc 技术生态系统支持。 scot 在众多行业标准组织的成长和发展中发挥了重要作用。
大学毕业设计一席谈之五十 删余卷积码仿真(2) 编译码函数
“任意门”成为现实:骁龙845为你带来更沉浸的体验
英特尔Arria 10 FPGA的应用之路
电阻式触摸屏接口电路(S3C2410)
驱动云/边缘侧算力建设的高性能互联接口方案
使用DPU迎接HPC和超级计算性能的新时代
用毫米波传感器为汽车带来高级视觉
嵌入式DisplayPort带来更高的显示效率
锅盖卫星接收天线制作,Satellite Antenna
2019中国LED芯片封装产业发展盘点
iPhone 8将改名iPhone X?iPhone8将配备5.8寸OLED显示屏?
为什么LED内不集成限流电阻呢?
自顶向下和逐步求精
如何实现STM32F407单片机的ADC转换
使用联合学习桥接金融服务中的数据孤岛
智能余压报警系统是否需要与其他防火设备和建筑智能化系统集成?
最新48Gbps的HDMI连接线缆即将上市
FAST的建成使天体发出的电磁波优于10毫米的设计标准?
五款飞行汽车的详细介绍
NVIDIA为COVID-19研究人员免费提供Parabricks