Arm平台将成为加速计算领域和人工智能计算领域的前沿

刚刚,在gtc技术大会上,英伟达(nvidia)创始人兼ceo黄仁勋再次站在家里厨房的炉灶前,带来一场线上主题演讲。其中就包括全新的可软件定义的数据中心专用处理器dpu(data processing unit)及其生态产品路线图,并且宣布将在服务器市场力推arm架构,以期在利润最丰厚的服务器处理器市场取得更大市场份额。
黄仁勋一并推出面向数据中心、边缘ai、协作工具和医疗健康场景的一系列软硬件加速方案。此前被黄仁勋称为“未来计算三大支柱之一”的数据处理单元dpu新品也正式亮相。
本次英伟达发布的核心新讯亮点如下:
1、arm最新合作进展:宣布在三个方面进行投资,包括将gpu和dpu移植到arm生态、加速高性能计算与云边端平台、向arm提供英伟达ai、hpc、rtx引擎等先进sdk。
2、数据中心:推出基于新型数据中心芯片架构doca的两款全新dpu处理器、doca软件开发包,并公布dpu未来三年路线图;
3、边缘ai:推出加速企业大规模部署ai的nvidia egx egde ai平台,宣布简化服务器ai应用部署和管理的nvidia fleet command新服务早期访问计划,推出售价59美元的入门级ai开发套件jetson nano 2gb。
4、协作工具:宣布omniverse公开beta测试版,让设计师可以在家中或世界各地实时协作;推出nvidia maxine云ai视频流媒体平台,通过提供各种ai功能,更好地连接数百万远程工作和学习;
5、医疗健康:宣布正在打造英国最强大的ai超级计算机cambridge-1,ai性能达400 petaflops,拟为该超算投资约4000万英镑;宣布与全球医疗健康公司gsk达成合作;推出nvidia clara discovery平台,加速医疗领域开发ai应用程序;参与世界上最大的抗击新冠肺炎联邦学习行动,保护数据隐私。
过去多年来,gpu芯片一直是英伟达的主打产品,并且被大量应用在图形处理等领域。但近年来,它们也被大量应用于人工智能训练领域,帮助提高人工智能对于图像识别等任务的速度。这些芯片通常安装在英特尔中央处理器旁边,帮助加速人工智能相关工作的计算。而现在,英伟达计划通过全新的可软件定义的数据中心专用处理器dpu来取代英特尔的cpu。
一、宣布arm最新进展:投资三个方面
黄仁勋以英伟达与arm合作的最新进展作为主题演讲的压轴内容。就在上个月,英伟达宣布以400亿美元收购这家英国芯片设计公司。
“arm是世界上最受欢迎的cpu,”黄仁勋说,“我们将共同向arm生态系统提供英伟达加速和ai计算技术。”
去年英伟达宣布将cuda及科学计算堆栈移植到arm,今天,黄仁勋宣布一项推进arm平台的重大举措——英伟达在三个方面进行投资:
(1)英伟达将在gpu、网络、存储和安全技术方面对arm合作伙伴进行补充,以创建完整的加速平台;
(2)英伟达正与arm合作伙伴一起为高性能计算、云计算、边缘和pc创建平台——这需要芯片、系统和系统软件;
(3)英伟达正在向arm提供英伟达ai、hpc、rtx引擎等先进sdk。
“现在这些功能只能在x86上使用,”黄仁勋说,“有了这一举措,arm平台也将在加速计算和ai计算方面处于领先地位。”
二、新型处理器dpu:基于doca架构,可编程、ai驱动、“零信任”安全
自今年4月宣布完成对mellanox收购以来,英伟达在数据中心的加码一直备受关注。
今日,英伟达推出这笔收购所带来的最新成果,面向数据中心的新一代可编程处理器(soc)——nvidia bluefield系列数据处理单元(dpu)。
英伟达创始人兼ceo黄仁勋说,现代数据中心由软件定义,运行数据中心的基础设施需要消耗20- 30%的cpu核心,为了减轻cpu的负担,需要一种新的处理器。
“我们称之为数据处理单元(dpu)。”黄仁勋介绍说,新的nvidia bluefield 2 dpu是一个可编程处理器,具有强大的arm核心和加速引擎,用于网络、存储和安全的加速处理任务。
作为对cpu和gpu的补充,dpu具有加速、完全可编程和“零信任”安全特性,基于数据中心芯片架构doca(datacenter-infrastructure-on-a-chip),将多核arm cpu、高性能网络接口、各种灵活和可编程的加速引擎集于一体,能提升网络、存储和安全性能,防止数据泄露和网络攻击,同时节省大量运营支出。
bluefield-2 dpu优化后,可在数据实时进出服务器时对数据进行处理,从而实现了高性能的完全可编程数据处理,同时将关键的网络、存储、安全任务从cpu卸下,释放了cpu资源。也就是说,该芯片将计算功能移到了数据所在的位置。
以前可能要用125个cpu核提供的数据中心服务,如今一颗bluefield-2 dpu就能提供,这释放了宝贵的cpu内核,以便运行大量其他企业应用。
英伟达目前的dpu产品线包括两款pcie产品:
(1)nvidia bluefield-2 dpu:包含8个64位a72 arm核,具备nvidia mellanox connectx-6 dx smartnic的所有功能,完全可编程,提供每秒200千兆的数据传输速率和加速关键数据中心安全、网络和存储任务,包括隔离、根信任、密钥管理、rdma/roce,、gpu direct、弹性块存储、数据压缩等等。
(2)nvidia bluefield-2x dpu:计算性能是bluefield-2的85倍,除了包括bluefield-2 的所有关键特性外,还增强了nvidia ampere gpu的ai能力,可用于数据中心安全、网络和存储任务,利用英伟达第三代张量核心,能够用ai进行实时安全分析,如异常检测和自动响应、实时流量分析在线率、动态安全编排、在线分析上传视频等。
现场,黄仁勋透露了为期三年的dpu路线图:
bluefield-2 dpu处理器目前正在试用阶段,预计2021年进入主要服务器制造商的新系统,bluefield-2x还在开发中,预计2021年上市。
基于相同的doca架构,bluefield-3和bluefield-3x将在2022年问世,搭载更强arm核,网络性能达到400gbps;bluefield-4将在2023年问世,计算性能将达到bluefield-2的近600倍。
英伟达还提供了nvidia doca软件开发工具包,现在可供早期访问合作伙伴使用。
正如nvidia cuda使得开发者能构架gpu加速的应用程序一样,新nvidia doca sdk使得开发者能在dpu加速的数据中心基础设施服务上,构建软件定义、硬件加速网络、存储、安全和管理应用程序。doca还提供了一组标准的开放api来帮助开发者在dpu上运行其代码。
doca被完全集成到nvidia ngc中,为第三方应用程序供应商提供了一个方便的、集装箱化的软件环境,以利用先进的dpu数据中心加速服务,并开发、认证和分发应用程序给客户。
华硕、源讯、dell technologies、富士通、技嘉、h3c、浪潮、联想、quanta)/qct、超微等全球领先的服务器制造商均已计划将英伟达dpu集成到它们的企业级服务器产品中。
vmware、canonical、红帽、check point software technologies等一些软件基础设施合作伙伴也已宣布或计划支持bluefield-2 dpu。
三、加速大规模部署ai,推出nvidia egx edge ai平台和fleet command早期访问计划
面向边缘基础设施,英伟达带来nvidia egx edge ai平台,为全球科技领袖及数百家创业团队提供加速数据中心和边缘ai的gpu加速服务器,使得各种行业、各种规模的组织能够快速有效地大规模部署ai。
基于英伟达egx ai平台的系统可从dell technologies、浪潮、联想、超微等领先服务器制造商处获得,并已得到canonical、cloudera、红帽、suse和vmware等软件基础设施提供商的支持。
egx平台的核心是一个可在nvidia ngc上使用的优化ai软件栈,nvidia ngc提供了一系列行业特定的ai工具包和预培训的模型,使得在nvidia认证的系统上构建和部署ai应用程序更加容易。
未来的企业数据中心将在10000个不同位置拥有一台或多台服务器,而非在一个位置拥有10000台服务器。为了简化和保护这些服务器上ai应用程序和模型的部署和管理,英伟达宣布了一项名为nvidia fleet command的新服务早期访问计划,目前向合格的客户开放。
这种混合云平台将边缘计算的安全性和实时处理能力与远程管理和软件即服务的易用性相结合。
通过一个统一的控制平面,fleet command集中管理分布在广大地区的服务器。其一触式配置、空中软件更新、远程管理和详细监控仪表板,使执行团队更容易减轻it负担,最大限度地利用其ai应用和达到最高效率。
全球供应链解决方案领导者kion集团是最早接触fleet command的公司之一,正用nvidia egx ai平台为其智能仓库系统开发ai应用程序,提高零售配送中心的吞吐量和效率。
四、售价59美元的入门级ai机器人开发套件
面向边缘侧,英伟达还推出了边缘ai机器人系列产品jetson ai在edge平台上的最新产品——入门级开发工具包jetson nano 2gb,售价仅59美元,将于本月底发售,这一价钱几乎只有去年发布的99美元jetson nano开发工具包的一半。
通过在机器人和智能物联网等领域创建手工项目,该工具包为学生、教育工作者、机器人爱好者提供了一个可扩展的平台来学习和创建ai应用程序。
它使用的是与nvidia cuda-x加速计算堆栈相同的技术,并得到了nvidia jetpack sdk的支持。
为了支持这一努力,英伟达还宣布提供免费的在线培训和ai认证项目,作为众多开源项目、how-to和视频的补充。
目前jetson nano 2gb开发工具包已获得来自组织、企业、教育者以及嵌入式计算生态系统合作伙伴的认可。
五、omniverse平台正式公测,让远程3d仿真协作像编辑文档一样容易
在协作工具方面,英伟达宣布omniverse平台的公开beta测试版,使得设计师可以在家中或世界各地实时协作。
omniverse在今年秋季即可下载。该平台融合了英伟达在图形、仿真和ai方面的突破,是世界上第一个基于英伟达rtx实时渲染的3d仿真和协作平台,将物理和虚拟世界融合,以逼真的细节实时模拟现实,对于在机器人、汽车、建筑、工程、制造、媒体和娱乐行业工作的客户来说是必不可少的。
团队可基于omniverse平台实现远程实时协作,无论是建筑师修改3d建筑设计、动画师修改3d场景,还是工程师合作开发自动驾驶汽车,都像在网上共同编辑一份文档一样容易。
例如,nvidia omniverse增强了nvidia drive sim的能力,实现了前所未有的对大规模精细环境的实时、物理精确、多gpu模拟。
在omniverse公开beta版前,爱立信、foster + partners、ilm及其他40多家公司,以及多达400名个人创造者和开发者,已经对该平台进行了为期一年的早期访问,并向英伟达工程团队提供了反馈。
卢卡斯影业及工业光魔技术副总裁francois chardavoine认为:“omniverse展示了实时光线追踪的可能性,在视觉特效和动画制作的各个阶段,改进创作过程的潜力将是革命性的。”
六、nvidia maxine平台: 模块化设计轻松整合ai功能,大幅改善视频会议体验
今天英伟达还推出了基于云计算的流媒体视频ai平台nvidia maxine,为开发者提供了一套基于云计算的gpu加速ai视频会议软件,通过整合了英伟达先进的视频、音频和对话ai功能,可以大幅提高流媒体质量和改善视频会议体验。
“ai可以为视频通话创造奇迹,”黄仁勋说,“有了jarvis和maxine,我们有机会彻底改变今天的视频会议,并创造未来虚拟会议的存在。”
maxine平台的模块化设计使开发人员可以轻松选择ai功能,将其集成到他们的视频会议解决方案中。
通过在云端nvidia gpu上运行ai推理工作负载,视频会议服务提供商可以使用maxine平台为数十万用户提供领先的ai能力,如凝视校正、超分辨率、实时字幕、噪声消除、人脸重亮等等。
由于数据是在云端处理的,而不是在本地设备上处理的,因此终端用户无需任何专用硬件,就可以享受这些ai新特性,同时减少电脑、平板电脑和手机等终端设备上的数据流。
通过使用ai,maxine可以将视频通话所消耗的带宽减少10倍。它并没有在整个屏幕上显示像素,而是分析通话中每个人的关键面部特征,然后在通话另一边的视频中智能地重新激活人脸,使得流媒体视频在互联网上以更少的数据来回流动。
借助这一基于ai的视频压缩技术,开发者可以将视频带宽消耗减少到h.264流媒体视频压缩标准要求的1/10,从而降低了供应商的成本,并为终端用户提供了更流畅的视频会议体验。
基于英伟达的生成对抗网络(gan)研究,maxine平台使得视频会议感觉更像面对面的交谈。
例如,面部对齐功能可以自动调整人脸,这样通话时人们看起来是面对面的,而凝视校正则可以模拟眼神交流,即使摄像头与用户的屏幕没有对齐。自今年年初以来,视频会议的数量增长了10倍,这些功能有助于帮人们在交谈中保持专注。
开发人员还可以添加一些功能,让参与者选择自己的动画角色,这些动画由他们的声音和情绪实时自动驱动。即便用户远离屏幕,自动帧选项使得视频反馈依然能跟随说话者。
通过使用nvidia jarvis sdk支持的ai对话特性,开发者还可以集成虚拟助手,通过语音识别、语言理解和语音生成技术,实现做笔记、设置动作项目、用类似人类的声音回答问题等功能。翻译、封闭式字幕和转录等其他ai会话服务,有助于确保参与者能够理解电话中讨论的内容。
此外,云本地架构有助于节省成本并提供多整合ai功能。视频会议需求很难预测,因为在任意时间,都可能会有数百甚至数千名用户试图加入同一个电话。
nvidia maxine平台利用在nvidia gpu上运行在kubernetes容器集群中的ai微服务,帮助开发者根据实时需求扩展他们的服务。用户可以同时运行多个ai特性,并满足应用程序延迟要求。
maxine平台集成了几项nvidia ai sdk和api的技术。除了nvidia jarvis外, maxine平台还借助nvidia deepstream高通量音频和视频流sdk和nvidia tensorrt sdk,用于高性能深度学习推理。这些nvidia sdk所提供的ai音频、视频和自然语言能力,都是在nvidia dgx系统上进行数十万小时的训练而开发出来的。
七、打造英国最强ai超算cambridge-1,ai算力达400 petaflops
在医疗健康领域,英伟达宣布正打造英国最强大的ai超级计算机cambridge-1,帮助英国医疗健康研究人员用ai来解决紧迫的医学挑战。
该超算预计在年底前上线,这也是英伟达设计和制造的第一台用于外部研究访问的超级计算机,英伟达将为该超算投资约4000万英镑。
cambridge-1超算将是一个nvidia dgx superpod系统,它包含80个英伟达dgx a100系统,采用英伟达mellanox infiniband技术,ai性能超过400 petaflops,linpack性能超过8 petaflops,将在最新全球top500超算排行榜中跻身第29名,在当前green500强排行榜中将跻身全球最节能超算的前三甲。
英伟达还宣布与全球医疗健康公司gsk及其ai实验室建立合作关系,构建ai药物研发实验室(ai drug discovery lab),以推进药物和疫苗研发。
gsk和astrazeneca均在首批用cambridge-1超算进行研究的医疗健康公司之列,此外来自guy’s and st thomas’ nhs foundation trust、伦敦国王学院、oxford nanopore公司的研究人员也计划利用该系统。
cambridge-1超算聚焦的四个关键领域为:
(1)联合行业研究:解决大规模医疗保健和数据科学问题,从而改善患者的治疗结果;
(2)授予大学的计算时间:nvidia gpu时间的访问将作为一种资源捐赠给特定研究,以帮助寻找治疗方法。
(3)支持ai初创企业:英伟达将提供学习机会,并与初创企业合作,培育下一代并提供早期使用ai工具的机会。
(4)培养未来的ai从业者:该系统将成为世界级研究人员的目的地,并为下一代提供实践经验。
八、加速计算药研,推出nvidia clara discovery工具
nvidia将帮助研究人员利用为nvidia dgx优化的先进工具nvidia clara discovery,它集合了成像、放射学和基因组学的力量,为医疗领域最大的计算任务开发ai应用程序。
其特点是预先训练的ai模型和应用程序特定框架,以帮助研究人员定义下一代药物发现过程,从寻找目标、构建化合物到开发反应。
利用最近在自然语言处理方面的一项突破,研究人员现在可以利用特定于生物医学的语言模型来组织、理解和激活大型数据集、研究文献和整理现有治疗和其他重要现实数据的论文或专利。
九、筛查新冠肺炎患者:20天内在20家医疗构建预测氧气需求的ai模型
在保护数据隐私安全、不共享数据的前提下, nvidia clara联邦学习技术能实现预测患者氧气需求,并构建一个无需考虑地理位置、患者人数或数据大小,更易于推广的ai模型。
该联邦学习模型将在未来几周作为nvidia clara的一部分在ngc上发布。
英伟达和massachusetts general brigham医院的研究人员开发了一种ai模型,可以确定因covid-19症状出现在急诊室的患者在初次检查几小时甚至几天后是否需要补充氧气。
最初模型被命名为corisk,由该医院的科学家quanzheng li博士开发。在许多国家可能开始出现第二波covid-19患者之际,该方案将医学成像和健康记录结合起来,用来帮助临床医生更有效地管理住院治疗。
为了将其推广到尽可能多的医院,英伟达和该医院启动了一项名为exam (emr cxr ai模型)的计划,与来自世界各地的20家医院合作。据介绍,这是一项规模最大、最多样化的联邦学习计划。
在短短两周内,全球合作完成了一个曲线下面积为0.94 (auc目标为1.0)的模型,从而对住院病人所需的氧气水平做出了出色的预测。
通过使用nvidia clara联邦学习框架,各个医院的研究人员能够使用胸片、病人的生命值和实验室值来训练一个局部模型,并通过一种称为联邦学习的隐私保护技术,将模型权重的子集与全局模型共享。
该模型的最终目标是预测出现在急救室的患者需要补充氧气的可能性,帮助医生决定对患者的适当护理水平,包括icu的设置。
除了这一项目外,其他大规模联邦学习也正在进行中。例如owkin正与英伟达、伦敦国王学院以及在melloddy制药集团的十多个其他组织,基于全球最大的ai协作药物化合物数据集,使用联邦学习技术在不牺牲数据隐私的前提下实现性能突破。
伦敦国王学院希望,联邦学习技术能帮助在中风和神经损伤分类、确定癌症的根本原因以及为患者推荐最佳治疗方法等方面取得突破。
结语:英伟达持续发力数据中心
继今年5月gtc技术大会甩出一系列基于安培gpu架构的硬核ai新品后,今天英伟达释放的新讯进一步聚焦在强化数据中心等四个关键领域的实力。
显然英伟达并不餍足于其在云端ai加速和图形处理领域的领先地位,而是针对客户及开发者痛点持续补足缺口。
尤其是英伟达今日展示的bluefield系列dpu处理器,是其整合mellanox技术面向数据中心的又一次发力。如今英伟达400亿美元收购arm的交易案正在推进中,可以看到,如果这一交易得以完成,不仅将为英伟达进军基于arm架构的超算和服务器领域带来便利,也将有助于其dpu处理器的发展。
除此之外,作为算力需求最大的产业之一,医疗诊断和新药研发显然也被英伟达视作拓展疆域的重点,无论是持续完善的nvidia clara平台,还是英伟达打造的ai超算,都在为ai落地医疗场景提供更大的动能。
从英伟达近年的布局来看,从传统的gpu图形处理器产品,转向以cuda架构为基础的人工智能计算产品,为英伟达带来了巨大的成功。2019年英伟达斥资69亿美元收购mellanox正是为了进一步进军数据中心市场做准备。要知道mellanox的太网产品和infiniband智能互连解决方案在数据中心市场拥有很大的市场份额。根据英伟达的说法,mellanox的这些产品被用于世界上一半以上最快的超级计算机和许多领先的超大规模数据中心。
今年英伟达再度斥资400亿美元对arm的收购,其真正的目的可能也正是为了在利润丰厚的数据中心市场与英特尔进行正面竞争。
此次,全新的bluefield dpu和doca架构的推出,则正是英伟达在数据中心市场对英特尔发起正面挑战的开始。
值得注意的是,在宣布收购arm之后,黄仁勋曾公开表示,英伟达“有可能”推出自己的arm服务器cpu芯片。
在gtc 2020主题演讲的最后,英伟达ceo黄仁勋强调:“arm是世界上最受欢迎的cpu,我们将共同向arm生态系统提供nvidia加速器和人工智能计算技术。”
同时,黄仁勋宣布了一项推进arm平台的重大举措,英伟达正在向以下三个方面进行投资:首先,英伟达将在gpu、网络、存储和安全技术方面对合作伙伴arm进行补充,打造完整的加速平台;其次,nvidia正与arm一同合作,为高性能计算、云端、边缘和pc应用开发平台;第三,英伟达正在将nvidia ai和 nvidia rtx引擎迁移至arm。
黄仁勋说:“今天,这些功能只能在x86上使用,但有了这些举措,arm平台也将成为加速计算领域和人工智能计算领域的前沿!”


背投电视的逐行扫描
苹果iCloud云存储和苹果自带存储哪个更好用
无人机是如何点燃宜春夜空
消息称iPhone12或导致植入式心脏复律除颤器失效
Imec致力于打造更好的SWIR传感器
Arm平台将成为加速计算领域和人工智能计算领域的前沿
4G智能手表发力 中国智能穿戴设备Q3增长2.6倍
最强游戏主机Xbox One X将亮相ChinaJoy展台 Xbox负责人:即将开启预订!
2022年游戏蓝牙耳机排行榜:四款口碑最好的游戏蓝牙耳机
浅谈智能供配电系统的定义、特点、优势及价值
芯片代工是自己的创意,张忠谋只是个“剽窃者”?
直坐标机械手的优缺点都有哪些?
NANK南卡降噪耳机和OPPO蓝牙耳机哪个更好呢?哪款更能打
锁相环频率合成器的优缺点
iPhone14系列最新消息汇总
LED显示屏各种计算公式
瞄准国内叉车锂电市场 两外企联手布局
mysql常用命令总结
OPPO推出AR开发者平台,推动AR在手机终端的应用和普及
中国移动公布了2020年光纤配线架产品集采候选人结果