近年来人工智能的火热,已经对算力的需求,已经不再是什么新鲜事了。
而围绕着这个市场,除了有几无敌手的英伟达gpu外,还有graphcore、cerebra、sambanova和tenstorrent等芯片新入者携带着各自打造的“武器”跃跃欲试,以求占有一席之地。
此外,amd和intel这些传统芯片巨头也不甘人后,纷纷加码这个赛道。他们一方面升级自己原有的cpu产品,与此同时还在升级gpu产品,其中英特尔甚至还通过对habana的收购,通过多路进攻的方式押注人工智能。
进来,他们又更新了“武器库”,为新一轮的ai芯片竞赛做好准备。
英伟达超级芯片更新,首度引入h3be
作为ai市场迄今为止最大的赢家,遥遥领先的英伟达虽然不至于被突然击败,但面对咄咄逼人的竞争对手,他们应该还是有点危机感。于是,在昨晚,英伟达ceo黄仁勋又带来了公司全新的 gh200“superchip”的新变体——世界上第一个配备 hbm3e 内存的 gpu 芯片。
因为人工智能对数据“搬运”的需求,hbm在过去几个月里已经成为产业关注的重中之重,也成为了限制gpu产能的关键因素之一。为此三星和sk海力士等厂商除了在提高hbm产能之余,也在升级其hbm技术,而hbm 3e就是他们正在最新推动的产品。
关于这个尚未敲定的标准,其很多参数也没有定论。但按照集邦咨询所说,hbm3e将采用24gb单晶芯片堆叠,在8层(8hi)基础下,单个hbm3e的容量将跃升至24gb。集邦认为,主要制造商预计将在 2024 年第一季度发布 hbm3e 样品,并计划在 2024 年下半年实现量产。而英伟达的gh200“superchip”的新变体计划于明年二季度发货,这体现了ai芯片巨头在其上的迫切。
自 2021 年该公司披露初步细节以来,grace hopper superchip一直是 nvidia 首席执行官黄仁勋的一个大话题。superchip集成了广泛应用于移动设备、可与英特尔和amd的基于x86的芯片竞争arm架构。而之所以nvidia 称其为“superchip”,是因为它将基于 arm 的 nvidia grace cpu 与 hopper gpu 架构结合在一起。而这个芯片在早几个月的发布,已经引起了市场的广泛讨论。
gh200的规格
而在时隔没多久,英伟达带来了全新的升级版本芯片。
据介绍,全新 gh200 grace hopper superchip 同样是基于 72 核 grace cpu,配备 480 gb ecc lpddr5x 内存以及 gh100 计算 gpu,搭配 141 gb hbm3e 内存,采用 6 个 24 gb 堆栈,使用 6,144位存储器接口。虽然 nvidia 物理安装了 144 gb 内存,但只有 141 gb 可用才能获得更高的良率。
作为世界上第一款配备hbm3e 内存的芯片,英伟达新版本的 gh200能够将其本地 gpu 内存增加 50%,这对于人工智能市场来说尤其受欢迎,因为顶级模型尺寸巨大且通常内存容量有限。而在双配置设置中,它将配备高达 282 gb 的 hbm3e 内存,nvidia 表示,与当前一代产品相比,内存容量高出 3.5 倍,带宽高出 3 倍。nvidia还声称,hbm3e内存将使下一代gh200运行ai模型的速度比当前模型快3.5倍。
“我们对这款新的 gh200 感到非常兴奋。它将配备 141 gb 的 hbm3e 内存,”nvidia 超大规模和 hpc 副总裁兼总经理 ian buck 在与媒体和分析师的会议上表示。“hbm3e 不仅增加了 gpu 的容量和内存量,而且速度也更快。”
在 siggraph 2023 的主题演讲中,nvidia 总裁兼首席执行官黄仁勋 (jensen huang) 表示:“为了满足生成式 ai 不断增长的需求,数据中心需要具有特殊需求的加速计算平台。”jensen 还接着说道:“全新 gh200 grace hopper superchip 平台通过卓越的内存技术和带宽来实现这一点,以提高吞吐量、连接 gpu 以不妥协地聚合性能的能力,以及可以在整个数据中心轻松部署的服务器设计。“
从昨晚英伟达的介绍中我们可以看到,他们不仅制造更快的芯片,还在新的服务器设计中对其进行扩展。
如ian buck就表示,nvidia正在开发一种新的基于双gh200的nvidia mgx服务器系统,该系统将集成两个下一代grace hopper superchip。他解释说,新的gh200将与nvidia的互连技术nvlink连接。借助新型双 gh200 服务器中的 nvlink,系统中的 cpu 和 gpu 将通过完全一致的内存互连进行连接。
“cpu 可以看到其他 cpu 的内存,gpu 可以看到其他 gpu 内存,当然 gpu 也可以看到 cpu 内存,”buck说。“因此,合并后的超大超级 gpu 可以作为一个整体运行,提供 144 个 grace cpu 核心,超过 8 petaflops 的计算性能以及 282 gb 的 hbm3e 内存。”他强调。
值得一提的是,在此前,我们已经介绍了围绕 nvidia grace hopper 平台构建的已发布的 dgx gh200 ai 超级计算机。dgx gh200 是完全基于 nvidia 架构构建的 24 机架集群,每个 dgx gh200 都结合了 256 个芯片,并提供 120 tb 的 cpu 连接内存。它们使用 nvidia 的 nvlink 进行连接,该 nvlink 具有多达 96 个本地 l1 交换机,可在 gh200 刀片之间提供即时通信。nvidia 的 nvlink 允许部署与高速一致的互连一起工作,使 gh200 能够完全访问 cpu 内存,并在双配置时允许访问高达 1.2 tb 的内存。
英特尔 falcon shores 2,卷土重来
为了应对来自英伟达和amd的竞争,英特尔最初计划为其称为 falcon shores 的 芯片配备 gpu 和 cpu 内核,打造该公司首款用于高性能计算的“xpu”。但是在几个月前,他们意外宣布,falcon shores将转向纯 gpu 设计并将芯片推迟到 2025 年,这让行业观察家感到震惊——因为这使得英特尔无法与amd 的 instinct mi300和nvidia 的 grace hopper处理器竞争,后两者均采用 cpu+gpu的混合处理器设计。
然而在近日的财报说明会上,英特尔首席执行官 pat gelsinger 透露,公司计划于 2026 年推出新版本的 falcon shores 芯片,代号为 falcon shores 2。falcon shores 2 芯片将于 2025年接替首款 falcon shores 芯片,后者是一款用于人工智能和超级计算的高性能 gpu。
“当我们将 gpu 和加速器整合到一个产品中时,我们有一个简化的路线图,”
虽然英特尔并未过多谈论这款将于2026 年推出的产品,但英特尔方面曾表示,因为falcon shores 芯片将使用chiplet设计,因此英特尔将能够混合搭配 gpu、ai 加速器和第三方 cpu。
英特尔公司副总裁兼超级计算事业部总经理 jeff mcveigh 在 5 月份的电话会议上更是表示:“这为跨供应商提供了将 falcon shores gpu 与其他 cpu 以及 cpu 与 gpu 比例结合起来的灵活性。”
mcveigh 表示,独立gpu falcon shores 产品模型使用基于 gpu 的通用编程接口,cpu 和 gpu 的 cxl 接口将提高代码的生产力和性能。
此外,2026 年的发布falcon shores 2,这也许意味着该芯片采用 angstrom 时代的工艺制作。该芯片制造商将重点放在 2025 年之前的产品发布上,届时将实现四年内启动五个节点的目标。又因为falcon shores 2 的发布日期为 2026 年,这似乎代表着原始版本的 falcon shores gpu 的生命周期很短,是一个过渡产品。
如之前很多报道中所说,falcon shores 芯片是专为 hpc 和 ai 计算而设计,英特尔已经讨论过将 gpu 与 gaudi 芯片系列合并。gelsinger在财报电话会议上表示,falcon shores 的执行情况“良好”。他同时还表示falcon shores 将拥有最好的 gpu 和最好的矩阵加速。
对于其gpu和gaudi等面向ai的芯片,英特尔的目标是确保人工智能软件堆栈通过其 oneapi 软件堆栈在 gaudi 和 falcon shores 芯片上向前兼容。
“我们将扩大该软件堆栈的灵活性。我们正在添加 fp8。我们刚刚添加了 pytorch 2 支持。一路走来的每一步,它都会变得更好、更广泛的用例。正在支持更多语言模型。软件堆栈支持更多的可编程性,”gelsinger强调。
此外,英特尔还在通过 oneapi 采用部分开放的软件方法,该方法以名为 syclomatic 的工具为中心,可以转换专有的 cuda 代码以在包括 ponte vecchio 在内的各种 gpu 上运行。
amd也不甘人后
在英特尔和英伟达在为未来倾囊而出的同时,amd也不甘人后。几个月前,公司就带来了全新的mi 300系列芯片,这也是公司面向ai市场祭出的一个杀手锏。具体信息参考半导体行业观察之前的报道《1530亿晶体管芯片发布,amd正式叫板英伟达》。而在amd最近的财报发布会上,该公司ceo lisa su也披露,amd的ai芯片参与度在本季度增加了七倍多。
lisa同时还表示,公司在遵守美国的出口管制之余。正在寻找机会为中国客户提供定制的人工智能解决方案。
众所周知,随着生成式人工智能的出现,市场对 gpu 的需求猛增。特斯拉的elon musk在该公司最近的财报电话会议上谈到了 nvidia gpu 的短缺问题,微软也在其年报中谈到了gpu短缺可能带来的风险,为此这些公司正在寻找人工智能芯片替代品的机会。
其中,amd无疑是最值得关注的一家。
NASA向公众征求小型有效载荷概念意见
变压器套管的作用和要求简介
2023年全球电池储能市场将增长到131.3亿美元
示波器维修MSO9104A开机启动不了 通道偏移故障
自主技术仅占三成,国产机器人火热背后冰点难掩
英伟达超级芯片更新 首度引入H3Be
指纹识别的基本原理是怎样的
简述SiC芯片市场的大爆发所产生的影响
ifconfig配置静态ip命令
苹果官方解释:iPhone 12系列新引入的MagSafe磁吸无线充
利用74ls192的倒计时计数器
虹科方案 | 汽车CAN/LIN总线数据采集解决方案
《OTT、IPTV的现在和未来》的演讲
恭喜|航智高精度电压传感器获CE认证
安霸的愿景是将人工智能处理与3D视觉传感相结合
全项目土壤氮磷钾检测仪的相关功能介绍
时序约束系列之D触发器原理和FPGA时序结构
苹果在未来或将会发布VR产品
电瓶车充电桩收费平台的结构及功能说明
论智能语音助理哪一家的技术是最强的