“硬刚”英伟达!AMD苏姿丰最新发声:现在处于AI大周期开端

2024年06月03日 18:31    发布者:eechina
来源: 第一财经资讯

英伟达CEO黄仁勋在6月2日晚间公布了最新AI芯片的迭代时间表后,AMD不甘示弱。3日上午,在COMPUTEX开幕前的演讲中,AMD CEO苏姿丰也抛出了一条迭代路线图。

AMD是全球第二大GPU厂商和主要的CPU厂商之一,在GPU领域市场仅次于英伟达,在CPU领域是英特尔的竞争对手。基于此,AMD也在打GPU+CPU的组合。

苏姿丰表示,今年第四季度AMD将推出MI325 X,将搭载HBM3E(高带宽内存)存储器,内存更大且计算能力有所提升。MI350系列以及MI400系列将在明后两年陆续推出。其中,MI300 X、MI325 X采用CDNA3架构,MI350将采用CDNA4架构,MI400将采用下一代CDNA架构。而在业内看来,这一速度与英伟达发布的计划看齐。

“对人工智能的需求正加速增长,我们处于一个长达十年的人工智能大周期的开端。”苏姿丰表示,去年AMD推出了MI300 X加速器,后续每年都会推出新的产品系列。

具体来看,今年AMD将推出的MI325 X有288GB高速HBM3E内存,内存带宽达每秒6TB。苏姿丰表示,单个搭载了8块MI325 X加速器的服务器可以运行参数量高达1万亿的大模型,这是搭载英伟达H200的服务器可支撑的模型尺寸的两倍。2025年,AMD将推出的CDNA4架构将带来该公司史上最大的人工智能世代飞跃。MI350采用先进的3nm工艺制程,支持FP4(四位浮点数)和FP6数据类型。

“当我们回顾过往,AMD推出CDNA3时,人工智能性能是上一代的8倍,而CDNA4性能将比CDNA3增长35倍。”苏姿丰表示,MI350的内存将是B200的1.5倍,性能提升了1.2倍。

H200和B200都是英伟达的AI芯片,分别于2023年和2024年发布。其中,B200采用Blackwell架构,英伟达将两块B200 CPU芯片和一颗Grace CPU芯片集成在一块GB200主板上,用互联技术组合以提高性能。据黄仁勋2日晚间透露,英伟达将“一年一更”,2025年推出Blackwell Ultra,2026年推出新架构Rubin,2027年推出Rubin Ultra。同样“一年一更”的AMD将与英伟达直接对垒。

“现在多数数据中心的处理器已使用超过5年了,许多企业希望更新数据中心的计算基础设施并新增AI能力。许多企业客户也希望在不增加GPU的情况下,进行通用计算和人工智能计算。AMD是唯一一家能向数据中心提供全套CPU和GPU网络解决方案的企业。”苏姿丰表示。

苏姿丰称,AMD将推出第五代面向数据中心的EPYC CPU处理器,代号为Turin。该处理器基于Zen5架构,将于今年下半年推出,旗舰产品有192个Zen5核心和384个线程。苏姿丰介绍,当运行较小的大语言模型时Turin的性能优势突出。

面向台式电脑,苏姿丰还发布了AMD锐龙9000系列桌面处理器,该系列采用Zen5架构,第一批产品有Ryzen 9 9950X、Ryzen 9 9900X、Ryzen 7 9700X和Ryzen 5 9600X,将于7月上市。

此外,AMD推出了代号为Strix Point的Ryzen(锐龙)AI 300系列,面向笔记本电脑领域。据苏姿丰介绍,Ryzen AI 300系列采用Zen 5架构,可以在本地运行AI工作负载。Ryzen AI 300系列搭载XDNA AI NPU(神经处理单元),NPU算力可达50 TOPS。该系列对比同行其他新的x86和ARM CPU,在单线程响应、内容创建、多任务处理方面有更高性能。

黄仁勋此前抵达台北后,邀请了供应链伙伴鸿海集团、广达电脑、华硕、纬创等企业负责人聚餐。AMD也在发布环节拉起了“朋友圈”。苏姿丰邀请了微软、惠普、华硕、联想企业负责人上台分享了双方合作和AI应用内容。微软相关负责人在台上表示,Copilot(AI助手)+PC可以在PC本地和云上提供AI服务,这将有更快的响应时间和更低的成本,但这要求每台Copilot+PC设备能至少支持40TOPS算力。

值得注意的是,面对英伟达在AI领域的强势,AMD等科技厂商近期都在试图增强自身的话语权。包括谷歌、Meta、AMD、英特尔、博通、思科、惠普在内的八家科技巨头不久前宣布成立一个新的行业组织,即超加速器链接推广小组(UALink Promoter Group),意在制定行业标准,指导数据中心内AI加速器芯片之间连接组件的发展。

“在很短的时间内,科技行业已经接受了AI和HPC揭示的挑战。在追求效率与性能提升的过程中,加速器,尤其是GPU的互连,需要一个全面的视角。”超以太网联盟主席 J Metz说。