微软正式发布第二代自研 AI 推理加速器 Maia 200,号称性能超越谷歌第七代 TPU

2026年01月27日 16:54    发布者:eechina
微软于 2026年1月27日 正式发布了其第二代自研 AI 推理加速器 Maia 200。这款芯片是 Maia 100 的继任者,专为大规模 AI 推理(Inference)任务设计,旨在通过高性能和高性价比降低微软 Azure 云服务(如 ChatGPT、Microsoft 365 Copilot)的运营成本。

以下是 Maia 200 的性能核心参数与优势对比:

1. 核心规格参数

Maia 200 在工艺和内存架构上较上一代有了质的飞跃:

制程工艺:采用台积电 3nm 制程(Maia 100 为 5nm)。

晶体管数量:超过 1400 亿个。

峰值算力:

FP4 (4位精度):超过 10 PetaFLOPS。

FP8 (8位精度):约 5 PetaFLOPS。

内存系统:

配备 216GB HBM3e 高带宽内存,带宽高达 7TB/s。

片上拥有 272MB SRAM,大幅减少了数据传输延迟。

互联能力:每个加速器提供 2.8 TB/s 的双向专用扩展带宽,支持多达 6144 个加速器的集群。

2. 性能对比与市场竞争力

微软在发布时明确标榜了 Maia 200 对标竞品的领先优势:

超越竞品:其 FP4 性能 是亚马逊 Trainium 3 的 3 倍,FP8 性能 超过了谷歌的 第七代 TPU。

性价比极高:在相同的成本投入下(每美元性能),比目前部署的最新一代硬件提升了约 30%。

垂直集成:专门针对 OpenAI 的模型(如最新的 GPT-5.2)进行了深度优化。

3. 技术特性与部署

网络架构:Maia 200 放弃了昂贵的 InfiniBand,转而采用基于 标准以太网 的双层扩展网络设计和定制的 Maia AI 传输协议,降低了组网成本。

冷却技术:采用高效的 “侧置水冷” (Sidekick) 热管理设计,能实现更高的散热效率和更低的能耗。

首批应用:已率先在微软爱荷华州的数据中心部署,下一步将扩展至亚利桑那州,主要支持 Microsoft Foundry 和 Copilot 业务。

总结: Maia 200 不仅仅是一次硬件迭代,它是微软为了摆脱对英伟达(NVIDIA)昂贵 GPU 依赖的重要战略工具。通过 3nm 工艺和巨大的 HBM3e 内存,它在处理目前极耗资源的“长文本推理”和“实时生成”任务上表现极佳。