微软正式发布第二代自研 AI 推理加速器 Maia 200,号称性能超越谷歌第七代 TPU
2026年01月27日 16:54 发布者:eechina
微软于 2026年1月27日 正式发布了其第二代自研 AI 推理加速器 Maia 200。这款芯片是 Maia 100 的继任者,专为大规模 AI 推理(Inference)任务设计,旨在通过高性能和高性价比降低微软 Azure 云服务(如 ChatGPT、Microsoft 365 Copilot)的运营成本。以下是 Maia 200 的性能核心参数与优势对比:
1. 核心规格参数
Maia 200 在工艺和内存架构上较上一代有了质的飞跃:
制程工艺:采用台积电 3nm 制程(Maia 100 为 5nm)。
晶体管数量:超过 1400 亿个。
峰值算力:
FP4 (4位精度):超过 10 PetaFLOPS。
FP8 (8位精度):约 5 PetaFLOPS。
内存系统:
配备 216GB HBM3e 高带宽内存,带宽高达 7TB/s。
片上拥有 272MB SRAM,大幅减少了数据传输延迟。
互联能力:每个加速器提供 2.8 TB/s 的双向专用扩展带宽,支持多达 6144 个加速器的集群。
2. 性能对比与市场竞争力
微软在发布时明确标榜了 Maia 200 对标竞品的领先优势:
超越竞品:其 FP4 性能 是亚马逊 Trainium 3 的 3 倍,FP8 性能 超过了谷歌的 第七代 TPU。
性价比极高:在相同的成本投入下(每美元性能),比目前部署的最新一代硬件提升了约 30%。
垂直集成:专门针对 OpenAI 的模型(如最新的 GPT-5.2)进行了深度优化。
3. 技术特性与部署
网络架构:Maia 200 放弃了昂贵的 InfiniBand,转而采用基于 标准以太网 的双层扩展网络设计和定制的 Maia AI 传输协议,降低了组网成本。
冷却技术:采用高效的 “侧置水冷” (Sidekick) 热管理设计,能实现更高的散热效率和更低的能耗。
首批应用:已率先在微软爱荷华州的数据中心部署,下一步将扩展至亚利桑那州,主要支持 Microsoft Foundry 和 Copilot 业务。
总结: Maia 200 不仅仅是一次硬件迭代,它是微软为了摆脱对英伟达(NVIDIA)昂贵 GPU 依赖的重要战略工具。通过 3nm 工艺和巨大的 HBM3e 内存,它在处理目前极耗资源的“长文本推理”和“实时生成”任务上表现极佳。
