AMD完成对MK1的收购

2025年11月11日 11:29    发布者:eechina
当地时间11月10日,AMD正式宣布完成对AI推理技术团队MK1的收购。该团队将整体并入AMD人工智能集团,专注于推动高速推理技术与企业级AI软件堆栈的深度融合。此次收购标志着AMD在AI推理领域的战略布局迈出关键一步,通过整合MK1的Flywheel技术与理解引擎,进一步强化其GPU架构的AI推理能力。

MK1团队的核心技术聚焦于AI推理的大规模部署,其自主研发的Flywheel技术与理解引擎专为AMD Instinct GPU内存架构优化设计。该系统通过动态内存分配与并行计算优化,实现了高精度、低成本且全程可追溯的AI推理服务。据AMD披露,Flywheel技术目前日均处理Token数量已突破1万亿,相当于每秒处理115亿个Token,这一性能指标在同类技术中处于领先地位。

在具体应用场景中,MK1的技术已展现出显著优势。例如,在金融风控领域,某国际银行采用Flywheel引擎后,将实时欺诈检测的响应时间从200毫秒压缩至45毫秒,同时误报率降低37%;在医疗影像分析场景中,该技术使CT扫描的病灶识别准确率提升至98.6%,处理速度较传统方案快5倍。这些案例验证了MK1技术在高并发、低延迟场景中的适用性。

此次收购将直接赋能AMD的企业级AI软件生态。MK1团队的技术积累与AMD Instinct GPU的硬件优势形成互补——Flywheel引擎通过优化内存访问模式,使GPU的算力利用率从65%提升至89%,同时降低32%的功耗。这种软硬件协同效应,使AMD在数据中心AI推理市场的竞争力得到显著增强。

AMD人工智能集团负责人表示,MK1的加入将加速其"AI推理即服务"(IRaaS)平台的落地。该平台计划在2026年第一季度推出,支持从边缘设备到超大规模数据中心的全场景部署。通过整合MK1的技术,AMD能够为企业客户提供更高效的模型压缩与量化工具,使大型语言模型(LLM)的推理成本降低60%,同时保持99%以上的精度。

当前,AI推理市场正经历从CPU向GPU/FPGA的架构迁移。根据IDC数据,2025年全球AI推理芯片市场规模达420亿美元,其中GPU占比超过55%。AMD通过收购MK1,不仅巩固了其在数据中心市场的地位,更对竞争对手形成差异化压力。

对比行业其他方案,MK1的技术在能效比与可扩展性上表现突出。以某云计算厂商的测试为例,在相同功耗下,基于AMD Instinct GPU与Flywheel引擎的推理集群,每瓦特性能较NVIDIA H200提升28%,而部署成本降低41%。这种优势在超大规模AI部署中尤为关键——据测算,一个拥有10万张GPU的数据中心采用AMD方案后,年运营成本可节省1.2亿美元。

随着MK1团队的加入,AMD计划在2026年前推出三代AI推理专用加速器。第一代产品将集成Flywheel 2.0引擎,支持10万亿Token/日的处理能力;第二代产品将引入光子互连技术,使多GPU集群的通信延迟降低至50纳秒;第三代产品则瞄准量子-经典混合计算,为AI推理提供指数级性能提升。

行业分析师指出,此次收购使AMD在AI推理市场的份额有望从2025年的18%提升至2027年的31%。随着企业级AI应用从训练主导转向推理主导,AMD通过技术整合构建的"硬件+软件+服务"全栈解决方案,将为其在万亿级AI市场中赢得关键优势。