发力代理AI Meta大规模部署AWS Graviton处理器
2026-04-27
来源:芯智讯
近日,美国互联网大厂Meta已与亚马逊云计算服务(Amazon Web Services,AWS)签署合作协议,将大规模部署AWS Graviton 处理器,以支持新一代AI系统建设,双方未公开交易金额等细节。

双方这次合作反映AI基础建设构架正在转变,虽然GPU仍用于大型模型训练,随着Agentic AI(代理式AI)应用增加,对于即时推理、代码生成、搜寻及多步骤任务协调等CPU密集型工作负载的需求大幅增加。
而以Arm构架为基础的AWS Graviton处理器则是针对这类工作负载而设计的,可为Meta提供高效的CPU处理能力。
AWS指出,目前最新Graviton5处理器配备192个Arm CPU核心,缓存容量为上一代的5倍,核心之间的通信延迟最高减少33%,意味着更快速的数据处理和更大的频宽。对于需要持续推理并执行多步骤任务的Agentic AI系统而言,这些是关键需求。
Graviton5芯片采用台积电3nm(N3)制程,而AWS从零开始设计芯片,全面掌控从芯片设计到服务器构架的完整流程,因此能够做到现成处理器无法比拟的最佳化性能与能源效率,Graviton5芯片性能较上一代提升高达25%。
目前,每天约有36亿人使用Meta的服务,Meta即使全球营运了32座数据中心应对庞大数据处理需求仍显得不够,因此需要像谷歌、微软等科技巨头一样,大手笔投入资金取得算力,以满足庞大运算需求。
值得注意的是,今年3月,Arm公司首次突破了其原有的产品矩阵和商业务模式,将产品矩阵延伸至量产芯片产品领域,正式发布了一款由 Arm 自主设计、面向AI数据中心的CPU——AGI CPU,旨在满足日益增长的代理式 AI (agentic AI) 工作负载需求。
AGI CPU基于台积电3nm制程,由两个小硅片组合而成,集成了 136 个 Arm最新的Neoverse V3 核心,每个核心配备 2 MB 二级缓存,主频3.2 GHz,最高频率3.7 GHz,每线程独立核心,可在持续负载下提供确定性性能,避免降频与线程闲置。在内存和接口支持方面,AGI CPU支持 12 通道 DDR5 内存,最高可达 8800 MT/s,可提供超过 800 GB/s 的总内存带宽,或每核心 6GB/s的带宽,延迟低于100ns。I/O包含96条PCIe Gen6通道,并原生支持CXL 3.0以实现内存扩展和池化。整个芯片的TDP在300瓦左右。
Arm表示,基于AGI CPU每个服务器机架的性能超过x86平台的两倍,并且每1吉瓦基于Arm AGI CPU的AI 数据中心算力的资本支出 (CAPEX) 相比x86 CPU平台可节省高达 100 亿美元。
Meta已经确认将是Arm AGI CPU的首批客户。此番,Meta又宣布大量采购亚马逊的Graviton 5 处理器,足见对于Arm架构服务器CPU的旺盛需求。

