12月3日消息,亚马逊云科技(Amazon Web Services,简称AWS)在自主研发人工智能(AI)训练芯片领域深耕多年,今日正式发布了最新一代产品——Trainium3,其规格参数十分亮眼。
在当地时间12月2日于拉斯维加斯举办的AWS re:Invent 2025年度技术大会上,这家云计算领域的巨头除了正式推出搭载其先进3纳米制程Trainium3芯片的Trainium3 UltraServer系统外,还首次对外披露了其AI训练产品路线图中的下一代产品——目前处于研发阶段的Trainium4。据了解,Trainium4将可与英伟达(NVIDIA)芯片实现协同工作。
据 AWS 介绍,这款第三代芯片及其配套系统在 AI 模型训练和推理性能方面相较第二代产品实现了显著提升。具体而言,新系统在训练和高负载推理场景下的速度提升超过 4 倍,内存容量也增至 4 倍。此外,AWS 表示,数千台 UltraServer 可相互连接,构建出搭载最多 100 万颗 Trainium3 芯片的超大规模集群 ,这一规模是上一代系统的 10 倍。每台 UltraServer 最多可容纳 144 颗 Trainium3 芯片。
更值得关注的是,AWS 强调新一代芯片和系统在能效方面较前代提升了 40%。在全球竞相建设耗电量高达数吉瓦(gigawatts)的大型数据中心之际,AWS 正致力于打造“更省电”而非“更耗电”的基础设施。
此举显然符合 AWS 自身的商业利益,但秉承亚马逊一贯的成本意识,该公司同时承诺,这些高效系统也将为使用其 AI 云服务的客户节省开支。
亚马逊表示,包括 Anthropic(亚马逊亦为其投资者)、日本大语言模型公司 Karakuri、SplashMusic 以及 Decart 在内的多家客户已率先采用第三代 Trainium 芯片及系统,并显著降低了推理成本。
此外注意到,AWS 还简要披露了下一代芯片 Trainium4 的开发进展。该公司承诺,Trainium4 将带来又一次显著的性能飞跃,并将支持英伟达的 NVLink Fusion 高速芯片互连技术。这意味着基于 Trainium4 的系统不仅能与英伟达 GPU 协同运行、扩展整体性能,还能继续利用亚马逊自研的低成本服务器机架技术。
值得注意的是,英伟达的 CUDA(统一计算设备架构)已成为当前主流 AI 应用事实上的标准平台。通过支持 NVLink Fusion,Trainium4 有望降低迁移门槛,吸引更多原本为英伟达 GPU 优化的大型 AI 应用转向亚马逊云平台。
目前,亚马逊还没有对外公布Trainium4的具体发布时间安排。要是参考其以往的产品发布规律,外界可能会在明年(2026年)的re:Invent大会上了解到更多有关Trainium4的详细情况。
【:】