最近这两年在说到 " 云计算 " 时,大多数人首先想到已经不再是更快的云端 CPU、更大的互联网带宽,或者是更大的云端存储空间。原因很简单,因为蓬勃发展的 AI 技术已经改变了许多人对于 " 云 " 的主要需求。现在开发者普遍更关注的话题变成了如何更有效地使用那些云端 AI 工具、训练属于自己的智能体,或者是利用云计算的弹性来最大化企业 AI 服务的性价比。

但我们都知道 AI 技术最突出的两大特征,一是在于它发展得如此之快,新的模型层出不穷,造成了硬件反而被快速淘汰,开发者们也因此目不暇接。其二就是如今的 AI 已经呈现出各种各样的隐患,从使用成本到隐私保护、从信息治理到 AI 言行 " 越界 " 的监测,这些无疑都挑战着开发者的智慧,同时也提高了企业使用 AI 的潜在成本。
很显然,整个行业都需要有一套新的体系来支撑 AI 技术的继续健康发展。而这既包括新的算力硬件,也包含新的模型、新的开发环境、新的运营工具。

2025 年 12 月初,AWS 成为了最早 " 站出来 " 解决相关问题的云计算厂商。当地时间 2025 年 12 月 2 日,就在 AWS re:Invent 2025 的第二天,AWS CEO Matt Garman 系统性地阐释了他们应对未来 AI 需求的全栈生态实力。
更强大的自研硬件,为 AI 训练 " 减负 "
熟悉 AWS 的朋友都知道,自研芯片长期以来一直都是其实现超高性能和性价比的关键所在,这一点在 AI 时代同样成立。

就在此次活动开场后不久,Matt Garman 就披露了 AWS 的最新款的自研 AI 训练芯片 Trainium 3。根据官方公布的信息显示,Trainium 3 基于 3nm 制程打造,能效比上代提高了 40%,性能更是达到前代的 2 倍。

同时 AWS 在现场也展示了基于 Trainium 3 的 "UltraServers" 机架。这套系统拥有 4.4 倍于前代训练服务器的性能、3.9 倍于前代的内存带宽,并在生成 Tokens 的能效上达到了前代的 5 倍之多。

但 AWS 的硬件进步尚未停止,他们还首次披露了下一代的 Trainium 4。这款尚在开发中的次时代训练芯片将会带来 6 倍的性能水准,2 倍的内存容量。更为值得关注的,是其将可以支持 NVIDIA NVLink Fusion 技术,也就是实现 AWS 自研芯片与 NVIDIA AI 芯片的 " 协同工作 "。

从这一点来看,AWS 的自研芯片显然并非是为了完全取代第三方的 AI 加速器硬件。相反,AWS 早已成为能提供最多种类云计算实例的品牌。就在此次活动中,Matt Garman 也一口气公布了基于 NVIDIA、AMD、Intel,甚至是苹果 M 系芯片的多款新计算实例。

值得注意的是,尽管我们三易生活已经提前了解到关于新一代 Graviton 处理器的相关信息,但 Matt Garman 在这次演讲中却并没有提及。这或许是因为相比只能用于 AI 任务的 Trainium,Graviton 显然更加 " 通用 "。接下来我们也会持续关注 AWS 新一代通用处理器的信息,并在第一时间为大家带来相关报道。
更多 AI 模型选择,自研 Nova 家族大升级
讲完硬件部分,Matt Garman 就开始探讨模型选择在 AI 开发过程中的重要作用。对于 AWS 而言,他们则提供了 Bedrock。这是一个 " 应用商店 " 式的模型选择和 AI 程序优化工具,开发者可以在 AWS 的云端服务器上选择来自多个不同提供方的 AI 模型,同时也可以借助其来定制、优化他们的 AI 应用程序。

Matt Garman 公布的相关数据显示,Bedrock 已经成为一些行业巨头 AI 服务背后的 " 贤内助 "。有超过 50 家 AWS 的客户在 Bedrock 上处理超过 1 万亿数量级的 Tokens。

同时 Bedrock 也在不断地增强自身的 " 包容性 ",今天 AWS 方面就正式宣布,来自谷歌、Kimi、MINIMAX 和 NVIDIA 等多个企业的 18 款新模型在 Bedrock" 上架 "。很显然,这也直接证明了如今 Bedrock 在 AI 开发领域的 " 行业地位 "。

当然,Bedrock 并非只依赖于第三方的模型,因为 AWS 也有自研 Nova 模型家族。如今,Nova 已经扩展到了多达 8 个不同领域的分支版本。

今天 AWS 方面也正式公布了全新的 Nova 2 家族。目前它提供四种分支版本,其中 Lite 适用于快速、高性价比的日常负载,Sonic 专注于实时语言对话,Pro 具有 AWS 迄今为止最高的智能推理能力,Omini 更是成为了业内首款统一的多模态生成和推理模型。

AWS 方面公布的信息显示,与 Claude Sonnet 4.5、GPT-5.1、Gemini 2.5 Pro 等对手相比,Nova 2 Pro 在实测中能够做到多项指标显著领先。而 Nova 2 Omni 作为业内首个可接受文本、图像、视频和语音输入,并同时生成文本和图像的 AI 模型,能够 " 一口气 " 处理多达 75 万单词的文本、数小时的音频或视频,这就意味着它可以被用于非常复杂的产品分析,从而为更 " 全能 " 的 AI 应用打下了基础。
为了 AI 应用的长期 " 成长 ",AWS 端出新玩意
正如本文一开始就提及的那样,如今 AI 技术的一大特征就是更新换代特别迅速,这自然就会为开发者带来更大的挑战。Matt Garman 将其比喻为养育孩子,(开发者)总是想要确保(AI 应用)成长和取得成功,而不是去犯错、" 惹麻烦 ",要想实现这一点,更加智能的工具便可以提供很大的帮助。

比如 AWS Transform 得到了进一步的升级。这是一个用于将老旧代码自动 " 现代化 " 的智能体。现在它加入了自定义特性,开发者只需一句话、一个命令,就能将过时的程序自动使用新版本的代码进行 " 重写 "。请注意,这与单纯的 "AI 编程 " 并不一样,它并非完全靠智能体 " 无中生有 ",而是可以学习原版程序的编程思路,对于一些已经长期停止更新,甚至开发者都放弃维护了的软件来说,它就显然尤为可贵。

当然,AI 不只可以用于解决企业潜在的技术债务,它们本身也需要具备能够持续进化的能力。这就是为何 AWS 在此次活动临近结束时,一口气发布了多款旨在帮助开发者实现 " 长期主义 " 的 AI 智能体,也就是 "Frontier Agents" 的原因。

首先,AWS 方面介绍了新的 Kiro 开发智能体,它允许开发者用自然语言描述功能需求,并自动生成代码。很显然,它的作用是减少开发团队的工作量,同时也可以避免代码编写过程中的人为错误。

此外,我们也迎来了 AWS 安全智能体,它可以主动扫描代码中的漏洞,甚至代替人工执行渗透测试。这样一来,一方面安全人员可以大幅减少枯燥的工作,另一方面也使得开发者可以从一开始就编写出更安全稳定的代码,而不是在程序上线后再去 " 考验 " 它们。

当然,对于已经上线的服务,AWS 也推出了 DevOps 运维智能体,可以主动发现软件故障、提供解决方案建议。用 AWS 的话来说,它可以让软件团队 " 多睡一会儿 "。
需要注意的是,这三款智能体并非缺乏经验的 " 新兵 "。据 AWS 方面透露,在正式上线前,它们实际上已经参与了 AWS Bedrock 的重构工作。当时他们仅用一个 6 到 8 人的团队,在智能体的帮助下,几个月时间就完成了过去可能需要更大规模团队一年才能搞定的工作量。
全身心投入 AI 大时代,AWS 有这个底气
纵观 re:Invent 2025 的首场主题演讲不难发现,AWS 几乎是将全部的 " 资源 " 都倾斜给了 AI、智能体。事实上,直到最后的 10 分钟,Matt Garman 才以极快的节奏,介绍了 AWS 在 AI 之外、多达 25 个业务和功能更新,而这些涉及数据库、通用计算实例的信息,过去曾都做过 re:Invent 的 " 主角 "。

当然,AWS 确实有这样去做的底气。一方面,他们在过去一年取得了惊人的 1320 亿美元营收,同时 Amazon S3、AWS 全球基础设施等 " 传统业务 " 依然稳稳占据着业界头部的地位,并实现了持续增长。


另一方面,正如 Matt Garman 所说的那样," 在 AWS,一切都要以客户为中心 "。当各行各业的头部企业都在依赖 AWS 来支撑他们的业务,而这些客户目前普遍都在经历着 AI 时代的重塑时,帮助开发者适应这个新的时代,自然也就成为了 AWS 最为紧要的方向。


登录后才可以发布评论哦
打开小程序可以发布评论哦