芯师爷 2小时前
“小龙虾”太多了,CPU告急
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

当地时间 4 月 9 日,谷歌与英特尔宣布扩大多年期合作,核心内容并非 GPU 采购,而是多代至强(Xeon)处理器的部署承诺,以及基于定制 ASIC 的基础设施处理单元(IPU)联合研发。消息一出,英特尔股价当日上涨 4.7%,过去五个交易日累计涨幅约为 22.5%。

同一天,SemiAnalysis 首席分析师 Dylan Patel 在一场深度访谈中抛出了一个让业界警醒的数据:" 过去六个月,整个云市场的 CPU 都跑光了。"

供给端的情况在恶化。据 Omdia 报告,全球服务器 CPU 供应紧张可能导致 2026 年价格上涨 11% 至 15%。汇丰证券更将 2026 年全球服务器出货量同比增长预期大幅上调至 20%,同时指出受供应链产能限制,真实市场需求可能高达 60%。

如果说一年前市场还在争论 "AI 是否需要 CPU",那么现在的问题已经变成了 "CPU 不够用怎么办 "。这背后,是一场正在发生的结构性变化:AI 基础设施的瓶颈,正从 GPU 向内存和 CPU 迁移。关于内存对 AI 基础设施的影响以及市场激烈的反应,大家已经很熟悉了,今天我们来讲讲 CPU。

PART 01

为什么 CPU 突然变 " 稀缺 " 了?

从 " 问答 " 到 " 任务 ":CPU 工作负载的根本转变

理解这个问题的起点,是 AI 工作负载性质的改变。

在 AI 发展的头几年," 发一个字符串,回一个字符串 ",简单的文本生成推理,对 CPU 的负载确实很轻。行业观察者 Dylan Patel 回忆:" 在 AI 的头几年,CPU 确实严重滞后。负载很轻。你发一个字符串,它回一个字符串,简单的推理,对 CPU 需求不大。"

但这一局面在过去几个月被彻底打破。

核心驱动力 " 智能体(Agent,比如各平台的 ' 小龙虾 ')和强化学习(RL)" 的爆发。以 OpenAI o1 为代表的新一代模型,不再是简单的问答输出,而是开始自主执行任务、调用数据库、自我验证。多步推理、多工具调用、多智能体协作,正在成为 AI 工作的新形态。

Dylan Patel 给出了一组极具冲击力的数据:

代码智能体收入:过去 6 个月,从几十亿美元暴涨至超过 100 亿美元

单次任务时长:Claude Code 等智能体可连续工作 6 至 8 个小时,持续调用数据库、触发各类服务——这意味着持续、高强度的 CPU 占用

强化学习训练循环:模型每生成一步输出,都需要在 CPU 集群上进行高频验证,循环越来越紧密

" 想象一下未来一两年训练的机器人模型——一个视觉语言模型在世界模型中导航,试图拿起东西、放下东西。每一步都需要被验证,而物理模型跑在某个 CPU 集群上。那需要的 CPU 量会多得疯狂。"

数据重新佐证 CPU 的工作价值

GPU 是 AI 的绝对主角——这个认知根深蒂固。但 Georgia Tech 与 Intel 联合发布的研究,正在动摇这个认知。

2025 年 11 月,两家机构联合发布了一篇论文,名为《Characterizing CPU-Induced Slowdowns in Multi-GPU LLM Inference》。研究的核心发现是:

在智能体 AI 工作负载中,CPU 瓶颈在多 GPU 推理系统中普遍存在。

具体来说,当企业部署一个多智能体系统(如 AI 研究助手,需要同时启动子智能体搜索网页、查询数据库、综合文档、编写代码),CPU 不再是旁观者,而是实际承担了状态维护、上下文窗口管理(可延伸至数十万 token)、工具调用、检索增强生成(RAG)查询、以及结果汇总协调等工作。

GPU ——再强大——也在等待 CPU 喂给它数据、管理 KV 缓存、分发下一个任务。

研究还发现,即使在采用进程级分离和 CUDA Graphs 等现代 GPU 优化的推理框架中,CPU 瓶颈依然顽固存在。

PART 02

供需失衡:云厂商的 CPU" 库存危机 "

需求在激增,供给却跟不上。

Dylan Patel 透露了一个细节:OpenAI 为了获得 CPU 算力,直接向亚马逊提出请求—— " 把你的 CPU 给我们 "。更值得关注的是,OpenAI 的代码栈此前几乎只在 x86 CPU 上运行,但亚马逊拥有大量 ARM CPU。据 Dylan Patel 透露,OpenAI 的回应是:" 只要能拿到 CPU,我愿意把整个栈移植过去。"

工程迁移的代价极高,但算力需求已经紧迫到让企业愿意付出这种代价。

行业数据同样印证了供需紧张:

亚马逊 CPU 服务器安装量:今年同比增长 3 倍。

GitHub 稳定性:过去数月频繁出现宕机和提交失败。原因是微软将大量闲置 CPU 分配给了 Anthropic 和 OpenAI。

CPU 利润率:正在攀升。Intel 和 AMD 均已发出涨价通知。

芯片交货周期:从正常水平大幅延长,部分型号需要等待数月。

美银(Bank of America)最新预测:全球数据中心 CPU 市场规模将从 2025 年的 270 亿美元,增长至 2030 年的 600 亿美元,几乎翻一倍多,且增长几乎全部由智能体 AI 需求驱动。

Intel CFO David Zinsner 在摩根士丹利 TMT 会议上披露:2025 年全年,CPU 市场增长 20%-30%。

PART 03

产业链的连锁反应

CPU 厂商:Intel 和 AMD 的 " 意外春天 "

对 Intel 而言,这波 CPU 需求浪潮来得正是时候。

在 AI 芯片市场,Intel 长期处于英伟达的 GPU 主导格局阴影下。但凭借至强(Xeon)处理器产品线,Intel 正在 AI 推理市场找到新的增长锚点。

2026 年 3 月,Intel 发布了至强 6 处理器(代号 Granite Rapids),核心数据亮眼:

核心数最高 128 个(较上一代翻倍)

L3 缓存最高 504MB

运行 Llama 2 70B 大模型,性能提升 3.08 倍

引入 FP16 格式的 AMX(高级矩阵扩展)加速引擎,专门优化 AI 推理中最常用的乘累加运算

内存带宽翻倍,支持 DDR5 6400MT/s 和 MRDIMM 8800MT/s

192 条 PCIe 5.0 通道(较上一代提升 20%)

每瓦性能提升 1.6 倍,TCO 节省 30%

更值得关注的是,英伟达已选定制冷 6776P 作为 DGX B300 加速系统的唯一主控 CPU ——这意味着 GPU 巨头在自家旗舰系统中,也需要 Intel CPU 来承担任务调度和数据预处理。

AMD 同样受益。EPYC 系列处理器在云厂商中的采用率持续提升。但由于台积电产能向 AI 加速器倾斜,AMD 的 CPU 产能同样面临约束。

Arm 也在积极入局。2026 年 3 月,Arm 发布了首款面向数据中心的通用处理器 AGI CPU,136 核,与 Meta 联合开发。这直接与 Intel 和 AMD 的 x86 架构形成竞争。

云厂商:重新思考 " 算力配比 "

传统的 AI 集群架构中,CPU 与 GPU 的配比大约是 1:100(100 兆瓦 GPU 对应约 1 兆瓦甚至更少的 CPU)。但这个比例正在急剧变化。

Dylan Patel 指出:" 以前,每个 CPU 服务器对应很多 GPU 服务器。但现在这个比例正在变得非常接近,无论是对于 RL 训练还是推理(智能体推理)。"

这意味着云厂商在规划 AI 基础设施时,不能再只盯着 GPU 采购—— CPU 容量同样需要被纳入核心规划。

定制芯片浪潮:IPU 成为新战场

在 CPU 和 GPU 之外," 基础设施处理单元(IPU)" 正在成为云厂商的新焦点。

IPU 专门接管网络流量路由、存储管理、安全加密等 " 后台任务 ",将主 CPU 从这些工作中解放出来,让更多算力留给用户负载。

谷歌与 Intel 扩大合作的核心内容之一,正是基于定制 ASIC 的 IPU 联合研发。谷歌的目标很明确:为自家云数据中心定制专属的 IPU,实现更高效的资源调度。

PART 04

写在最后

英特尔和谷歌共同宣布扩大多年期的战略合作,对于英特尔来说,在 AMD 紧逼、ARM 渗透的竞争格局下,获得谷歌这样级别的客户背书,无疑是一针强心剂。更重要的是,这份合作向行业释放了一个信号:在 AI 时代,CPU 不是要被替代的旧技术,而是整个基础设施的核心支柱。

当然,这轮价值重估的持续性还取决于几个关键变量。

第一,需求的持续性。 当前 CPU 需求主要由 AI 推理和智能体 AI 驱动。汇丰认为 AI 驱动的增长红利可能持续至 2028 年,但推理工作负载能否保持当前增速,将直接影响 CPU 市场的长期需求曲线。如果智能体 AI 的普及速度超出预期,CPU 需求的增长曲线可能会比当前预测更为陡峭;反之,如果 AI 推理成本的快速下降导致推理向终端设备迁移,数据中心侧的 CPU 需求增速也可能放缓。

第二,供应侧的反应速度。 英特尔正在调整产能分配,优先保障数据中心 CPU 供应,但新产能的释放需要时间。台积电先进制程的产能瓶颈短期内难以缓解,CPU 供应紧张的局面可能还会持续一段时间。

第三,竞争格局的演变。 AMD 能否在服务器 CPU 市场进一步扩大份额?ARM 阵营的渗透速度是否会超出预期?英特尔能否借助至强 6 系列扭转份额下滑的趋势?云厂商的自研趋势——谷歌、亚马逊、微软都在积极自研芯片,Counterpoint 预测到 2029 年 ARM 架构 CPU 在定制化 AI ASIC 服务器中的占比至少达 90% ——会不会削弱传统 CPU 厂商的市场空间?这些问题的答案将在未来一到两年内逐渐明朗。

从目前的观察来看,英特尔在核心数和制程上的追赶能否转化为市场份额的止跌,是未来两个季度最值得关注的指标。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 英特尔 基础设施 小龙虾 数据库
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论