半导体行业观察 10小时前
这条芯片赛道,彻底火了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

当前,全球 AI 芯片市场正在经历一场深刻的范式转移。

长期以来,GPU 一直被视为 AI 训练的默认选项。然而大概自 2025 年起,一场围绕 ASIC 的产业变革开始剧烈发酵。

ASIC,一个产业拐点的信号与数据

2026 年 Q1,谷歌 TPU 在其 AI 服务器出货占比飙升至 78%,远超 GPU 份额;OpenAI 宣布将在 2026 下半年至 2027 年部署博通定制 ASIC 构建 10 吉瓦算力集群,单算力成本降低约 35%。

这些信号背后,是 AI 算力重心的历史性迁移,从训练军备竞赛转向推理规模化落地。

与此同时,联发科副董事长蔡力行在法说会上明确将数据中心 ASIC 列为 " 公司最具想象空间的成长引擎 ",上调营收目标,显示其来自超大客户的订单正加速落地。

高通宣布杀入数据中心战局,凭借收购 AlphaWave 积累的 IP,拿下关键大客户,宣示向英伟达发起正面挑战的决心。

国内方面,芯原股份 ASIC 量产业务爆发式放量,翱捷科技(ASR)则首度将 ASIC 定制业务定位为 " 第二成长曲线 ",两大独立 IC 设计服务商均在业绩端兑现了高增长逻辑。

这些密集释放的信号,都指向同一个正在成型的事实:ASIC 产业正迎来 " 黄金时代 "。这不是某几家公司的战略选择,而是一场全局性的产业拐点。

德勤最新数据揭示了这一拐点:AI 推理负载占比从 2023 年的 1/3 飙升至 2026 年的 2/3,长期将进一步突破,市场规模是训练硬件的 2-3 倍。高盛更预测,2026 年 ASIC 占 AI 芯片比例升至 40%,2027 年突破 45%,几乎与 GPU 平分秋色。Counterpoint Research 则指出,AI ASIC 市场规模将从 2024 年 120 亿美元增至 2027 年 300 亿美元,年复合增长率高达 34%。

整体来看,2026 年 AI 加速器市场正处于一个关键的转折点——竞争已从单颗芯片的算力比拼,蔓延至互连、交换机、软件生态与系统架构的全方位对抗。

ASIC 起飞,为什么是现在?

如果要为 ASIC 的崛起寻找一个支点,答案或许藏在 AI 产业最底层的经济账里。

随着 AI 大模型优化大幅降低推理成本、AI 编程与 AI Agent 广泛进入工业生产环节,AI 推理在 2025 年下半年彻底爆发并成为行业共识。一个简单的物理事实逐渐变得不可回避:当模型部署规模推向亿级用户时,拿动辄数万美元的通用 GPU 去做高并发的即时推理,本质上是 " 杀鸡用牛刀 " ——不是做不到,而是结构性不划算。

这正是 ASIC 的机会。

随着 AI 算力需求从训练主导向推理主导结构迁移,定制化芯片的能效比和成本优势成为核心驱动力。在推理场景中,ASIC 芯片的延迟更低、能耗更省、单位成本更优,足以从根本上动摇 GPU 十余年建立的成本模型。

通用 GPU 在推理场景存在功耗与成本双瓶颈,尤其当 AI Agent 爆发导致 Token 消耗暴涨 10-100 倍时,这一矛盾愈发突出。ASIC 通过定制化架构,将晶体管资源全部投入特定计算,剔除冗余功能,实现 3-5 倍能效比提升、TCO 降低 40-60%,完美适配大规模推理场景。

举例来看,OpenAI 联合博通推出的定制推理芯片能效比达到了 6.8TOPS/W,而英伟达 GB200 的对应指标仅为 4.5 TOPS/W,差距一目了然。亚马逊新任 AI 基础设施负责人曾直言:" 如果我们能在自研芯片上构建模型,就能以纯 AI 模型提供商成本的一小部分来完成这些任务。"

更重要的是,本轮 ASIC 浪潮并非从零开始的无序爆发,而是建立在一条已成熟的 AI 工作负载共识之上。

据悉,Transformer 架构长期主导大模型世界,使得 ASIC 的专用性设计不再受困于 " 应用面过窄 " 的经典魔咒——任何针对 Transformer 高度优化的专用架构,都能在足够广阔的市场空间中兑现其成本与能效优势。

历史上 ASIC 因 " 投资大、风险高 " 而长期局限于小众场景,如今这一前提已经改变:当专用设计面对的是一片几百亿美元级别的可服务市场,且工作负载结构高度统一时,ASIC 便从 GPU 的低成本替代方案,真正升级为 AI 基础设施进化的必然选项。

与此同时,各大云服务商的集体转身,释放了最为关键的市场信号。

作为全球最大的算力采购群体,谷歌、AWS、微软、Meta 等几大 CSP 正在统一向自研或定制 ASIC 倾斜。TrendForce 预估,2026 年 CSP 和主权云的 AI 服务器需求将持续强劲,而 ASIC 服务器 44.6% 的出货增速将显著超越 GPU 服务器的 16.1%。

这绝非简单的 " 降本 " 思维——在 AI 基础设施成为核心战略资源的当下,掌握芯片的定义权,就意味着掌握了算力的定价权和供应链的自主权。用真金白银为 ASIC 投票,已经成为云厂商从被动采购走向主动定义的战略必选动作。

新旧势力交织,全球 ASIC 版图重构

在 AI 算力需求端爆发之外,ASIC 黄金时代的标志还在于——舞台上的玩家突然多了起来。

过去,ASIC 的叙事主要围绕博通与 Marvell 两家老牌玩家展开;如今,联发科、高通等手机芯片巨头,正在跨界进击改写 ASIC 的竞争格局。

联发科先下一城,豪赌 ASIC

联发科的转型故事,或许是这一轮 ASIC 浪潮中最具戏剧性的样本。

在手机市场触及增长天花板、2025 年毛利率降至四年来低点 47.5% 的背景下,联发科 CEO 蔡力行果断将数据中心 ASIC 锁定为公司最具想象空间的成长引擎。去年 7 月法说会上,他向市场预告首个 ASIC 项目将于当季设计定案,从 2026 年开始贡献营收;到了 2026 年 2 月,蔡力行已能用 " 非常 " 二字修饰对目标的信心—— 2026 年数据中心 ASIC 营收绝对突破 10 亿美元,2027 年上看数十亿美元。

这一目标的兑现速度,甚至超过了分析师们的预期。据公开报道,联发科成功拿下 Google 数据中心 ASIC 订单,正是其在这场豪赌中先下一城的核心战果。

蔡力行本人更给出了一个令人瞩目的判断:2028 年全球数据中心 ASIC 市场有望达到 700 亿美元规模,而联发科的目标不仅是此前预估的 10% 至 15% 的市场份额—— " 我们会争取更高。" 为支撑这一雄心,联发科已在高速 400G SerDes、CPO 共封装光学、3.5D 先进封装及客制化 HBM 等多个关键技术领域加大投资。

高盛的最新预测指出:2027 年联发科 AI ASIC 营收最高可达 123 亿美元,对应 10-15% 的市场份额;2028 年 AI 业务占比将超六成 ( 66% ) ,AI ASIC 营收规模有望达 480 亿美元。Counterpoint Research 则更乐观,预计 2028 年联发科将拿下 26% 的 AI ASIC 市场份额,出货量从 2026 年到 2028 年增长 10 倍,成为全球第二大供应商,仅次于博通。

可以说,联发科正在用一场从端到云的跨越,证明其在 5G 时代积累的 SoC 整合能力,同样能在数据中心领域打开广阔的想象空间。

高通:后发先至,直击推理核心

如果说联发科是稳扎稳打的先行者,那么高通就是气势汹汹的破局者。

2025 年,高通以 24 亿美元全资收购高速有线连接技术企业 AlphaWave Semi,并于 2026 年第一季度完成交割。这一动作的意图极为明确:借助 AlphaWave 积累的 IP 资产,补齐在高性能数据中心互联和定制芯片设计领域的关键能力缺口,为后续大规模切入云侧定制芯片市场铺路。

高通的打法堪称迅猛。

2026 年 4 月 30 日,高通 CEO 安蒙对外确认,公司正与一家领先的超大规模云服务商合作开发定制芯片,首批出货定于 12 月季度启动,聚焦 AI 推理场景优化。

更引人注目的是高通的 " 三路并进 " 策略:同步研发通用 CPU、专为 AI 推理打造的加速器和全定制 ASIC 芯片,三类产品构成一个完整的数据中心解决方案矩阵。据悉,2025 年 10 月高通发布面向数据中心推理的 AI200/AI250 双剑,AI200 预计 2026 年商用,AI250 计划 2027 年推出。2026 年 4 月,高通确认与头部超大规模云厂商合作的定制 ASIC 项目年内启动首批出货。

在苹果、三星等核心客户加速推进自研芯片、消费电子业务遭遇结构性压力的背景下,高通选择用这样的方式杀入一个预计市场规模达万亿美元级的全新战场。安蒙对此的表述简洁有力:" 我们可以说已经触底了。"

高通的差异化优势还在于端云协同的生态整合。其 ASIC 不仅能高效运行云端推理任务,还能与骁龙移动平台、物联网芯片实现无缝衔接,为客户提供从终端到云端的全栈 AI 解决方案。

博通与 Marvell:双巨头的王牌版图

在新势力高歌猛进的同时,传统双巨头也并未原地踏步。

在 ASIC 领域,博通早已是公认的霸主。

得益于客制化芯片、AI 网通产品业务成长,博通 2025 年营收上升至 397 亿美元,年增 30%。其财报表现显示 AI 半导体的价值重心已从 GPU 扩散到客制化 AI 芯片和以太网络器、NIC(网络接口控制器)等整体网络架构。

博通的收入结构正在发生根本性转变:在 2026 财年第一季度,博通 AI 相关收入已达到 84 亿美元,同比增长 106%,占其半导体收入比重持续攀升。

与此同时,博通 CEO 陈福阳在财报电话会上抛出了一个更加惊人的预测:到 2027 年,仅 AI 芯片(定制化 ASIC)的营收就将超过 1000 亿美元,总出货量接近 10 吉瓦。这一目标远超此前市场预期。

谷歌、Meta、OpenAI、Anthropic 等 LLM 平台级公司,正在纷纷构建自己的定制 XPU。博通透露,公司目前正与六家主要客户紧密合作,共同开发 AI 专用处理器。这些客户包括:

谷歌:TPU 芯片的重要合作伙伴,订单规模持续扩大

Meta:MTIA 系列芯片路线图进展顺利,2027 年交付量将达到数吉瓦

Anthropic:计划于 2027 年部署超过 3 吉瓦的 TPU 算力

OpenAI:宣布从 2027 年开始部署首代 XPU,首年计算能力超过 1 吉瓦

值得注意的是,博通与客户的合作不是短期交易,而是多代战略绑定,合作周期长达 2-4 年滚动规划。一名博通高管对此的表述颇具标志性:" 这些都是真实的客户需求,业务规模还会增长。"

另一边,Marvell 在 ASIC 领域的布局同样深远。

2019 年,Marvell 完成对 GlobalFoundries 旗下 ASIC 业务 Avera 的收购,为定制芯片业务奠定基础。随着 AI 算力需求增长,Marvell 的定制芯片(ASIC)业务已成为核心增长动力。

2026 年 3 月 31 日,英伟达宣布向 Marvell 投资 20 亿美元,双方通过 NVLink Fusion 技术建立战略合作伙伴关系,将 Marvell 接入英伟达的 AI Factory 和 AI-RAN 生态系统。Marvell 将提供定制 XPU 和 NVLink Fusion 兼容网络方案,共同开发下一代基础设施和硅光子技术。

2025 年 12 月 2 日,Marvell 宣布以约 32.5 亿美元收购光互连技术公司 Celestial AI,交易于 2026 年第一季度完成。Celestial AI 的 Photonic Fabric 技术能效是铜互连的 2 倍,可支持大规模 AI 系统的高带宽低延迟连接。Marvell 同时推出 1.6T 系列光学 DSP 产品,以及 2026 年 3 月扩展的 COLORZ 1600,为 AI 数据中心提供端到端光互联解决方案。

据财报披露,2026 财年 Marvell 总营收为 81.95 亿美元,同比增长 42%;其中包含 ASIC 在内的数据中心收入达到 61 亿美元,占总收入约 74%。而在 2024 财年时,数据中心收入占比还只有约 40%。这意味着,仅仅两年左右,Marvell 的业务结构已经完成了明显切换。

据了解,Marvell 最大的 ASIC 客户是亚马逊 AWS(为 Trainium 芯片贡献核心 IP);谷歌、微软、Meta 均已是确认合作伙伴:谷歌与 Marvell 联合开发 Axion Arm CPU,微软下一代 AI 加速器 Maia 由 Marvell 深度参与设计,Meta 在定制 AI XPU 方向展开合作。Marvell 声称已在超过 20 家客户处拿下 AI ASIC 设计订单。

与 Broadcom 的核心差异在于服务模式:Broadcom 提供与自身网络产品组合深度绑定的端到端方案,客户一旦导入便高度依赖其生态;Marvell 则提供更灵活的按需组合方案,更适合希望掌控自身架构的客户。

Marvell CEO Matt Murphy 表示:" 高速互联和光互连在 AI 规模化中日益重要。Marvell 将 ASIC 定制与高速互联技术结合,为客户提供高性能连接和 ASIC 解决方案,目标是将 AI 相关业务收入占比提升至 50% 以上,成为 AI 基础设施领域的关键参与者。"

值得注意的是,博通、Marvell 与 OpenAI、Meta 等公司的合作揭示出一个更深层的产业逻辑:对于顶级 AI 公司而言,自研 ASIC 的首要考量可能并非成本,而是供应链安全和架构自主权。" 掌握芯片定义权 " 便成为了一道清晰的战略分界线。

在这场博弈中,成本只是表面诱因,架构主权才是那个更深处的引力中心。

从 ASIC 阵容版图来看:其一,手机芯片厂商凭借深厚的 SoC 设计积淀完成从边缘到中心的跨域转型,联发科的故事是系统整合能力跨域复用,高通则是资本并购加顺势转型。两条路径殊途同归,都指向同一个结论—— ASIC 领域的玩家结构,正在迎来代际更替;其二,传统 ASIC 双巨头的护城河远比预想的更深更宽;其三,云厂商自身也从采购方加速走向自研方,正在彻底改写产业链的议价格局。

ASIC 浪潮中,中国力量崛起

更为耐人寻味的是,这场 ASIC 盛宴的参与者并非只有欧美巨头。在大陆半导体产业链内部,以芯原股份、翱捷科技(ASR)为代表的独立 IC 设计服务商,正在成为不可忽视的新一极。

芯原:AI ASIC 的 " 卖铲者 "

2025 年是芯原股份的质变之年。全年新签订单金额高达 59.60 亿元,同比翻倍增长 103.41%。其中,AI 算力相关订单的占比已超过 73%,数据处理领域订单占比超 50%,主要来自云侧 AI ASIC 及 IP。截至年末,芯原在手订单达到 50.75 亿元,已连续九个季度保持高位,预计一年内转化为营收的比例超 80%。

这些数字本身已足够耀眼,但在 2026 年 4 月,芯原股份发布的订单公告更是震惊业界:1-4 月新签订单 82.40 亿元,AI 算力相关订单占比 91.37%,更在短短 9 天内新增 37.24 亿元 AI ASIC 订单。Q1 财报显示,芯原营收 8.36 亿元,同比增长 114.47%,一站式芯片定制业务同比增长 145.90% 。

这些数据从商业层面有力验证了全球 AI ASIC 需求的持续井喷,也为芯原后续的业绩增长提供了清晰且可预期的订单支撑。

芯原的核心竞争力在于全栈 ASIC 服务能力。从 IP 授权到芯片设计、量产业务,芯原提供一站式解决方案,聚焦云侧 AI ASIC,客户涵盖全球头部云厂商,同时在 AI 眼镜、AI 玩具等端侧新兴场景积极布局。更有意思的是,芯原与谷歌合作的超低能耗 Coral NPU IP(基于 RISC-V 指令集),已经为端侧 AI 场景打开了专属 ASIC 的通道。

芯原 CEO 戴伟民在 2026 年 Q1 业绩说明会上表示:"AI ASIC 市场爆发,客户需求远超预期。芯原凭借 20 年 IP 积累和芯片设计经验,已成为全球云厂商和 AI 公司首选的 ASIC 定制合作伙伴。2026 年 AI 相关订单占比超 90%,标志着芯原成功转型为 AI 算力基础设施服务商 "。

能看到,芯原的角色,正在从单纯的 IP 供应商升维为端到端的 AI ASIC 平台型企业,在产业链中扮演着 " 赋能者 " 的枢纽角色。

翱捷科技:蜂窝基带巨头掘金第二增长曲线

作为通信芯片领域的资深玩家,翱捷科技 ( ASR ) 在 ASIC 赛道找到了第二增长曲线。

自 2024 年下半年起,智能穿戴、端侧 AI 及 RISC-V 芯片等方向的定制需求持续攀升,ASR 已承接多个采用先进工艺制程的定制项目,在手订单饱满。2025 年,ASR 营收增长 12.73% 至 38.17 亿元,亏损大幅收窄超 3 亿元。

2026 年 Q1,ASR 的 ASIC 定制业务收入 1.88 亿元,同比增长 73%,占总营收比例提升至 23%。为加速布局,ASR 成立 ASIC 业务全资子公司,将 20% 研发资源向定制业务倾斜,覆盖 AI 云侧、端侧、可穿戴及 RISC-V 等领域。

ASR 的差异化优势在于系统级 ASIC 解决方案能力。凭借基带 SoC 芯片领域多年技术积累,ASR 能提供从芯片设计到系统优化的全流程服务,利用成熟 IP 库和供应链渠道,帮助客户缩短开发周期、降低成本。

对比来看,芯原和翱捷两家公司有一个共同的特征是:并非依靠单一客户或单一项目押注,而是凭借系统化的 IP 组合和定制能力,嵌入到 AI 产业大生态中,扮演 " 卖铲者 " 的角色。

在 AI 淘金热的市场氛围中,卖铲子的人往往赚得最稳。芯原和翱捷正在 AI ASIC 的 " 卖铲者 " 和 " 赋能者 " 两种身份之间建立自己的黄金窗口,依托中国丰富的产业链资源和应用场景,在全球 AI 芯片竞争中争取更大的话语权。

从自用到外销,AI 产业链的底层重构

ASIC 黄金时代的深层特征,不仅在于增长了什么,更在于改变了什么。

其中,富有戏剧性的信号,出现在 2025 年末。据报道,谷歌正在与 Meta 洽谈向其直接销售自研 TPU 芯片。这笔数十亿美元规模的交易一旦落地,将标志着 TPU 从谷歌内部私家正式走向商业化外销—— Meta 计划 2026 年从谷歌云租用 TPU 算力,2027 年斥资直接采购硬件部署于自有数据中心。

在英伟达 GPU 长期保有超 90% 市场份额的背景下,这一合作的实质在于:云厂商正在用真金白银投票,构建 " 自研 + 外采 " 的开放算力供应链,以打破依赖单一供应商的路径锁定。

与此同时,以博通、Marvell、联发科等为代表的成熟 ASIC 设计服务生态,已经形成了高度专业化的分工闭环:CSP 定规格、芯片商做设计、台积电负责先进封装。这种精细化的代工体系,使得任何拥有足够算力需求的大型企业,无论是 OpenAI、苹果还是尚在筹划中的新兴玩家,都有可能成为下一颗自研 ASIC 的主人。

全球 AI 芯片市场,正从英伟达的一家独大,走向真正的百家争鸣。

这场变革的另一面,是产业链底层技术的全面协同升级。

AI 驱动下的 ASIC 井喷,对计算架构提出了更高阶的要求。台积电 CoWoS 先进封装的月产能预计将从 2025 年底的约 6.5 至 7 万片,大幅扩充至 2026 年底的 12 至 13 万片,即便这样仍然无法完全满足客户旺盛的需求。

与此同时,博通推出了业界首个 3.5D XDSiP 面对面计算 SoC 平台,支持在紧凑形态下实现计算、存储和 I/O 的独立扩展,以支持千兆瓦级 AI 算力集群的庞大需求。

这些底层技术的同步演进表明,ASIC 的崛起并非孤立发生,而是嵌入在从先进制程、先进封装到高速互连的全产业链进化之中—— AI 基础设施的竞争焦点,已从 " 拼单点算力 " 彻底转向比拼系统架构效率。

ASIC 挑战与博弈并存

光芒背后,任何趋势都有其清晰而冷峻的另一面,ASIC 自然也不例外。

有行业从业者向笔者表示:" 开发成本与流片风险,是悬在每一个 ASIC 玩家头顶的达摩克利斯之剑。" 一枚先进制程的 AI ASIC 芯片,从设计到流片动辄耗资数亿美元,一旦技术路径判断失误或需求节奏不及预期,数十亿美元的投资可能面临流产风险。

这从博通、Marvell 等公司的财报中可见,定制 ASIC 业务的前期重投入特性,确实对整体毛利率形成了一定的结构性拖累——这在短期内并非可忽略的压力。

软件生态的护城河,更是 ASIC 面对的最顽固壁垒。

众所周知,英伟达真正的护城河从来不止于硬件,而在于 CUDA 历经十余年打磨构建起来的庞大软件栈:数百万开发者、无数沉淀的库与框架、经年累月优化的算子生态。尽管 AWS 已宣布下一代 Trainium 将兼容英伟达的 NVLink 互连技术,试图通过切入主流生态来打薄这道壁垒,但 ASIC 生态要从零追赶至与 CUDA 匹敌的成熟度,道路尚远。

还有一个不容回避的结构性约束:全球 AI 芯片订单对台积电 CoWoS 先进封装的集中依赖。尽管台积电正在以前所未有的速度扩充产能,但在各大巨头同步抢单的背景下,排产的拥挤度风险依然显著。叠加地缘政治与供应链不确定性的影响,这不是一个可以被轻易忽略的变量。

此外,更深层的考验在于全定制与可编程灵活性之间的经典博弈。当 ASIC 出货量于 2028 年有望在实际数量上超越商用 GPU 时,考验的将不再是粗放的放量能力,而是如何平衡专用极致效率与通用弹性适配两个方向——前者是 ASIC 存在的理由,后者却是市场不愿放弃的优势。

对于目前的产业共识而言,或许并不存在完美解的答案,行业选择最终走向何方只能交给市场和时间去验证。

写在最后

站在 2026 年回望,一个更加立体的判断正在清晰:终局并非 ASIC 完全取代 GPU,而是两者在一个共存的新格局中找到各自不可替代的生态位。

综合多家机构预测,AI 加速器市场的竞争格局正在走向 " 训练靠 GPU、推理靠 ASIC" 的特化分工,或者在更大规模的 AI 集群中实现 ASIC 与 GPU 的混合组网。

还值得关注的是,多重关键变量还将决定 ASIC 叙事在 AI 时代能够走多远。

AI 工作负载的演变方向:Transformer 架构的延续性,直接关乎 ASIC 专用设计的回报天花板——架构的每一次剧变,都是 ASIC 投资逻辑的潜在裂隙;

云厂商的生态开放程度:谷歌向 Meta 外销 TPU 的信号极其重要,如果 CSP 自研芯片从对内降本全面走向对外输出,ASIC 将从一个成本故事升级为一个真正的市场故事;

系统架构的创新节奏:从芯片到机架、从算力到互连的全栈优化能力,正在取代单芯片 TOPS,成为产业竞争的新核心标尺。谁能在 CoWoS 产能、3.5D 封装和高速 SerDes 的综合矩阵中率先跑通最优解,谁就能锁定黄金时代下一程的领跑位置。

ASIC 的黄金时代,本质是一场关于 AI 算力 " 民主化 " 的运动。

无论是联发科的跨界进击、高通的绝地反击、博通和 Marvell 的纵深布局,还是芯原与翱捷的突围,各方力量共同绘制的正是这个多元共生时代的真实底色。

它让算力的定义权从单极集中的芯片巨头,开始回归到云厂商、设备商乃至千行百业的终端用户手中。它宣告的是一个旧生态的松动和一个新逻辑的登场:在用什么芯片这个问题上,产业终于有了更多选择的权利。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论