快科技 2 月 23 日消息,全球爆火、单日股价狂涨 42%、被称作 " 全球大模型第一股 " 的智谱日前发布 GLM-5 技术报告,公开了全部技术细节,正面回应 " 套壳 "" 蒸馏海外模型 " 等行业质疑。
智谱在报告中指出,GLM-5 是一款旨在推动编程范式从 "VibeCoding"(氛围编程)转向 "AgenticEngineering"(智能体工程)的下一代基础模型。

总体而言,GLM-5 能够实现性能的大幅跃升,主要得益于以下四大技术创新:
第一,引入 DSA 稀疏注意力机制(DeepSeek Sparse Attention,DSA)。这一全新架构极大降低了训练与推理成本。此前的 GLM-4.5 依赖标准 MoE 架构提升效率,而 DSA 机制则使 GLM-5 能够根据 Token 的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。得益于此,我们将模型参数规模成功扩展至 744B(7440 亿),同时将训练 Token 规模提升至 28.5T(28.5 万亿)。
第二,构建全新的异步 RL 基础设施。基于 GLM-4.5 时期 slime 框架 " 训练与推理解耦 " 的设计,我们的新基建进一步实现了 " 生成与训练 " 的深度解耦,将 GPU 利用率推向极致。该系统支持模型开展大规模的智能体(Agent)轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让 RL 后训练流程的效率实现了质的飞跃。
第三,提出全新的异步 AgentRL 算法。该算法旨在全面提升模型的自主决策质量。GLM-4.5 曾依靠迭代自蒸馏和结果监督来训练 Agent;而在 GLM-5 中,我们研发的异步算法使模型能够从多样化的长周期交互中持续学习。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是 GLM-5 能够在真实编程场景中表现卓越的底层逻辑。
第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5 就原生适配了中国 GPU 生态。我们已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。
智谱表示,硬件生态的异构性往往会让高性能部署变得异常复杂,因此,将 GLM-5 适配至多样化的国产芯片基础设施是一项巨大挑战。尽管困难重重,我们通过与华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦以及燧原等国内主流芯片平台的深度合作,成功完成了 GLM-5 的全栈适配。
得益于上述软硬协同的极致优化,GLM-5 在单台国产算力节点上的性能表现,已足可媲美由两台国际主流 GPU 组成的计算集群;不仅如此,在长序列处理场景下,其部署成本更是大幅降低了 50%。
在报告结尾,智谱还特别强调,代号为 "PonyAlpha" 的盲测实验是一个里程碑时刻。在 OpenRouter 平台上匿名发布 GLM-5 是一步险棋,但最终的反馈不仅印证了我们的技术判断,更带来了巨大的惊喜。
通过隐去所有品牌信息,智谱让模型完成了最严苛的 " 自我证明 ",确保所有的评价都纯粹且客观。核心反馈如下:
上线仅几天,PonyAlpha 就在 OpenRouter 社区引发了轰动。开发者们敏锐地察觉到了它在处理复杂代码、Agent 任务链路及角色扮演时的卓越能力。
这种 " 神秘的强大 " 引发了广泛猜测:初步统计显示,25% 的用户推测它是 Anthropic 的 ClaudeSonnet5,20% 认为是 Grok 的新版本,10% 猜是 DeepSeekV4,而其余用户则成功猜中了 GLM-5。
最终确认 PonyAlpha 真身即是 GLM-5,这对智谱团队是一次巨大的鼓舞,也有力回击了长期以来外界对中国本土模型技术水准的质疑。
智谱表示,PonyAlpha(GLM-5)不仅赢在了基准测试的榜单上,更赢在了真实场景里。这标志着我们的研发重心已深度转向 " 工程级可靠性 "。这次匿名测试打破了先入为主的地缘政治偏见,让社区的认可回归到了 " 好用与否 " 这一最纯粹的技术本质。
庆祝之余,我们深知任重道远。开源追赶闭源的战役仍在继续,我们将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。


延伸阅读:
2026 年春节前后,AI 圈最受关注的两颗 " 双子星 " 吸引了全行业目光。一颗是字节跳动发布的 Seedance2.0,它凭借出色的视频生成能力受到全球社交网络的广泛关注,代表了 AI 在感性与创意维度的重要突破;另一颗则是让很多开发者彻夜难免的智谱 GLM-5。Seedance2.0 让世界看到了中国 AI 亮眼的想象力,GLM-5 则在向世界展示中国 AI 扎实的执行力。
学界与业界正逐渐形成一种共识,大模型从写代码、写前端,进化到写工程、完成大任务,即 "VibeCoding"(氛围编程)转向 "AgenticEngineering"(智能体工程)。
GLM-5 正是这一变革的产物:在 Coding 与 Agent 能力上,取得开源 SOTA 表现,在真实编程场景的使用体感逼近 ClaudeOpus4.5,擅长复杂系统工程与长程 Agent 任务。
在全球权威的 ArtificialAnalysis 榜单中,GLM-5 位居全球第四、开源第一。
GLM-5 在编程能力上实现了对 ClaudeOpus4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 TerminalBench2.0 中分别获得 77.8 和 56.2 的开源模型 SOTA 分数,性能超过 Gemini3Pro。
2026 年,大模型需要从 " 会写 " 走到 " 会完成 ",尤其是端到端完成大型任务。GLM-5 是一个 " 系统架构师 ",它不仅为开发精美的 Demo 而生,更为稳定交付生产结果而生。
在内部 ClaudeCode 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7(平均增幅超过 20%),能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近 Opus4.5。


登录后才可以发布评论哦
打开小程序可以发布评论哦