驱动之家 昨天
GLM-5大模型官宣支持7大国产芯片平台:华为、寒武纪、摩尔线程等在列
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 2 月 22 日消息,春节期间国产 AI 大模型轮番登场,除了 DeepSeek V4 还在低调之外,几家热门模型都来了,其中智谱的 GLM-5 是其中热度最高的之一。

从智谱官网介绍来看,GLM-5 重点就是提升编程与智能体能力,其参数量达到了 7440 亿,是上代 GLM-4.X 的 2 倍左右,性能提升很明显。

此前有海外的 AI 博主测试其代理编程能力世界第一,综合编程能力世界第三,仅次于 Opus 4.6 及 Gemini 3 Pro,但超越了 Opus 4.5。

发布之后由于太受欢迎,导致 GLM-5 需求暴涨,甚至导致算力不够,用户体验下滑,为此智谱还发布了道歉信,并给出了补偿方案,其能力表现可见一斑。

今天智谱还发布了 GLM-5 大模型的技术报告,特别提到了性能提升主要来自于四大技术创新,具体如下:

1、引入 DSA 稀疏注意力机制(DeepSeek Sparse Attention, DSA),极大降低了训练与推理成本。

此前的 GLM-4.5 依赖标准 MoE 架构提升效率,而 DSA 机制则使 GLM-5 能够根据 Token 的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。

得益于此,智谱将模型参数规模扩展至 744B,同时将训练 Token 规模提升至 28.5T。

2、构建全新的异步 RL 基础设施

基于 GLM-4.5 时期 slime 框架 " 训练与推理解耦 " 的设计,智谱的新基建进一步实现了 " 生成与训练 " 的深度解耦,将 GPU 利用率推向极致。系统支持模型开展大规模的智能体(Agent)轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让 RL 后训练流程的效率实现了质的飞跃。

3、提出全新的异步 Agent RL 算法

该算法旨在全面提升模型的自主决策质量。GLM-4.5 曾依靠迭代自蒸馏和结果监督来训练 Agent;而在 GLM-5 中,研发的异步算法使模型能够从多样化的长周期交互中持续学习。

这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是 GLM-5 能够在真实编程场景中表现卓越的底层逻辑。

4、全面拥抱国产算力生态

从模型发布伊始,GLM-5 就原生适配了中国 GPU 生态。智谱已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。

据介绍,GLM-5 在单台国产算力节点上的性能表现,已足可媲美由两台国际主流 GPU 组成的计算集群,不仅如此,在长序列处理场景下,其部署成本更是大幅降低了 50%。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

编程 华为 摩尔 芯片 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论