钛媒体快报 03-24
蚂蚁自研2900亿大模型用国产AI芯片训练,计算成本508万元低于DeepSeek
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

钛媒体 App 3 月 24 日消息,钛媒体 AGI 获悉,近日,蚂蚁集团 CTO、平台技术事业群总裁何征宇带领 Ling Team 团队,利用 AI Infra 技术,开发了两个百灵系列开源 MoE 模型 Ling-Lite 和 Ling-Plus,前者参数规模 168 亿,Plus 基座模型参数规模高达 2900 亿,相比之下,AI 行业估计 GPT-4.5 参数量 1.8 万亿,DeepSeek-R1 参数规模达 6710 亿。同时,论文显示,蚂蚁团队在模型预训练阶段使用较低规格的硬件系统,将计算成本降低约 20%,达 508 万元人民币,最终实现与阿里通义 Qwen2.5-72B-Instruct 和 DeepSeek-V2.5-1210-Chat 相当的性能。目前,相关技术成果论文发表在预印版 Arxiv 平台上。

据相关报道,该模型在训练阶段使用的是国产 AI/GPGPU 芯片产品,并非完全使用英伟达芯片,但最终得到的结果与英伟达芯片(如 H800)的结果相似。这是蚂蚁集团首次详细披露其在 AI 算力层面的进展,第一次揭秘了自身如何以远低于 DeepSeek、OpenAI 等强大模型所需的计算成本,完成 AI 大模型技术的训练并将其开源,从而加入了中美 AI 科技竞争热潮中。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 芯片 钛媒体 英伟达 蚂蚁集团
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论