驱动之家 13小时前
马斯克称xAI正在同时训练7个大模型:10万亿参数AI要来了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 4 月 8 日消息,尽管 xAI 的 11 位联合创始人已经跑路,但这并没有影响马斯克的决心,现在他还透露了 xAI 野心勃勃的计划,正在同时训练 7 个 AI 大模型。

马斯克在 X 上确认 SpaceXAI 的超级计算集群 Colossus 2 目前正同时训练 7 个模型,具体如下 :

1. Imagine V2,图像与视频生成模型的下一代版本

2. 1 万亿参数模型 2 个变体

3. 1.5 万亿参数模型 2 个变体

4. 6 万亿参数模型

5. 10 万亿参数模型

这 7 个大模型具体会成为那些产品还不确定,在当前的 AI 领域,万亿参数已经没多少吸引力了,最让人感兴趣的当属后面 2 个超大参数量的大模型。

其中 6 万亿参数的应该是 Grok 5,当前的是 Grok 4.2 版,每次发布时也是刷榜的存在,但实际使用下来,马斯克要想赶超御三家的 AI 能力还是需要加把劲的。

至于 10 万亿参数量的 AI 更不好确定是哪个,可能是再下一代的 Grok 6,也可能是全新的产品。

目前 10 万亿参数量的 AI 全球也没几个,Anthrpoic 刚刚发布的 Mythos 据说是 10 万亿参数量,但官方并没有确认具体的技术规格,只能说从 Mythos 的性能表现来看,10 万亿参数量的 AI 强大太多了。

马斯克能有底气同时搞 7 个大模型,说到底还是有强大的算力支撑—— Colossus 2 是今年 1 月 17 日才部署的算力集群,号称全球首个 GW 级 AI 集群,配备了 20 万块高性能 GPU,按照 NVIDIA 黄仁勋的说法,1GW 的算力差不多要 500 亿美元的投资,可以说非常奢侈了。

Colossus 2 本月底还会进行升级,算力会提升到 1.5GW,训练 10 万亿参数量的 AI 这下更方便了。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

马斯克 ai 黄仁勋 创始人 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论