经济观察报 07-30
黄仁勋、扎克伯格“与子同袍”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

经济观察网 记者 钱玉娟 北京时间 7 月 30 日,在美国丹佛举行的 SiGGRAPH2024(2024 年国际计算机图形与交互技术顶会)上,美国科技公司 Meta 的 CEO 扎克伯格与芯片巨头英伟达 CEO 黄仁勋交流后,交换了外套。

扎克伯格为黄仁勋定制了一件黑色皮衣外套,黄仁勋则将对话前才穿上身的标志皮夹克脱下来送给了扎克伯格。

这不是两人第一次互换外套,今年 3 月,扎克伯格曾在社交媒体上分享了他与黄仁勋的合影,照片中的他们就互换了外套,微笑着站在一起。

扎克伯格此番参加 SiGGRAPH2024,是受黄仁勋邀请。此前一周,美国当地时间 7 月 23 日,Meta 发布了新版语言大模型 Llama3.1,分别有 8B(80 亿)、70B(700 亿)、405B(4050 亿)三个参数版本,其中 " 顶配 " 的性能被 Meta 称为可与 OpenAI 的 ChatGPT-4o、谷歌的 Gemini 1.5 Pro 以及亚马逊投资的 Anthropic 推出的 Claude3.5 Sonnet 等头部的闭源大模型媲美。

公开资料显示,Llama3.1 使用了超 16000 个英伟达的 H100 GPU 芯片进行训练。

就在这一开源大模型发布当天,英伟达也推出了 AI Foundry 服务器和 NIM 推理微服务,并宣布与 Meta 的 Llama3.1 一起服务支持全球企业的生成式 AI。

在两家企业的合作进一步深入之余,作为掌舵人的黄仁勋和扎克伯格也在 SiGGRAPH2024 上展开对话,他们共同讨论了开源大模型以及 AI 应用的未来发展方向等话题。

一直在海外投资人工智能等科技项目的陈沛分析,微软、谷歌、亚马逊这三家具有云计算业务的厂商,在购买大量英伟达 GPU 芯片的同时,都在积极推进云端算力和芯片自研,以降低对英伟达的依赖,这些大客户与英伟达是边合作边竞争的关系。相较而言,Meta 的自研算力进度要比上述几家慢很多。

陈沛看到,近期 Meta 公开释放消息称,要搭建更大规模的算力基础,要再购买 35 万个 H100。英伟达会与这一大客户保持紧密互动并不让人意外。

黄仁勋不仅对 Meta 的开源大模型策略予以称赞,他也同意扎克伯格所呼吁的大模型应开源化发展的路线," 就像我身上穿的皮衣,我不愿意自己去制作,而是希望有人为我制作,那么这些皮革材料就需要开源,大家都能来使用它 "。

在 Llama3.1 发布后,扎克伯格曾在社交媒体发文称,这一大模型有望成为采用开源 AI 的转折点。如今在与黄仁勋的对话中,他表示,开源 AI 模型技术将成为 AI 时代下打败闭源模型的重要动力。他梦想有一天,Facebook 或 Instagram 整个平台就像一个单一的 AI 模型,能将所有不同的内容类型和系统整合在一起。

对话中,扎克伯格还提及了苹果 iOS 生态系统对自家软件 Facebook 的限制,他指出 Llama 大模型正是打破封闭,基于开源技术的系统架构,制造不同的硬件设备,进而将生态系统打造成开放的水平,以迎接下一代计算竞赛。

为表明开源在推动 AI 发展中的重要性,扎克伯格还强调,要在未来 10 年或 15 年里,确保 Meta 能够建立开源 AI 的基础技术。

黄仁勋提到了 Meta 在计算机视觉、语言模型和实时翻译等多方面的进展,称 " 我们都在使用 Meta 开发的 PyTorch(Facebook2016 年发布的一个开源深度学习框架)"。

不过在 Meta 押注 VR(虚拟现实技术)应用,英伟达与之合作的同时,黄仁勋觉得 AI 下一波浪潮的应用方向会是机器人,尤其是人形机器人,并且正在推进整个英伟达机器人堆栈的发展,面向全球人形机器人开发者和公司开放访问。

英伟达还在 SiGGRAPH2024 上推出了包括用于机器人仿真和学习的 NIM 微服务和框架以及支持 AI 和仿真的远程操作工作流等一整套产品,目的便是为全球的机器人制造商、AI 模型开发者和软件制造商提供服务、模型和计算平台,让他们开发、训练和构建下一代人形机器人。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

扎克伯格 英伟达 黄仁勋 开源 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论