热点科技 8小时前
新研发范式、新模型、超级大脑模组,大晓机器人这场发布会有猛料!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

12 月 18 日,大晓机器人在上海正式发布了行业首创的 ACE 具身研发范式、首个开源且商业应用的开悟世界模型 3.0(Kairos 3.0),以及让具身本体拥有自主空间智能的具身超级大脑模组 A1,为具身智能领域的发展注入了新的活力。

在当下,以往的人工标注、撰写数据集已经不足以满足 AI 指数级增长的需求,而 " 以机器为中心 " 的模式消耗了大量资源,却只能获得有限且僵化的 " 智能 " 成果。

因此,大晓机器人率先提出了 " 以人为中心 " 的新理念,并据此提出 ACE 具身研发范式。它的环境式数据采集能实现一年千万小时的数据收集,配合开悟世界模型 3.0 的放大作用,能将数据规模扩展到上亿小时的效果。

而作为 ACE 核心技术之一的环境式数据采集技术,它用到了大晓机器人第一 / 第三视角生活流数据集 EgoLife。它能通过洗碗、叠衣服等各种交互任务采集到深度、触觉、运动惯性等大量现实运动数据,为开悟 3.0 模型提供了海量数据支持。这套覆盖物品属性、人体姿态、交互轨迹等全要素的数据库,也被 Meta、特斯拉等科技巨头运用到世界模型开发中。

而大晓机器人又以采集的数据为基础,打造并发布了首个开源且商业化应用的世界模型——开悟世界模型 3.0(Kairos 3.0)。

它能够通过多维度信息理解世界、生成世界,并预测世界,为具身智能提供高保真、可泛化的虚拟训练环境。大晓机器人将其搭载在了开悟具身智能产品平台上,于今日正式开源发布,让更多人享受到这项成果。

此外,大晓机器人还同步发布具身超级大脑模组 A1。这颗智能大脑的适配性相当强,当前可以应用于各种四足机器人本体,并且拥有工业级防护能力,可以执行各种类型的复杂任务。

这颗超级大脑搭载首创纯视觉无图端到端 VLA 具身智能模型,能用自然语言交互的方式规划任务与执行。它拥有端到端自主导航功能,无需高精度定位和建图,它就可以根据需求自己选择合适的道路,摆脱了先对周围地图进行采集的依赖。

而且它还支持复杂场景自主避障,比如行人避让、施工场景绕行、窄路通行等功能,使具身智能从此有了 " 看环境、想路径、避障碍,换环境照样行 " 的新能力。

之所以能实现如此智能的行为,其搭载的通用视觉平台功不可没。它通过 Insta360 全景相机的强大画质与性能来采集高质量画面,再配合商汤方舟通用视觉平台,为安防、能源、交通、文旅等行业提供各类解决方案。

比如在安防领域,它可以识别违停车辆、走丢儿童,检测无人机黑飞、打架斗殴等行为,还能在巡检时发现未及时清理的建筑废料、未佩戴牵引绳遛狗等行为,及时拍照取证,甚至还可以语音宣讲,为城市管理提供强大帮助。它还能够不断扩展使用场景,为规模化商业落地创造可能。

此次发布会上展示的成果,离不开大晓机器人和具身厂商、硬件、芯片、云服务、数据厂商等多领域伙伴的合作。当前,具身智能产业进入加速落地的关键阶段,正是密切的合作共同推动了技术从单点突破走向场景化落地。希望行业内的玩家们能继续携手、齐头并进,早日推动中国成为全球具身智能第一大国。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

机器人 开源 上海 商汤 科技巨头
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论