快科技 3 月 31 日消息,近日,DeepMind 创始人德米斯・哈萨比斯坦言,其研发的超级人工智能存在灭绝人类的风险,而当前 AI 发展竞赛已进入无法停止的状态,人类难以通过外部治理手段有效管控。
他彻底放弃此前依赖制度、伦理委员会约束 AI 的构想,承认治理结构在关键决策中难以发挥作用,只能依靠自身争取话语权来把控 AI 安全走向。
哈萨比斯一直是 AI 安全的坚定倡导者,早年曾设想通过独立监督、秘密研发等方式打造绝对安全的超级智能。

2014 年将 DeepMind 出售给谷歌时,还明确要求保留 AI 安全独立决策权、设立外部监督委员会并禁止军事应用。
但这些安全构想接连落空,马斯克参与相关集会后转而创立 OpenAI,打破了单一主体管控 AI 的设想,后续与谷歌的治理权谈判也以失败告终。
2022 年 ChatGPT 的出现,彻底打乱了 AI 研发节奏,谷歌陷入竞争焦虑,DeepMind 与谷歌大脑合并,安全规范让位于研发速度,此前的安全防线逐步失效。
哈萨比斯由此认清现实,在商业竞争与技术竞赛压力下,依附于商业巨头的非营利治理机制难以存续。
如今哈萨比斯转变思路,核心主张是让自己占据核心决策位置,凭借对 AI 风险的敬畏之心,在关键节点把控技术方向。
他一边推进 Gemini 等模型研发,一边坚守安全底线,试图以个人影响力降低 AI 失控风险。
业内分析认为,这一转变折射出全球 AI 竞赛的残酷现状,统一治理难以实现,AI 安全窗口持续收窄,人类正面临关乎文明存续的巨大挑战。



登录后才可以发布评论哦
打开小程序可以发布评论哦