三易生活 09-03
微软副总裁称,AI聊天机器人缺少“学会求助”能力
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

日前,微软副总裁 Vik Singh 在一次采访中表示,如今生成式 AI 真正缺少的能力是 " 学会求助 ",即当无法确认答案是否正确时,能够主动表达需要帮助。此外他还表示," 真正聪明的人 " 将会试图找到方法让聊天机器人在不知道正确答案时," 承认并寻求帮助 "。

据相关报道援引业内人士透露的消息称,微软的一些企业客户无法承受他们的 AI 系统出错,哪怕只是偶尔出错。Salesforce 首席执行官 Marc Benioff 也在近日透露,他看到许多客户对 Copilot 系统的误导性结果越来越感到沮丧。

事实上,近年来微软、谷歌,以及其他竞争对手一直在快速部署类似 ChatGPT 的生成式 AI 应用。尽管生成式 AI 的开发取得了相应进展,但它们仍然会出现 " 发明答案 "、AI 幻觉等情况。所谓 AI 幻觉,是指 AI 聊天机器人会用自行编造的虚假信息来回应用户的提问,虽然看似在陈述事实,但实际引用的内容却是 " 胡说八道 "。

谷歌首席执行官 Sundar Pichai 就曾对此表示,产生 " 幻觉 " 是大模型的 " 固有缺陷 ",并且尚无解决方案。

此前在 2023 年 6 月,OpenAI 方面曾在一篇研究论文中表示,其正在用一种新的奖励机制来训练大模型,即在训练中奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。该公司指出,这种方法被称为 " 过程监督 "、而不是 " 结果监督 ",它可能会提高 AI 的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的 " 思维链 "。

随后在今年 6 月有消息显示,微软方面也正在进行 " 治疗 "AI 幻觉方面的研究,以现有 AI 产品为基础,试图推出一系列工具来帮助解决这一问题。

具体而言,微软方面尝试通过添加额外的知识检索增强生成技术,例如将必应搜索的数据作为依据,通过必应的答案、索引和排名数据来帮助 Copilot 提供更准确的回复,同时提供引用信息让用户可自行查找和验证。例如通过设定极为复杂的文本检索任务,然后跟踪任务执行、并改进大模型的响应。

对此微软方面曾表示,尽管大模型非常擅长推理,但却并不应该成为答案的来源,正确可靠的数据才应作为来源,因此解决 AI 幻觉的第一步是向大模型提供最新、高质量且准确的数据。

【本文图片来自网络】

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

ai 微软 聊天机器人 准确 首席执行官
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论