IT之家 02-05
加州拟出新规:AI 公司必须定期提醒儿童聊天机器人不是人类
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

IT 之家 2 月 5 日消息,美国加利福尼亚州提出了一项新法案(SB 243),该法案要求人工智能(AI)公司定期提醒儿童,聊天机器人是 AI 而非人类。这项法案由加利福尼亚州参议员史蒂夫・帕迪拉提出,旨在保护儿童免受 AI" 容易使人上瘾、造成孤立和产生影响 " 等方面的危害。

IT 之家注意到,该法案除了限制公司使用 " 易使人上瘾的互动模式 " 外,还要求 AI 公司向州医疗保健服务部提交年度报告,详细说明平台检测到儿童产生自杀念头的次数,以及聊天机器人提及该话题的次数。此外,法案还要求公司告知用户,他们的聊天机器人可能并不适合某些儿童使用。

去年,一位家长对 Character.AI 提起了过失致死诉讼,指控该公司的定制 AI 聊天机器人 " 存在不合理的危险 ",原因是她的孩子在持续与该聊天机器人交流后自杀身亡。另一项诉讼则指责该公司向青少年发送 " 有害内容 "。随后,Character.AI 公司宣布正在研发家长控制功能,并为青少年用户开发了一种新的 AI 模型,以屏蔽 " 敏感或具有暗示性 " 的输出内容。

参议员帕迪拉在新闻发布会上表示:"我们的孩子不是科技公司以他们的心理健康为代价进行实验的小白鼠。我们需要为聊天机器人用户提供常识性的保护措施,防止开发者采用那些他们明知会使人上瘾和具有掠夺性的策略。"

随着美国各州和联邦政府加大对社交媒体平台安全的监管力度,AI 聊天机器人可能很快会成为立法者的下一个监管目标。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

聊天机器人 ai 美国 it之家 心理健康
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论