继此前谷歌方面发布安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署 AI 模型后,日前其还推出 SAIF 风险评估工具。据了解,这是一种交互式工具,可帮助人工智能开发者和组织评估其系统安全状况、风险,并实施更强大的安全防护。
目前,谷歌已经在其网站 SAIF.Google 上提供了 SAIF 风险评估工具,该工具以问卷的形式运行,用户通过该网站主页菜单栏进入 "Risk Self Assessment" 后即可体验。据官方介绍,SAIF 风险评估有助于将 SAIF 从概念框架转变为负责保护 AI 系统从业人员可操作的清单。
据悉,SAIF 风险评估工具在进行风险评估时,将从收集有关用户 AI 系统安全状况信息的问题开始。而这些问题则覆盖了多个方面,包括对模型和数据集的访问控制、防止攻击和对抗性输入、用于生成式人工智能的安全设计与编码框架、生成式人工智能驱动的代理,以及人工智能系统的训练、调整和评估。
在用户回答完相关问题后,SAIF 风险评估工具会立即生成一份报告,以指导用户确保 AI 系统的安全。具体而言,这一报告将重点显示 AI 系统面临的具体风险,例如数据中毒、提示注入和模型源篡改等,并根据用户的回答提出建议和缓解措施。此外值得一提的是,该工具可识别出各种不同的风险,并提供风险产生的原因和其他详细信息。此外,用户还可以通过交互式 SAIF 风险地图,了解在开发过程中如何引入、利用和缓解不同的安全风险。
为推动关键人工智能安全措施的采用,此前谷歌方面基于 SAIF 原则与行业合作伙伴组建了安全人工智能联盟(CoSAI)。据悉,谷歌最近已与 35 个行业合作伙伴启动三个工作流程,其中包括 AI 系统的软件供应链安全、为不断变化的网络安全格局做好准备,以及 AI 风险治理。此外,CoSAI 工作组将根据这些初始的重点领域创建 AI 安全解决方案。
对此谷歌方面表示,"SAIF 风险评估报告功能与 CoSAI 的人工智能风险治理工作流程特别契合,有助于在整个行业中创建更安全的人工智能生态系统 "。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦