继此前谷歌方面发布安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署AI模型后,日前其还推出SAIF风险评估工具。据了解,这是一种交互式工具,可帮助人工智能开发者和组织评估其系统安全状况、风险,并实施更强大的安全防护。
目前,谷歌已经在其网站SAIF.Google上提供了SAIF风险评估工具,该工具以问卷的形式运行,用户通过该网站主页菜单栏进入“Risk Self Assessment”后即可体验。据官方介绍,SAIF风险评估有助于将SAIF从概念框架转变为负责保护AI系统从业人员可操作的清单。
据悉,SAIF风险评估工具在进行风险评估时,将从收集有关用户AI系统安全状况信息的问题开始。而这些问题则覆盖了多个方面,包括对模型和数据集的访问控制、防止攻击和对抗性输入、用于生成式人工智能的安全设计与编码框架、生成式人工智能驱动的代理,以及人工智能系统的训练、调整和评估。
在用户回答完相关问题后,SAIF风险评估工具会立即生成一份报告,以指导用户确保AI系统的安全。具体而言,这一报告将重点显示AI系统面临的具体风险,例如数据中毒、提示注入和模型源篡改等,并根据用户的回答提出建议和缓解措施。此外值得一提的是,该工具可识别出各种不同的风险,并提供风险产生的原因和其他详细信息。此外,用户还可以通过交互式SAIF风险地图,了解在开发过程中如何引入、利用和缓解不同的安全风险。
为推动关键人工智能安全措施的采用,此前谷歌方面基于SAIF原则与行业合作伙伴组建了安全人工智能联盟(CoSAI)。据悉,谷歌最近已与35个行业合作伙伴启动三个工作流程,其中包括AI系统的软件供应链安全、为不断变化的网络安全格局做好准备,以及AI风险治理。此外,CoSAI工作组将根据这些初始的重点领域创建AI安全解决方案。
对此谷歌方面表示,“SAIF风险评估报告功能与CoSAI的人工智能风险治理工作流程特别契合,有助于在整个行业中创建更安全的人工智能生态系统”。
【本文图片来自网络】