介绍谷歌的安全人工智能框架
人工智能(尤其是生成式人工智能)的潜力是巨大的。然而,在追求这些创新前沿的进步时,需要有明确的行业安全标准,以负责任的方式构建和部署这项技术。这就是为什么今天我们很高兴地介绍安全人工智能框架(SAIF),这是一个安全人工智能系统的概念框架。
- 要获取 SAIF 的总结,请单击此 PDF。
- 要获取实践者如何实施 SAIF 的示例,请单击此 PDF。
为什么我们现在介绍 SAIF
SAIF 受到了我们在软件开发中应用的安全最佳实践的启发,例如审查、测试和控制供应链,并结合了我们对人工智能系统特定的安全趋势和风险的理解。
跨公共和私人部门的框架对于确保负责任的行为者保护支持人工智能发展的技术至关重要,因此当实施人工智能模型时,它们是默认安全的。今天标志着一个重要的第一步。
多年来,在 Google,我们采取了开放和协作的方法来进行网络安全。这包括将前线情报、专业知识和创新与承诺共享威胁信息的人结合起来,以帮助应对和预防网络攻击。在此基础上,SAIF 的设计旨在帮助缓解特定于人工智能系统的风险,例如窃取模型、污染训练数据、通过提示注入注入恶意输入以及从训练数据中提取机密信息。随着人工智能能力越来越多地集成到世界各地的产品中,遵守大胆且负责任的框架将变得更加关键。
有了这些,让我们来看一下 SAIF 及其六个核心要素:
1. 将强大的安全基础扩展到人工智能生态系统
这包括利用过去两十年构建的默认安全基础设施保护和专业知识来保护人工智能系统、应用程序和用户。同时,建立组织专业知识,跟上人工智能的进步并开始在人工智能和不断演变的威胁模型的背景下扩展和适应基础设施保护。例如,注入技术(如 SQL 注入)已经存在一段时间了,组织可以适应一些缓解措施,例如输入消毒和限制,以帮助更好地防御提示注入式攻击。
2. 扩展检测和响应,将人工智能纳入组织的威胁范围
在检测和响应与人工智能相关的网络安全事件中,及时性至关重要,扩展威胁情报和其他功能可以提高效率。对于组织来说,这包括监视生成式人工智能系统的输入和输出以检测异常,并使用威胁情报来预测攻击。这种努力通常需要与信任和安全、威胁情报和反滥用团队合作。
3. 自动化防御,跟上现有和新的威胁
最新的人工智能创新可以提高安全事件响应的规模和速度。对手可能会使用人工智能来扩大其影响,因此重要的是利用人工智能及其当前和新兴的能力来保持敏捷和成本效益,以便保护自己免受攻击。
4. 协调平台级控制,确保组织内部的一致安全性
控制框架的一致性可以支持人工智能风险缓解,以及跨不同平台和工具扩展保护,以确保所有人工智能应用程序都具备最佳保护措施并具备可扩展和经济效益。在 Google,这包括将默认安全保护扩展到 Vertex AI 和 Security AI Workbench 等人工智能平台,并将控制和保护纳入软件开发生命周期。可以帮助整个组织受益于最先进的保护措施的功能,例如 Perspective API。
5. 调整控制以适应缓解措施并为人工智能部署创建更快的反馈循环
通过持续学习不断测试实现,可以确保检测和保护能力应对不断变化的威胁环境。这包括基于事件和用户反馈的强化学习技术,并涉及更新训练数据集、微调模型以对抗攻击并允许用于构建模型的软件将进一步的安全性嵌入到上下文中(例如检测异常行为)。组织还可以定期进行红队演习,以提高基于人工智能的产品和能力的安全保障。
6. 将人工智能系统风险置于周围业务流程的上下文中
最后,对组织如何部署人工智能进行端到端风险评估可以帮助做出决策。这包括评估端到端业务风险,例如数据谱系、验证和特定类型应用的操作行为监控。此外,组织应构建自动化检查以验证人工智能的性能。
为什么我们支持为每个人打造安全的人工智能社区
我们长期以来一直倡导并经常开发行业框架,以提高安全标准并降低总体风险。我们与他人合作推出了软件工件供应链级别(SLSA)框架,以提高软件供应链完整性,并且我们在我们的BeyondCorp访问模型的开创性工作中领先于零信任原则,这已成为业界标准。我们从这些和其他努力中学到的是,要长期成功,必须建立一个社区来支持和推进工作。这就是为什么我们很高兴宣布我们为每个人打造SAIF社区的第一步。
谷歌如何将SAIF付诸实践
我们已经采取了五个步骤来支持和推进适用于所有人的框架。
- 通过在未来几个月内宣布关键合作伙伴和贡献者以及持续行业参与来促进SAIF的行业支持,以帮助开发NIST人工智能风险管理框架和ISO/IEC 42001人工智能管理系统标准(行业第一人工智能认证标准)。这些标准严重依赖于NIST网络安全框架和ISO/IEC 27001安全管理系统中的安全原则,谷歌将参与其中以确保计划中的更新适用于新兴技术,例如人工智能,并与SAIF元素保持一致。
- 直接与组织,包括客户和政府机构合作,帮助他们了解如何评估人工智能安全风险并加以缓解。这包括与从业人员进行研讨会,并继续发布部署安全人工智能系统的最佳实践。
- 共享谷歌领先的威胁情报团队的见解,例如Mandiant和TAG在涉及人工智能系统的网络活动方面的使用。要了解更多关于谷歌从业人员如何利用生成式人工智能更快地识别威胁、消除繁琐,以及更好地解决安全人才缺口的方法,请参见此处。
- 扩大我们的漏洞猎人计划(包括我们的漏洞奖励计划),以奖励和激励围绕AI安全进行研究。
- 继续提供安全的人工智能产品,与GitLab和Cohesity等合作伙伴,并进一步开发新的能力来帮助客户构建安全系统。这包括我们对开源社区的承诺,我们将很快发布几个开源工具,以帮助将SAIF元素付诸实践,以确保人工智能安全。
在推进SAIF的同时,我们将继续分享研究并探索有助于以安全的方式利用人工智能的方法。我们致力于与政府、行业和学术界合作,分享见解,实现共同目标,以确保这项具有深远帮助的技术适用于每个人,并使我们作为一个社会做到正确。