Google AI 推出了一种新的安全 AI 框架(SAIF):确保 AI 系统安全的概念框架

谷歌推出了安全人工智能框架(SAIF),这是一个概念性框架,为建立和部署人工智能系统的安全标准建立了明确的行业标准。SAIF汲取了软件开发中的安全最佳实践,并融入了对人工智能系统特定安全风险的理解。

引入SAIF是确保实施人工智能技术默认安全的重要一步。随着人工智能的巨大潜力,负责任的行为者需要保护支持人工智能进步的技术。SAIF解决了模型盗窃、数据污染、恶意输入注入以及从训练数据中提取机密信息等风险。随着人工智能能力越来越多地整合到全球产品中,遵循像SAIF这样敏捷的框架变得更加关键。

SAIF由六个核心元素组成,提供了一种全面的安全人工智能系统方法:

1. 将强大的安全基础扩展到人工智能生态系统:这涉及利用现有的默认安全基础设施保护和专业知识来保护人工智能系统、应用程序和用户。组织还应该开发能够跟上人工智能进步并相应调整基础设施保护的专业知识。

2. 扩展检测和响应以将人工智能引入组织的威胁宇宙:及时检测和响应与人工智能相关的网络事件至关重要。组织应该监视生成式人工智能系统的输入和输出以检测异常,并利用威胁情报预测攻击。与信任和安全、威胁情报和反滥用团队的合作可以增强威胁情报能力。

3. 自动化防御以跟上现有和新的威胁:最新的人工智能创新可以提高安全事件响应的规模和速度。对手很可能使用人工智能来扩大其影响,因此利用人工智能及其新兴能力对抗攻击至关重要。

4. 协调平台级控件以确保组织内的一致安全性:控件框架的一致性支持人工智能风险缓解,并在不同平台和工具上实现可扩展的保护。谷歌将默认安全保护扩展到人工智能平台,如Vertex AI和Security AI Workbench,将控件和保护集成到软件开发生命周期中。

5. 调整控件以调整缓解措施并为人工智能部署创建更快的反馈循环:不断测试和持续学习确保检测和保护能力与不断变化的威胁环境相适应。基于事件和用户反馈的强化学习等技术可以微调模型并提高安全性。定期的红队演习和安全保障措施可以增强基于人工智能的产品和能力的安全性。

6. 在周围业务流程中将人工智能系统风险置于上下文中:进行端到端风险评估有助于组织在部署人工智能时做出明智的决策。评估端到端业务风险,包括数据谱系、验证和操作行为监控,非常重要。应该实施自动化检查以验证人工智能性能。

谷歌强调建立安全人工智能社区的重要性,并采取措施促进对SAIF的行业支持。这包括与主要贡献者合作,与NIST和ISO/IEC等行业标准组织进行合作。谷歌还直接与组织合作,开展研讨会,分享来自其威胁情报团队的见解,并扩大漏洞猎手计划以激励对人工智能安全性进行研究。

随着SAIF的推进,谷歌致力于共享研究和见解,以安全地利用人工智能。与政府、行业和学术界的合作对于实现共同目标并确保人工智能技术造福社会至关重要。通过遵循像SAIF这样的框架,行业可以负责地构建和部署人工智能系统,释放这种变革性技术的全部潜力。