美国、英国和全球合作伙伴发布安全人工智能系统开发指南

英国和美国以及其他 16 个国家的国际合作伙伴发布了安全人工智能 (AI) 系统开发的新指南。

美国网络安全和基础设施安全局 (CISA)表示:“该方法优先考虑客户对安全结果的所有权,拥抱彻底的透明度和问责制,并建立以安全设计为重中之重的组织结构。”

国家网络安全中心(NCSC)补充,其目标是提高人工智能的网络安全水平,并帮助确保以安全的方式设计、开发和部署该技术。

该指南还建立在美国政府为管理人工智能带来的风险所做的持续 努力的基础上,确保新工具在公开发布之前经过充分测试,制定适当的防护措施来解决社会危害,例如偏见和歧视以及隐私问题,以及为消费者建立可靠的方法来识别人工智能生成的材料。

这些承诺还要求公司致力于通过错误赏金系统促进第三方发现和报告其人工智能系统中的漏洞,以便能够迅速找到并修复这些漏洞。

NCSC 表示,最新指南“帮助开发人员确保网络安全既是人工智能系统安全的重要先决条件,也是从一开始和整个开发过程中不可或缺的一部分,即所谓的‘设计安全’方法。”

这包括安全设计、安全开发、安全部署以及安全运维,涵盖人工智能系统开发生命周期中的所有重要领域,要求组织对其系统的威胁进行建模并保护其供应链和基础设施。

这些机构指出,其目的还在于打击针对人工智能和机器学习(ML)系统的对抗性攻击,这些攻击旨在以各种方式引起意外行为,包括影响模型的分类、允许用户执行未经授权的操作以及提取敏感信息。

NCSC 指出:“实现这些效果的方法有很多,例如大型语言模型 (LLM) 领域的提示注入攻击,或故意破坏训练数据或用户反馈(称为‘数据中毒’)。”

谷歌翻译U.S., U.K., and Global Partners Release Secure AI System Development Guidelines