This is the Trace Id: d93a4154cf02024424f02a0e366d00f8
跳转至主内容
Microsoft 安全

什么是 AI 安全性?

了解 AI 安全的基础知识,以及如何保护 AI 系统免受潜在威胁和漏洞的影响。

AI 安全概述


AI 安全是网络安全的一个分支,专门针对 AI 系统。它是指保护 AI 系统免受威胁和漏洞影响的一组流程、最佳做法和技术解决方案。 

关键要点

  • AI 安全保护 AI 数据,维护系统完整性,并确保 AI 服务的可用性。
  • AI 系统面临的常见威胁包括数据投毒、模型反转攻击和对抗性攻击。
  • AI 安全的最佳做法包括加密数据、强大的测试、严格的访问控制和持续监控。
  • 新式 AI 安全工具、解决方案和框架可帮助保护 AI 系统免受不断演变的威胁。 

什么是 AI 安全?

AI 以前所未有的速度为世界带来了令人难以置信的创新。遗憾的是,网络犯罪分子也像世界其他地方一样迅速掌握了人工智能技术,这就带来了新的安全漏洞、威胁和挑战。

AI 安全或人工智能安全,是指旨在保护 AI 系统免受这些威胁的措施和做法。正如传统 IT 系统需要防范黑客攻击、病毒和未经授权的访问一样,AI 系统需要自己的安全措施来确保它们保持正常运行、可靠且受保护。

AI 安全性非常重要,原因有多种,包括:
 
  • 保护敏感数据。AI 系统处理大量敏感数据,包括金融、医疗、个人和财务信息。 
  • 维护系统完整性。AI 系统中未经检查的漏洞可能会导致模型受损,进而产生不准确或有害的结果。
  • 保障人工智能服务的可用性。与任何其他服务一样,AI 系统必须保持可用性和可操作性,尤其是当越来越多的人和组织开始依赖这些系统时。安全漏洞往往会导致停机,从而中断基本服务。 
  • 问责制。如果要在全球范围内采用 AI,人员和组织需要相信 AI 系统安全可靠。

AI 安全的关键概念

  • 机密性:确保只有经过授权的个人或系统才能访问敏感数据。 
  • 完整性:保持 AI 系统的准确性和一致性。
  • 可用性:确保 AI 系统保持运行和可访问性。 

  • 问责制:跟踪 AI 系统执行操作能力。
 

AI 安全与面向网络安全的 AI

重要的是要区分两个相关但不同的概念:AI 安全和 面向网络安全的 AI。

AI 安全侧重于保护 AI 系统本身。AI 安全包括旨在保护 AI 模型、数据和算法免受威胁的策略、工具和做法。这包括确保 AI 系统按预期运行,并且攻击者无法利用漏洞来作输出或窃取敏感信息。

另一方面,用于网络安全的 AI 是指使用 AI 工具和模型来提高组织检测、响应和缓解所有技术系统威胁的能力。它可帮助企业分析海量事件数据,并找出表明潜在威胁的模式。用于网络安全的 AI 可以跨多个源分析和关联事件和网络威胁数据。

总而言之,AI 安全是保护 AI 系统,而 AI 网络安全是指使用 AI 系统来增强组织的整体安全状况。
AI 面临的威胁

常见 AI 安全威胁

随着 AI 系统越来越广泛地被公司和个人使用,它们成为网络攻击越来越有吸引力的目标。

AI 系统的安全面临几大威胁: 

数据投毒

攻击者将恶意或误导性数据注入 AI 系统的训练集时,会发生数据投毒。由于 AI 模型的好坏取决于其训练所依据的数据,因此破坏这些数据会导致不准确或有害的输出。 

模型反转攻击

在模型反转攻击中,攻击者利用 AI 模型的预测来反向设计模型所训练的敏感信息。这可能会导致公开非公开访问的机密数据,例如个人信息。这些攻击会带来重大风险,尤其是在处理处理敏感信息的 AI 模型时。

对抗性攻击

对抗性攻击涉及创建欺骗性输入,诱使 AI 模型做出错误的预测或分类。在这些攻击中,看似无害的输入(如更改的图像或音频片段)会导致 AI 模型出现不可预测的行为。在一个真实世界的例子中,研究人员演示了对图像进行细微改动是如何骗过面部识别系统,使其误认为是人的。

隐私问题 

AI 系统通常依赖于大型数据集,其中许多数据集包含个人或敏感信息。确保数据被用于 AI 训练的个人隐私是人工智能安全的一个重要方面。如果数据处理不当、存储或使用方式违反了用户同意,可能会发生隐私泄露。

 仓促部署 

公司往往面临着快速创新的巨大压力,这可能导致测试不足、部署仓促和安全审查不充分。开发速度的加快有时会导致关键漏洞得不到解决,从而在 AI 系统投入运行后产生安全风险。

供应链漏洞 

AI 供应链是一个复杂的生态系统,存在潜在的漏洞,可能危及人工智能系统的完整性和安全性。第三方库或模型中的漏洞有时会使 AI 系统受到利用。 

AI 错误配置

开发和部署 AI 应用程序时,错误配置可能会使组织面临直接风险,例如无法为 AI 资源实施标识管理,以及间接风险,例如 Internet 公开的虚拟机中的漏洞,这些漏洞可能允许攻击者获取对 AI 资源的访问权限。 

 提示注入 

 在提示注入攻击中,黑客将恶意输入伪装成合法提示,导致 AI 系统执行意外作。攻击者通过精心设计欺骗性提示,诱使人工智能模型生成包含机密信息的输出结果。 

保护 AI 系统的最佳做法

确保 AI 系统的安全性需要一种全面的方法来解决技术和运营难题。下面是一些保护 AI 系统的最佳做法:

数据安全

为了确保用于训练 AI 模型的数据的完整性和保密性,组织应实施可靠的 数据安全 措施,其中包括: 

  • 加密敏感数据以帮助防止未经授权访问 AI 训练数据集。
  • 验证数据源:请务必确保用于训练的数据来自受信任且可验证的源,从而降低数据危害的风险。
  • 定期清理数据以删除任何恶意或不需要的元素有助于缓解 AI 安全风险。

模型安全

保护 AI 模型免受攻击与保护数据同样重要。确保模型安全性的关键技术包括:

  • 定期测试 AI 模型,找出潜在的对抗性攻击漏洞,对于维护安全至关重要。
  • 使用差异隐私来帮助防止攻击者从 AI 模型中反向工程敏感信息。
  • 实现攻击性训练,该训练针对模拟攻击的算法训练 AI 模型,以帮助他们更快地识别实际攻击。 

访问控制

实施强 访问控制 机制可确保只有经过授权的个人才能与 AI 系统交互或修改 AI 系统。组织应: 

  • 使用基于角色的访问控制基于用户角色限制对 AI 系统的访问。
  • 实现多重身份验证,为访问 AI 模型和数据提供额外的安全层。
  • 监视和记录所有访问尝试,确保快速检测和缓解未经授权的访问。

定期审核和监视

持续监视和审核 AI 系统对于检测和响应潜在安全威胁至关重要。组织应: 

  • 定期审核 AI 系统,以发现系统性能中的漏洞或异常。 
  • 使用自动监视工具实时检测异常行为或访问模式。 
  • 定期更新 AI 模型,修补漏洞,提高抵御新威胁的能力。 

使用适当的工具增强 AI 安全

有多种工具和技术可帮助增强 AI 系统的安全性。其中包括安全框架、加密技术和专用 AI 安全工具。

安全框架

NIST AI 风险管理框架等框架为组织提供了管理和缓解与 AI 相关的风险的准则。这些框架提供了保护 AI 系统、识别潜在风险以及确保 AI 模型可靠性的最佳做法。

加密技术 

使用加密技术有助于保护数据和 AI 模型。通过对敏感数据进行加密,企业可以降低数据泄露的风险,并确保即使攻击者获取了数据,这些数据仍然无法使用。

AI 安全工具

开发了各种工具和平台来保护 AI 应用程序。这些工具可帮助组织检测漏洞、监视 AI 系统是否存在潜在攻击,以及强制实施安全协议。 

AI 安全解决方案

随着 AI 安全挑战的不断演变,组织必须始终积极主动地将其安全策略适应不断变化的威胁环境,确保 AI 系统的安全性和可靠性。关键策略包括采用全面的安全框架、投资加密技术和访问控制,以及随时了解新出现的威胁和新解决方案。

新式 AI 安全解决方案 保护和管理 AI,显著增强了组织对这些新威胁的保护。通过集成这些强大的 AI 安全解决方案,组织可以更好地保护其敏感数据、维护法规合规性,并帮助确保 AI 环境的复原能力免受将来的威胁。

常见问题解答

  • AI 安全有助于防范的一些主要安全风险包括数据泄露、模型操纵、对抗性攻击,以及出于网络钓鱼等恶意目的滥用人工智能。
  • 保护 AI 涉及使用加密、定期测试、监视和人工监督保护 AI 数据、模型和系统免受网络攻击。
  • AI 安全侧重于保护 AI 系统本身。它包含旨在保护 AI 模型、数据和算法免受威胁的策略、工具和做法。用于网络安全的 AI 是指使用 AI 工具和模型来提高组织检测、响应和缓解所有技术系统威胁的能力。

关注 Microsoft 安全