AI 安全包括用于保障 AI 应用开发安全、管控员工 AI 使用以及保护 AI 驱动应用和模型的所有资源。
阅读本文后,您将能够:
复制文章链接
正如网络安全保护传统 IT 系统一样,人工智能(AI)安全保护整个 AI 生命周期——从构建模型、训练数据、开发接口到部署下游应用和运行推理。人工智能安全是指一系列技术、流程和实践,它们具有以下功能:
随着 AI 在个人和各种规模的组织中的应用激增,AI 安全已成为一项任务关键型挑战。根据麦肯锡的数据,企业组织的生成式 AI 使用率从 2023 年的 33% 猛增至 2024 年的 71%。其他信息来源显示,目前多达 78% 的组织报告在至少一种业务功能中使用 AI(包括生成式 AI)。
对于许多组织而言,AI 采用的快速增长已经大大超过了传统安全架构、治理、合规性策略和风险管理方案的承载能力。这种不匹配会造成危险的盲点。
AI 意味着更大、更复杂的 攻击面。AI 系统由多个互相关联的层组成——数据管道、模型训练、模型托管、协议、API、用户界面、插件、智能体——这些层都必须受到保护。
例如,AI 驱动的应用容易面临提示词注入、供应链漏洞和其他独特风险。客户支持机器人——如果受到操纵——可能会泄露敏感的员工数据或商业机密。攻击者可能会滥用模型,通过请求使模型过载,从而导致 AI 资源过度消耗或拒绝服务。因此,AI 安全本质上比传统的应用安全或数据保护控制更为复杂。
了解关键的 AI 安全风险和最佳实践,以及针对生成式和智能体式 AI 量身定制的安全方案,有助于您保障 AI 安全。
根据 2025 年的一项调查,85%的 IT 决策者表示,员工采用 AI 工具的速度超过了 IT 团队评估的速度。同一项调查发现,93%的员工在未经批准的情况下监管信息输入到 AI 工具中。
“影子 AI”(即员工在缺乏 IT 或安全部门监管的情况下采用 AI 模型及工具的行为)已成为组织面临的一个严重问题。如果没有对员工所用工具的全面了解,诸如专有代码或个人可识别信息(PII)的敏感公司数据可能会被输入或上传到未经批准的 AI 服务。
AI 模型和应用为网络犯罪分子提供了新的攻击目标,并创造了利用新型 AI 特定手段的机会。
LLM 面临的威胁大规模采用 AI 也会带来严重的合规和法律方面的挑战。
高度监管行业(例如金融和医疗保健)的组织,如果不遵守数据隐私法规,将面临严厉的处罚。相关法规包括美国的健康保险可移植性和责任法案(HIPAA)和欧洲的《通用数据保护条例》(GDPR)。
安全态势是指系统缓解攻击方面的就绪状态。有效管理安全态势意味着采取积极主动和全面的方法来识别、评估和应对威胁与漏洞。
安全态势管理本质上很复杂,AI 进一步加剧了这种复杂性。由于 AI 系统涉及数据、模型、接口、API 以及往往采用异步通讯方式的智能体,AI 安全态势管理(AI-SPM)成为一项多维挑战。组织必须确保一致性、监控偏差、检测异常,并将 AI 风险整合到企业风险框架中。企业需要既能帮助 促进 AI 采用,同时仍能维护企业网络和数据安全性和隐私性的工具。
对于 IT 负责人而言,若想降低 AI 安全防护的固有复杂性,可寻找支持以下基础实践的解决方案:
保护生成式 AI 的使用,包括 LLM 和聊天工具,需要采取分层策略。您需要关注团队使用什么生成式 AI 工具,如何与这些工具交互,以及这些交互的输出结果的后续处理。
一些最佳实践包括:
将几项关键能力结合起来,可帮助围绕 AI 与生成式 AI 交互构建一道纵深防御屏障。具体而言:
AI 智能体是由 AI 驱动的程序,它可以通过自主维持记忆、随时间推移做出决策、调用外部工具或串联任务来帮助人类用户。这些智能体造成了全新的 AI 风险领域。智能体在会话期间有可能遭到操控和劫持,以执行非预期的操作。
智能体式 AI 的主要风险包括:
遵循这些基本原则有助于保护 AI 智能体:
与传统的 AI 部署相比,保护 AI 智能体需要更多的持续监控、威胁检测和运行时控制。
Cloudflare AI Security Suite 是一体化解决方案,为您提供在整个 AI 生命周期中控制数据和管理风险所需的工具。
通过 Cloudflare Firewall for AI,您可以保护面向公众的 AI 应用免受 针对 LLM 的主要威胁,包括提示词注入、模型投毒等。同时,您可以防止通过用户提示词和模型响应泄露敏感数据。
Cloudflare SASE 平台使您能够控制 AI 的使用并部署 AI-SPM。您可以发现整个组织中的所有影子 AI 工具,实施数据治理,管理对 AI 工具的访问,并控制 AI 智能体到内部资源(如 MCP 服务器)的连接。
Cloudflare 还可以帮助开发人员快速、高效且安全地构建和部署 AI 服务。他们可以从统一的控制平面管理多个 AI 模型,在边缘保护凭据,执行内容安全防护措施,并将 AI 智能体安全地连接到内部 API 和数据存储。借助 AI Gateway,他们可以监控使用情况、成本和错误,同时通过缓存、速率限制、请求重试和模型回退来降低风险和成本。
进一步了解 Cloudflare 的 AI 安全方法以及Cloudflare AI Security Suite。
人工智能(AI)安全保护 AI 的整个生命周期——从构建模型、训练数据和开发接口,到部署下游应用和运行推理。AI 安全是指一系列技术、流程和实践,旨在确保员工安全使用生成式 AI 应用,保护 AI 驱动的应用以防数据风险和滥用,并帮助开发人员安全地构建 AI 应用、智能体和工作负载。
随着个人与各类规模的组织对 AI 的采用率急剧增长,AI 安全已成为一项至关重要的挑战。AI 采用的快速增长已经超过了传统安全架构和治理体系的承载能力,造成了危险的盲点。
常见的 AI 安全风险包括:对员工使用 AI 工具的可见性有限(影子 AI);AI 特定威胁(如提示词注入和数据投毒);针对 AI 驱动应用的威胁(如 DDoS 和供应链攻击);以及安全和合规性风险。
AI 安全解决方案应提供对所有 AI 模型和使用情况的完整、实时可见性;主动风险管理(优先考虑提示词注入和数据投毒);数据保护(对敏感数据进行加密和清洗);基于 Zero Trust 原则的访问安全;以及使用 AI 防火墙的应用防御。
保护生成式 AI 使用需要一种分层的策略,涵盖工具本身、团队与工具的互动方式以及最终的输出结果。关键最佳实践包括:发现影子 AI 使用;通过应用最小权限的 Zero Trust 原则,监测和控制 AI 应用访问;采用数据丢失防护(DLP)技术保护敏感数据;阻止有害或恶意的提示词;以及通过 AI-SPM 服务和云访问安全代理(CASB)增强态势管理。
围绕 AI 和生成式 AI 交互的纵深防御屏障可以通过结合多种关键能力来形成。其中包括用于发现端点并阻止恶意提示词的 AI 防火墙;用于执行严格访问控制并维护审计跟踪的 AI 感知数据保护;以及实现内容审核、数据保护和威胁缓解的 AI 网关。
保护 AI 智能体的措施包括L:实施策略性分离(在指令、记忆和用户请求之间建立屏障);通过签名增强用户授权;并在限制性环境中为智能体提供更有限的工具集,以此缩小沙箱范围。