AI 安全包括用于保障 AI 应用开发安全、管控员工 AI 使用以及保护 AI 驱动应用和模型的所有资源。
阅读本文后,您将能够:
复制文章链接
正如网络安全保护传统 IT 系统一样,人工智能 (AI) 安全保护整个 AI 生命周期,即:从构建模型、训练数据、开发接口,到部署下游应用。AI 安全是指一系列技术、流程和实践,它们具有以下功能:
随着个人和各种规模的企业中的 AI 采用激增,AI 安全已成为一项任务关键型挑战。根据麦肯锡的数据,企业中的生成式 AI 使用率从 2023 年的 33% 猛增至 2024 年的 71%。其他信息来源显示,目前多达 78% 的企业表示,至少在一项业务功能中使用 AI(包括生成式 AI)。
对于许多组织而言,AI 采用的快速增长已经大大超过了传统安全架构、治理、合规性策略和风险管理方案的承载能力。这种不匹配会造成危险的盲点。
AI 意味着更大、更复杂的 攻击面。AI 系统由多个互相关联的层组成——数据管道、模型训练、模型托管、协议、API、用户界面、插件、智能体——这些层都必须受到保护。
例如,AI 驱动的应用容易面临提示词注入、供应链漏洞和其他独特风险。客户支持机器人——如果受到操纵——可能会泄露敏感的员工数据或商业机密。攻击者可能会滥用模型,通过请求使模型过载,从而导致 AI 资源过度消耗或拒绝服务。因此,AI 安全本质上比传统的应用安全或数据保护控制更为复杂。
了解关键的 AI 安全风险和最佳实践,以及针对生成式和智能体式 AI 量身定制的安全方案,有助于您保障 AI 安全。
根据 2025 年的一项调查,85%的 IT 决策者表示,员工采用 AI 工具的速度超过了 IT 团队评估的速度。同一项调查发现,93%的员工在未经批准的情况下监管信息输入到 AI 工具中。
“影子 AI”(即员工在缺乏 IT 或安全部门监管的情况下采用 AI 模型及工具的行为)已成为组织面临的一个严重问题。如果没有对员工所用工具的全面了解,诸如专有代码或个人可识别信息(PII)的敏感公司数据可能会被输入或上传到未经批准的 AI 服务。
AI 模型和应用为网络犯罪分子提供了新的攻击目标,并创造了利用新型 AI 特定手段的机会。
LLM 面临的威胁大规模采用 AI 也会带来严重的合规和法律方面的挑战。
受到严格监管的行业(例如,金融和医疗)企业,如果不遵守数据隐私法规,将面临严厉的处罚。相关法规包括美国的《健康保险可携性和责任法案》(HIPAA) 和欧盟的《通用数据保护条例》(GDPR)。
安全态势是指系统缓解攻击方面的就绪状态。有效管理安全态势意味着采取积极主动和全面的方法来识别、评估和应对威胁与漏洞。
安全态势管理本质上很复杂,AI 进一步加剧了这种复杂性。由于 AI 系统涉及数据、模型、接口、API 以及往往采用异步通讯方式的智能体,AI 安全态势管理 (AI-SPM) 成为一项多维挑战。企业必须确保一致性、监测偏移风险、检测异常,以及将 AI 风险整合到企业风险框架。他们需要既能帮助促进 AI 采用,同时仍能维护企业网络和数据安全性以及隐私性的工具。
对于 IT 负责人而言,若想降低 AI 安全防护的固有复杂性,可寻找支持以下基础实践的解决方案:
保护生成式 AI 的使用,包括 LLM 和聊天工具,需要采取分层策略。您需要关注团队使用什么生成式 AI 工具,如何与这些工具交互,以及这些交互的输出结果的后续处理。
一些最佳实践包括:
将几项关键能力结合起来,可帮助围绕 AI 与生成式 AI 交互构建一道纵深防御屏障。具体而言:
AI 智能体是由 AI 驱动的程序,它可以通过自主做出决策、调用外部工具或串联任务来帮助真人用户。这些智能体带来了全新的 AI 风险。智能体在会话期间可能遭到操纵,甚至被劫持用于执行非预期操作。
智能体式 AI 的主要风险包括:
遵循这些基本原则有助于保护 AI 智能体:
与传统的 AI 部署相比,保护 AI 智能体需要更多的持续监控、威胁检测和运行时控制。
Cloudflare AI Security Suite 是一体化解决方案,为您提供在整个 AI 生命周期中控制数据和管理风险所需的工具。
With Cloudflare AI Security for Apps, you can protect public-facing AI applications against the top threats for LLMs — including prompt injection, model poisoning, and more. At the same time, you can guard sensitive data from being exposed through user prompts and model responses.
Cloudflare SASE 平台使您能够控制 AI 的使用并部署 AI-SPM。您可以发现整个组织中的所有影子 AI 工具,实施数据治理,管理对 AI 工具的访问,并控制 AI 智能体到内部资源(如 MCP 服务器)的连接。
Cloudflare 还可以帮助开发人员快速、高效且安全地构建和部署 AI 服务。他们可以从统一的控制平面管理多个 AI 模型,在边缘保护凭据,执行内容安全防护措施,并将 AI 智能体安全地连接到内部 API 和数据存储。借助 AI Gateway,他们可以监控使用情况、成本和错误,同时通过缓存、速率限制、请求重试和模型回退来降低风险和成本。
进一步了解 Cloudflare 的 AI 安全方法以及Cloudflare AI Security Suite。
人工智能 (AI) 安全旨在保护 AI 整个生命周期,即:从构建模型、训练数据、开发接口,到部署下游应用。AI 安全是指一系列技术、流程和实践,旨在确保员工安全使用生成式 AI 应用,保护 AI 驱动的应用以防范数据风险和滥用,并帮助开发人员安全地构建 AI 应用、智能体和工作负载。
随着个人与各类规模的组织对 AI 的采用率急剧增长,AI 安全已成为一项至关重要的挑战。AI 采用的快速增长已经超过了传统安全架构和治理体系的承载能力,造成了危险的盲点。
常见的 AI 安全风险包括:对员工使用 AI 工具的可见性有限(影子 AI);AI 特定威胁(如提示词注入和数据投毒);针对 AI 驱动应用的威胁(如 DDoS 和供应链攻击);以及安全和合规性风险。
AI security solutions should provide complete, real-time visibility into all AI models and usage; active risk management (prioritizing prompt injection and data poisoning); data protection (encrypting and sanitizing sensitive data); access security using zero trust principles; and application defense.
保护生成式 AI 使用需要一种分层的策略,涵盖工具本身、团队与工具的互动方式以及最终的输出结果。关键最佳实践包括:发现影子 AI 使用;通过应用最小权限的 Zero Trust 原则,监测和控制 AI 应用访问;采用数据丢失防护(DLP)技术保护敏感数据;阻止有害或恶意的提示词;以及通过 AI-SPM 服务和云访问安全代理(CASB)增强态势管理。
A defense-in-depth barrier around AI and GenAI interactions can be formed by combining a few key capabilities. These include an AI app security solution to discover endpoints and block malicious prompts; AI-aware data protection to enforce strict access controls and maintain audit trails; and an AI gateway to act as a proxy for content moderation, data protection, and threat mitigation.
保护 AI 智能体的措施包括L:实施策略性分离(在指令、记忆和用户请求之间建立屏障);通过签名增强用户授权;并在限制性环境中为智能体提供更有限的工具集,以此缩小沙箱范围。