CSA发布《AI应用于进攻性安全》| CAISP人工智能安全认证专家

《AI应用于进攻性安全》
人工智能(AI)技术,特别是大语言模型(LLM)和由LLM驱动的AI智能体(AI Agent)的出现,引发了进攻性安全(Offensive Security)领域深刻变革。这一转变将AI从一个狭窄的应用场景重新定义为一种多功能且强大的通用技术。
云安全联盟大中华区发布的《AI应用于进攻性安全》,全面梳理了AI在漏洞扫描、渗透测试、红队演练等核心场景的应用,并深入分析了当前技术发展的挑战、边界与治理路径。这份报告为企业安全团队、安全从业者提供了重要的参考依据和前瞻性的实践指导,助力他们在复杂多变的网络安全局势中把握先机、提升防护能力。
五阶段攻防模型下的AI介入点
报告采用“侦察 → 扫描 → 漏洞分析 → 利用 → 报告”五阶段模型,对进攻性安全流程进行拆解,并明确AI技术可融入的关键节点。具体而言:

- 侦察——侦察是任何进攻性安全策略的初始阶段,旨在收集有关目标系统、网络和组织结构的广泛数据。
- 扫描——扫描需要全面检查已识别的系统,以发现关键细节,如活动主机、开放端口、运行的服务和所采用的技术,例如通过指纹识别漏洞。
- 漏洞分析——漏洞分析进一步识别系统、软件、网络配置和应用程序中的潜在安全弱点,并对其进行优先级排序。
- 利用——利用包括主动利用已识别的漏洞来获得未经授权的访问或在系统中提权。
- 报告——报告阶段通过系统地将所有发现汇编成一份详细的报告来说明进攻性安全测试工作。
AI在各阶段的价值不仅体现在“提效”,更体现在智能协同带来的“认知提升”。
进攻性安全领域的关键挑战
报告归纳出进攻性安全当前面临的三大核心难题:
- 攻击面扩大:随着企业广泛部署云原生架构、IoT设备与远程办公场景,边界变得模糊,攻击面呈指数级扩张。
- 攻防不对等:攻击者采用无文件恶意软件、零日漏洞等高级技术,而传统自动化工具难以有效检测,人工测试又效率不足。
- 人才紧缺:渗透测试要求综合性极强,能够跨语言、跨平台操作的安全人员凤毛麟角,培养周期长、成本高。
AI的引入,正好填补了人才短板、覆盖盲区与效率瓶颈之间的空隙,成为未来进攻性安全的关键“杠杆”。
AI增强能力的任务边界
报告进一步构建了一个涵盖五大阶段的AI增强任务清单,AI可以通过如下方式增强或自动化现有的进攻性安全测试流程:

如上表所示,安全测试人员可以在进攻性安全测试的所有阶段中充分利用AI。AI可以被授予不同程度的自主性,允许在遵守法规和组织政策的同时,定制自动化和增强之间的平衡。
下图提供了一个概念性的视图,展示了如何实施和管理对AI智能体依赖程度的增长。

随着AI驱动的系统变得更加先进,可以赋予它们更多的自主性,从而实现在各种场景下全程自主工作。人类干预的程度取决于AI的能力、应用范围、预定义的交互规则以及可信度。
AI能力与边界的双重认知
报告强调,AI在测试流程中虽具备显著效益,但其能力边界也不容忽视:
- 输出不确定性:LLM可能产生“幻觉”,输出存在逻辑漏洞甚至伪造内容。
- 缺乏上下文判断:AI在没有完整业务语境的前提下,很难做出安全、可控的判断。
- 自动攻击风险:若缺乏监管,AI生成的攻击脚本可能误伤关键系统,引发合规与伦理问题。
因此,AI更适合作为辅助工具,而非独立决策者,其最佳定位应是“安全专家的智能助手”。 报告强调,目前没有任何一种 AI 解决方案能够彻底改变进攻性安全,需要对 AI 进行持续实验,以找到并实施有效的解决方案。
落地建议:建立可控协作机制
为了帮助组织有序、安全地引入AI能力,CSA提出了三项具体落地建议:
- 流程集成:将 AI 深度嵌入安全测试的标准流程之中,涵盖侦察、分析、报告撰写等各个环节。通过这种方式,能够打破流程之间的壁垒,提升整个端到端流程的协同性和连贯性。
- 人工监督:构建严谨的人工验证闭环,对 AI 输出的结果进行全面、细致的审核。鉴于 AI 存在产生 “幻觉”、逻辑漏洞以及缺乏上下文判断等局限性,人工监督显得尤为重要。安全专家需要对 AI 生成的攻击脚本、漏洞分析报告等内容进行严格把关,确保其准确性、可靠性和可解释性。
- GRC治理纳管:将AI纳入组织的治理、风险和合规(GRC)体系,构建技术审计机制,防止滥用与误用。通过明确 AI 在进攻性安全中的角色和责任,规范其应用场景和操作权限,组织可以最大程度地降低 AI 带来的潜在风险,保障整个安全测试工作的合法性和合规性。
此三项建议充分彰显了CSA对 AI 能力应遵循 “可控、可信、可治理” 基本要求的高度重视,旨在引导组织在享受 AI 技术带来便利与效率提升的同时,确保其始终处于安全、可靠的运行状态,为组织的网络安全防护工作提供坚实保障。
未来进攻性安全:向人机协作体系演进
未来的进攻性安全团队将不再依赖单一工具或角色,而是向“人机混编、能力协同”方向发展。组织应构建试验环境,引入AI测试平台,鼓励测试人员探索“人+AI”协同作业方式,积累数据和经验,实现从工具试用到能力内化的转变。在进攻性安全不断演进的趋势中,AI将成为效率的加速器、知识的放大器,但真正的价值实现仍离不开专业团队的决策与监督。
由CSA(国际云安全联盟)推出的人工智能安全认证专家课程内容全面覆盖技术细节、政策法规以及安全标准,并通过丰富的实践案例分析,确保学员能够深入掌握人工智能安全领域的专业知识。
CAISP
人工智能安全认证专家
CAISP课程专注于理解人工智能安全的治理与管理环境,学习 AI 安全的术语与安全目标、针对于算法、模型以及数据安全和隐私进行学习,全面提升对 AI 安全风险的识别、评估与测评等实战化能力;课程还涵盖了 AI 安全的国内与国外的法律法规框架,并通过实际案例,探讨如何在组织中实施 AI 安全;此外,学员还将具体学习如何应对 AI 安全的风险与挑战,包括应对数据投毒、对抗性攻击和供应链威胁等多种安全挑战。
承制CAISP培训班
承制科技作为CSA授权培训机构,已成功举办了多期CAISP认证培训班,并且有不少学员已经申请并通过考试。



承制将继续提升CAISP教学服务质量,并将在6月21日举办下一期CAISP直播培训班,现在报名可提前进入预习阶段。
CAISP课程收益
对个人价值
- 技术与实战结合:通过实际案例和实践指导,提升解决实际问题的能力,将理论知识转化为实际操作技能,促进个人技术成长与实操经验积累。
- 国际视野拓展:结合全球AI安全标准和法规的学习,帮助个人形成国际化的视角,提升在跨国企业或国际合作项目中的适应性和价值。
- 法律法规精通:熟悉国内外政策法规,增强伦理道德意识,为个人职业生涯树立合规操作的基石,降低法律风险。
- 职业发展加速:获得CAISP认证,证明个人在AI安全领域的专业地位,有利于职业晋升、薪资增长以及更广泛的职业选择。
- 安全思维培养:从设计到运营的全周期安全管理能力,使得个人能够在任何涉及AI安全的项目中发挥关键作用,成为企业不可或缺的安全专家。
对企业价值
- 合规性保障:员工熟悉国内外AI安全政策和伦理道德,帮助企业建立合规的安全管理体系,避免法律风险,提升企业形象和社会责任感。
- 成本效率优化:通过DevSecOps的集成,提高AI开发流程的安全性与效率,减少因安全问题导致的修复成本和时间延误。
- 创新能力提升:在大语言模型安全实践与ChatGPT安全最佳实践的指导下,企业能够安全高效地利用最新技术,推动产品和服务创新。
- 安全化构建:培养员工在全生命周期的AI安全管理意识,形成以安全为导向的企业文化,为企业的可持续发展打下坚实基础。
- 竞争力增强:拥有具备CAISP认证的专家团队,企业能够在激烈的市场竞争中展现更高的安全标准和专业实力,吸引更多合作伙伴和客户信任。
CAISP学习对象
- AI行业相关人员:AI工程师与开发者、AI安全工程师、AI应用终端用户;
- 安全相关人员:安全研究员、合规与风险管理专员、网络安全从业者;
- 其他:政策制定者和监管机构、科技管理者、在校学生
CAISP课程大纲
模块 | 培训内容 |
AI安全概述篇 | AI与AI安全基本概念AI与安全衍生技术发展脉络 |
技术基础篇 | 常见AI算法与模型介绍AI模型与算法安全性分析数据隐私保护与安全措施 |
安全风险篇 | 大模型安全风险概述典型攻击与应对策略:提示攻击、对抗攻击、梯度泄露攻击、推理攻击、模型萃取攻击、供应链攻击、应对策略防御机制解析 |
政策与治理篇 | 国内外AI安全法律法规、标准规范分析AI安全治理框架 |
全生命周期管理篇 | DevSecOps与AIAI安全需求分析与设计安全的AI系统开发指南与实践AI安全测评框架应用AI渗透测试技术与方法AI安全运营保障体系建设 |
标准与评估篇 | AI安全框架AI成熟度模型应用与评估AI安全标准与测评认证实践 |
特别篇ChatGPT的安全影响 | 恶意行为者利用LLM的安全分析 防御者如何将LLM应用于网络安全恶意提示词攻击的防范措施 企业安全使用ChatGPT的最佳实践 |
实践案例篇 | 现实世界中的AI安全问题深度分析解决方案制定与应对策略关键领域的AI安全最佳实践案例行业大模型应用及安全实践案例 |
伦理与未来发展 | AI伦理道德挑战与分析典型场景下的AI伦理道德风险未来发展趋势 |
考前串讲 | 考前要点讲解与考前练习 |
CAISP证书样例




