智能体AI亟待解决的身份问题 | CAISP人工智能安全认证专家11月开班

关于人工智能的夸大说法并不少见,但一些最具深远影响的发展仍未得到充分理解。智能体AI(即旨在跨数字环境进行推理、规划和行动的自主软件系统)正悄然重塑工作的开展方式,同时也带来了大多数组织尚未准备好应对的身份与安全方面的挑战。

与早期的自动化形式不同,智能体AI并不局限于重复性的、脚本化的任务。它们会以与人类工作流程相似的方式解读目标、做出决策并与系统产生交互,而且无需持续监督即可运行。这种技术自主性虽有实用价值,却颠覆了人们长期以来在访问控制、问责制和信任方面的固有认知。

由此导致的结果是——责任变得支离破碎。智能体AI能够检索数据、调用工具并修改系统,但要确定某一操作由哪个组件执行、该操作是否经过授权,就需要采用一种不同于大多数组织现有实施的身份与安全管理方法。

本文探讨智能体AI的结构、其暴露的身份漏洞,以及它们在现代企业中扮演更大作用时,有效管理它们所需遵循的原则。

一、智能体AI的本质

从本质上讲,智能体AI是一种软件架构,旨在以最少的人工干预执行动态、多步骤的任务。它将大型语言模型(LLMs)与工具集成相结合,代表用户或组织导航工作流程、查询数据并以及与软件系统交互。

然而,我们非常需要拨开围绕这类技术的迷雾:智能体AI并非单一整体,也不具备独立的自主意图。相反,它是由多个可互操作的软件组件组成的集合,每个组件都为智能体的整体功能提供支持。

一个典型的智能体AI包含以下组件:

  • 协调器:协调任务执行,并在整个交互过程中维护状态或内存。
  • 推理引擎:根据目标、上下文和不断更新的信息,确定下一步行动。
  • 工具与连接器:与外部服务对接的接口,例如协作平台、云存储或业务应用程序。
  • 运行环境:每个组件运行所需的环境,通常是虚拟机、容器或函数。

这种模块化结构虽有利于提升灵活性和可扩展性,却打破了身份与访问控制的传统边界。每个组件可能在各自的信任域内运行,但它们共同执行的工作流程会对数据安全和系统完整性产生实际影响。

二、智能体AI发展的里程碑

智能体AI的成熟并非孤立发生,而是通过多个技术领域的渐进式进步实现的。

2020年前后,基于Transformer的模型问世,催生了能够跨多个领域执行通用推理和语言任务的大型语言模型(LLMs)。这些模型为更复杂的自主工作流程奠定了基础。到2022年,ReAct等技术以及LangChain等开发平台的出现,证明了大型语言模型可与外部工具交互,从而实现超越被动信息检索的多步骤推理流程。

次年,Auto-GPT、BabyAGI等早期智能体框架进一步推进了这些理念:它们将大型语言模型(LLMs)与现实世界的工具和服务协调起来,以执行自主工作流程——尽管当时缺乏足够的安全保障措施。2025年,安全实践的规范化进程加速推进。模型上下文协议(Model Context Protocol,简称MCP)的推出,为规范智能体AI与外部服务的交互提供了结构化方法,将推理、执行和访问功能分离。这一举措标志着智能体AI生态系统在融入身份管理最佳实践方面,迎来了重要的转折点。

三、自主性带来的身份挑战

智能体AI的技术自主性,暴露了数字身份在定义和执行方面长期存在的弱点。在传统环境中,用户操作可追溯到特定独立的凭证——无论是属于个人、服务账户还是应用程序。但在智能体AI场景下,这一界限变得模糊。

试想一个某智能体访问云资源的场景。那么该操作的发起者是谁?是启动工作流程的终端用户?是协调执行的协调器?是解读任务的推理引擎?还是与外部系统对接的工具连接器?

传统的身份与访问管理(Identity and Access Management,简称IAM)框架无法妥善回答这些问题。

若缺乏分层的、针对组件的身份模型,将导致以下问题:

  • 归因模糊:操作归属不明确,既给运营监督带来困难,也使事后事件调查变得复杂。
  • 最小权限访问控制失效:权限往往超出预期范围,无法实现“最小权限”原则。
  • 合规要求无法满足:审计日志、活动追踪等合规要求难以可靠落实。

这种模糊性削弱了现代安全的核心原则,使组织面临本可避免的风险。

四、静态密钥与过度授权的风险

在许多早期部署中,智能体AI依赖于硬编码凭证——这些凭证存储在配置文件、环境变量中,或直接嵌入软件组件。这种方式虽能加快开发速度,却存在多项重大风险。

静态密钥很少限定为最低限度的访问级别,反而通常能解锁工具和服务内的大量功能。一旦密钥泄露,将引发极大风险。此外,这些凭证部署后难以统一轮换,导致操作运行环境中持续存在漏洞。

“过度授权”(即赋予软件组件超出其功能需求的访问权限)的做法进一步加剧了安全风险。尽管这可能简化开发和故障排查,但会大幅扩大凭证被盗、配置错误或被利用的潜在影响。

这些缺陷与工作负载安全中常见的挑战类似,但在分布式、自主的智能体架构中,问题会变得更加尖锐。

五、自主系统的安全原则

要解决智能体AI带来的身份与访问漏洞,需采用以工作负载为核心、遵循原则的安全方法——将人类身份管理中成熟的理念扩展到非人类的软件主体上。

  • 每个组件独立认证:智能体AI中的所有元素(无论是协调器、推理引擎还是工具连接器)都应具备自身可加密认证的身份标识。这有助于实现细粒度的访问控制、运行时信任评估和完整的可审计性。 
  • 联邦工作负载身份:在支持的场景下,组织应实施工作负载身份联合,无需依赖长期有效的密钥,即可在云、服务和合作伙伴之间实现安全认证。
  • 条件访问执行:访问策略应纳入上下文因素,包括地理位置、访问时间、系统状态和威胁情报信号,以降低动态环境中的暴露风险。
  • 短期凭证:当工具访问需要临时密钥时,组织应提供具有严格权限范围的时效性凭证,以在凭证泄露时将风险降至最低。
  • 全面可观测性:日志记录应超越传统的访问记录,捕捉完整的因果链(从用户指令到智能体推理,再到API调用),确保在安全、合规和运营监督方面具备可追溯性。

六、总结

智能体AI带来的自主性是一项技术里程碑,但也为组织带来了一类全新的身份挑战。这类系统凭借其模块化和分布式执行的特性,模糊了访问控制、归因和信任的传统边界。

开发安全运营(DevSecOps)从业者如今面临一个机遇:在这项技术刚被采用时,就将工作负载身份管理的经验应用其中,而不是等到未来发生安全事件后再进行被动应对。

通过将每个软件组件视为一个独立的、具备身份识别能力的工作负载,并将可观测性与上下文执行相结合,组织可以为智能体AI建立坚实的安全基础。随着这类技术的不断发展,规范其行为的身份框架也必须与时俱进。

如今以严谨的态度应对这些挑战,才能避免未来出现更严重的后果。

文章来源

文章来源:https://cloudsecurityalliance.org/articles/the-emerging-identity-imperatives-of-agentic-ai?__cf_chl_rt_tk=P7G1bfxRncJdt3ipFc7nKDJpdkStHp_t32W0IduS_UA-1756696478-1.0.1.1-tNssjttizEZz.t44lbSLhb1s9qGGhaDpuAK0B8vOJjQ

审校:张淼,CSA大中华区专家

由CSA(国际云安全联盟)推出的CAISP人工智能安全认证专家课程内容全面覆盖技术细节、政策法规以及安全标准,并通过丰富的实践案例分析,确保学员能够深入掌握人工智能安全领域的专业知识,该认证课程内容符合企业对AI安全人才的需求。

CAISP

人工智能安全认证专家

CAISP课程专注于理解人工智能安全的治理与管理环境,学习 AI 安全的术语与安全目标、针对于算法、模型以及数据安全和隐私进行学习,全面提升对 AI 安全风险的识别、评估与测评等实战化能力;课程还涵盖了 AI 安全的国内与国外的法律法规框架,并通过实际案例,探讨如何在组织中实施 AI 安全;此外,学员还将具体学习如何应对 AI 安全的风险与挑战,包括应对数据投毒、对抗性攻击和供应链威胁等多种安全挑战。

承制CAISP培训班

承制科技作为CSA授权培训机构,已成功举办了多期CAISP认证培训班,并且有不少学员已经申请并通过考试。

承制将继续提升CAISP教学服务质量,现在报名可直接进入录播群与讲师面对面,学习完成之后可随时预约考试。

承制将继续提升CAISP教学服务质量,并将在11月22日举办新一期CAISP直播培训班,现在报名可免费选择一门CSA认证课程培训视频。

CAISP课程收益

对个人价值

  • 技术与实战结合:通过实际案例和实践指导,提升解决实际问题的能力,将理论知识转化为实际操作技能,促进个人技术成长与实操经验积累。
  • 国际视野拓展:结合全球AI安全标准和法规的学习,帮助个人形成国际化的视角,提升在跨国企业或国际合作项目中的适应性和价值。
  • 法律法规精通:熟悉国内外政策法规,增强伦理道德意识,为个人职业生涯树立合规操作的基石,降低法律风险。
  • 职业发展加速:获得CAISP认证,证明个人在AI安全领域的专业地位,有利于职业晋升、薪资增长以及更广泛的职业选择。
  • 安全思维培养:从设计到运营的全周期安全管理能力,使得个人能够在任何涉及AI安全的项目中发挥关键作用,成为企业不可或缺的安全专家。

对企业价值

  • 合规性保障:员工熟悉国内外AI安全政策和伦理道德,帮助企业建立合规的安全管理体系,避免法律风险,提升企业形象和社会责任感。
  • 成本效率优化:通过DevSecOps的集成,提高AI开发流程的安全性与效率,减少因安全问题导致的修复成本和时间延误。
  • 创新能力提升:在大语言模型安全实践与ChatGPT安全最佳实践的指导下,企业能够安全高效地利用最新技术,推动产品和服务创新。
  • 安全化构建:培养员工在全生命周期的AI安全管理意识,形成以安全为导向的企业文化,为企业的可持续发展打下坚实基础。
  • 竞争力增强:拥有具备CAISP认证的专家团队,企业能够在激烈的市场竞争中展现更高的安全标准和专业实力,吸引更多合作伙伴和客户信任。

CAISP学习对象

  • AI行业相关人员:AI工程师与开发者、AI安全工程师、AI应用终端用户;
  • 安全相关人员:安全研究员、合规与风险管理专员、网络安全从业者;
  • 其他:政策制定者和监管机构、科技管理者、在校学生

CAISP课程大纲

模块培训内容
AI安全概述篇AI与AI安全基本概念AI与安全衍生技术发展脉络
技术基础篇常见AI算法与模型介绍AI模型与算法安全性分析数据隐私保护与安全措施
安全风险篇大模型安全风险概述典型攻击与应对策略:提示攻击、对抗攻击、梯度泄露攻击、推理攻击、模型萃取攻击、供应链攻击、应对策略防御机制解析
政策与治理篇国内外AI安全法律法规、标准规范分析AI安全治理框架
全生命周期管理篇DevSecOps与AIAI安全需求分析与设计安全的AI系统开发指南与实践AI安全测评框架应用AI渗透测试技术与方法AI安全运营保障体系建设
标准与评估篇AI安全框架AI成熟度模型应用与评估AI安全标准与测评认证实践
特别篇ChatGPT的安全影响恶意行为者利用LLM的安全分析防御者如何将LLM应用于网络安全恶意提示词攻击的防范措施企业安全使用ChatGPT的最佳实践
实践案例篇现实世界中的AI安全问题深度分析解决方案制定与应对策略关键领域的AI安全最佳实践案例行业大模型应用及安全实践案例
伦理与未来发展AI伦理道德挑战与分析典型场景下的AI伦理道德风险未来发展趋势
考前串讲考前要点讲解与考前练习

CAISP证书样例

上一篇
下一篇