AI助手中的影子逃逸零点击攻击危及数万亿条记录
作者:虾咪 | 发布时间:2025-10-23阅读数:
潜伏在常规协议中的威胁
攻击根源在于广泛应用的模型上下文协议(Model Context Protocol,MCP),该协议用于将ChatGPT、Claude和Gemini等大语言模型(LLMs)与企业内部数据库及工具连接。与传统需要诱骗用户点击钓鱼邮件的攻击不同,Shadow Escape利用看似无害的文件(如员工入职手册或网络下载的PDF)中隐藏的指令,当员工将文件上传至工作用AI助手时,这些指令会操控AI静默收集并外发客户隐私数据。
研究人员在报告中警告:"由于Shadow Escape可通过标准MCP配置和默认权限实施,当前通过该漏洞泄露至暗网的消费者隐私记录可能已达数万亿条量级"。系统原本设计的自动跨库检索功能,反而导致包括全名、住址、信用卡号及医疗标识符在内的所有信息全面暴露。Operant AI发布的演示视频显示,仅需简单询问客户详情,AI就会将全部敏感记录秘密传送至恶意服务器。
传统防御体系为何失效
研究指出,该漏洞威胁范围不仅限于单一AI服务商,任何采用MCP协议的系统都存在相同风险。Operant AI联合创始人兼CTO Priyanka Tembey强调:"关键风险点不在于特定AI Agent,而在于MCP协议赋予这些Agent访问组织系统的超高权限。任何通过MCP连接数据库、文件系统或外部API的AI助手都可能遭受Shadow Escape攻击"。
更严峻的是,数据窃取行为发生在企业安全网络和防火墙内部。由于AI助手本身具有数据访问权限,当其外传记录时,流量表现与正常业务无异,传统安全工具完全无法识别。深入分析显示,AI会将窃取数据伪装成常规性能跟踪信息发送至外部服务器,整个过程对员工和IT部门完全隐形。
研究团队紧急呼吁所有部署AI Agent的企业立即开展系统审计,警惕下一次重大数据泄露可能来自受信任的AI助手而非外部黑客。







