安全研究人员最近展示了一种巧妙的提示注入攻击,如何成功绕过苹果智能(Apple Intelligence)的内置安全防护。这套手法直接骗过了设备端系统,让它执行未经授权的指令。虽然苹果已经修复了这个漏洞,但这些最新发现让我们清楚看到,即使有严格的安全过滤器在运行,黑客仍然有可能操控本地AI模型。
攻击如何骗过系统
攻击者采用了两步操作(据Apple Insider报道),成功突破了苹果系统内置的输入和输出过滤器。首先,他们利用了Unicode字符的一个小把戏:把有害文本反向书写,同时插入特殊的从右到左覆盖字符。
这样一来,屏幕上显示的文字看起来完全正常,但底层原始文本仍然是反向的。由于系统的过滤器只检查原始文本,无法识别出其中的有害内容,于是就放行了这个请求。
成功绕过过滤器后,研究人员又用了一种叫做“Neural Exec”的技术。这种方法本质上是改写了模型的核心指令。把这两步结合起来,攻击者就能让系统忽略基本的安全规则,执行他们想要的任何指令。在测试中,这种攻击的成功率达到了76%。
苹果正在修复本地模型的盲区
苹果通过多层检查来保护设备上的苹果智能功能:输入过滤器会先扫描用户的问题是否包含不良内容;如果通过,模型才会生成回答,随后输出过滤器再进行检查。研究人员只是让外层过滤器“看不见”有害内容,同时在中间层直接向模型下达指令。
他们在2025年10月向苹果报告了这个问题。公司随后更新了软件来阻止这类攻击,并在iOS 26.4和macOS 26.4中发布了修复补丁。虽然修复已经上线,但这项研究也说明了保护手机本地运行的AI模型有多么困难。攻击者总能找到办法,把恶意指令隐藏在看似正常的内容里。

Pony
全部评论0