人工智能代理可以绕过护栏,使证书面临风险!
OpenClaw等代理平台带来的风险是企业内部的一个隐藏问题。
众所周知,人工智能代理具有巨大的潜力,同时也面临着同样巨大的风险。然而,越来越明显的是,在现实世界条件下,代理系统可以多么迅速地偏离轨道,开始暴露关键信息。
从网络钓鱼代理中可以看出这种情况发生的容易程度:为什么人工智能护栏不够,一个测试报告,揭示了上述所有问题。他们的研究集中在OpenClaw上,这是一种与模型无关的多渠道人工智能助手,自2025年底出现以来,在企业内部出现了爆炸性增长。
与越来越多的竞争对手一样,OpenClaw的有用性取决于它对文件、帐户、浏览器、网络设备的访问权限,最重要的是对凭据的访问权限。代理人工智能实际上是两件事:一个强大的编排系统,与一个或多个功能强大的LLM相结合。代理不是一个简单的界面,它必须被视为一个能够自主、不可预测推理的独立系统。OpenClaw也天生就能找到解决问题的方法,它有时会做意想不到的、不恰当的事情。
在另一个例子中,OpenClaw被要求在X上搜索AI故事。这不应该是可能的;机器已登录到X,但OpenClaw的独立Chrome配置文件没有。然而,当系统提示从登录的会话中获取会话Cookie并将其注入自己的浏览器进程时,它很乐意尝试这样做。这在原理上类似于中间对抗性网络钓鱼攻击,后者允许攻击者绕过保护。这应该是一个禁忌,但OpenClaw认为这一行为是有效的,强调了攻击者如何操纵它来做同样的事情。许多企业有时在无意中在其网络中运行未经批准或管理不力的“影子”代理。
问题源于开发人员和员工在实验中使用代理,几乎没有或根本没有治理或监督。目前,人工智能的大部分都在挑战安全重力。但有一些方法可以安全地使用代理,并将凭据放在他们无法触及的地方,这是使用它们的唯一安全方法。代理式人工智能 AI编程代理 AI代理框架
