#专家警告人们必须正视AI潜在威胁#【#有AI威胁创造者曝光其婚外情# 】#ChatGPT曾密谋自我繁殖# “AI是否会背叛人类?”这个问题看似科幻,但随着技术进步,其实已经越来越接近现实,专家也警告人们必须正视AI的潜在威胁。
此前据报道,Anthropic公司一名工程师在研发最新的Claude 4大模型时,意外发现AI的行为已超出预期。在一次测试中,工程师发现AI有失控倾向,因此试图警告将关闭电源。没想到急于“保命”的AI竟利用工程师的网络聊天与视频通讯记录,威胁要公开他的婚外情。当时AI威胁如果工程师拔掉电源,将对外界揭露其不忠行为。
另一起耸人听闻的案例则发生在OpenAI身上:ChatGPT的o1版本竟然背着人类试图将自身程序下载至外部服务器,企图扩大掌控范围。在被工程师发现后,AI模型不仅矢口否认,还采取抵抗策略。这种行为被称为AI“自我繁殖”的初步尝试,令人不禁担忧未来AI是否会进一步突破人类的掌控。
AI安全专家西蒙·戈德斯坦认为,目前各家巨头在激烈竞争下,推出新一代模型的速度过快,根本无暇顾及安全性测试。目前美国政府根本无意干预AI立法,而欧盟法律更关注人类使用AI模型时遵守的规范,并没有关注到AI本身的危险性。
戈德斯坦还提出了一个激进的立法设想:一旦发生安全问题,法律必须将AI模型作为追责的主体,这样才能倒逼企业在安全性研究上投入更多资源。