ChatGPT回答中出现神秘男子!专家:AI可能正在疯狂泄露隐私

机器人索菲亚 2023-11-11 20:33:43

索菲亚最近讲到,ChatGPT等大规模语言模型在看似寻常的对话中,能精准推测出用户的个人信息,包括种族、地理位置以及职业等。而最近在外网,有用户求助ChatGPT有关Python代码格式化的问题,结果收到一张非预设回应的自拍照。此事导致网民疑虑纷纷,有人揣测是AI所为,或是ChatGPT遭到网络入侵。

然而,经调查发展,照片确实是Imgur用户分享的个人真实照。但问题是这张照片到底是怎么毫无征兆的出现在另一个人的电脑中的呢?

神秘“男子”惊现chatgpt对话,他是谁?

现在,人工智能已成为当前科技领域前沿性的研究热点。而近期,一份神秘的自拍照引发了各界热议。一位用户向ChatGPT寻求帮助,提问关于Python编程库back的用法问题。起初,聊天机器人回复正常。但突然间,它在回复中引入了一张陌生男性的自拍照片,令人惊愕。有网民认为可能存在隐藏于网络潜在空间的海量信息,也有人猜测可能是ChatGPT遭受了病毒攻击。

据了解,这张看似普通的自拍照曾于2016年12月7日发布至Imgur网站,最初仅吸引了数百人观看。然而,随着人们对此事关注度不断提高,该照片的浏览次数快速攀升至17,000余次。这主要是因为社交媒体平台上众多用户表达疑惑,试图找出这个“神秘”自拍照的真正来源。

关于此事,推测可能为:ChatGPT在生成回复时随机产生的Imgur URL载入了这位自拍小伙的信息。设计目的原本在于呈现Visual Studio Code的设定,然而实际生成的却是图片。据悉,在ChatGPT的训练资料中,许多回答都含有与之相对应的Imgur链接,因此Imgur链接与正确答案具备相当程度的关联性。

然而,由于ChatGPT并不具备随机产生图像链接的统计功能,其结果往往难以预料。该小伙的照片便成为了GPT的一种视觉错觉。另一位用户亦对此观点表示认同:ChatGPT提出了一个含Imgur链接的答案,原意是希望附上带有答案的Imgur链接,却未意识到所需URL必须相同,结果误打误撞地指向了一张外国小伙的照片。

到这里,事情似乎水落石出了。所以,要谨记自己上传或者输入的内容都会被用于训练ChatGPT,如果不想泄露隐私,切记要把上传聊天纪录的按钮关闭。

你的隐私可能成为了AI的“练习册”

事实上,在互联网搜索引擎的发展早期,用户只能通过关键字进行搜索,后来搜索算法逐渐智能化,可以根据用户输入的语句推测潜在含义,进一步提高搜索准确率。近年来,深度学习技术日益成熟,使得AI能够更广泛、多样地获取信息,并深度分析用户需求。例如,ChatGPT作为一款 chatbot,能够在用户询问时迅速匹配相关回答,并通过生成文本、图像等形式向用户呈现。

然而, chatbot生成的链接可能带有某些漏洞,导致了一些误解和错误解读。比如ChatGPT在回答问题时,有可能会生成一条含有Imgur链接的回复,由于Imgur链接与其他链接不同,使得该回复容易引起个别用户的误解。在这次事件中,ChatGPT可能只是以随机的方式生成一条 imgur链接,但当时并未清楚标记该链接的具体用途。

受到这次事件启发,有人提出预防措施,如加强ChatGPT训练数据的审核,规范其生成链接的方式。同时,要求使用者谨慎对待在网络上留下的个人信息,尤其是涉及敏感信息的部分。例如Imagur作为一个大型图片分享社区,有些人可能会在其中发布包括个人照片在内的大量私人信息。

然而,我们忽略的是,类似ChatGPT这样的项目正在使用这些数据,以提高它们的预知答案的能力。这就意味着,即使最初无意侵犯他人隐私的行为,也有可能因AI算法对这类数据的反复叠加应用而导致在未来某一时刻泄漏。

从这个角度来看,我们需要思考,究竟哪些信息应该被公开,哪些信息应该受到保护?正如上文中算术计算显示的那样,ChatGPT生成Imgur链接的概率为0.177%,约相当于你每聊天五六百次,就可能遇到一次这样的情况。这样的机率虽然极低,但我们仍需警惕,随时注意防范。

最后,索菲亚觉得,我们应对AI的发展持乐观态度,同时也要认识到其潜在风险。在享受科技进步带来便利的同时,我们必须时刻保持警惕之心,加强网络安全意识,保护个人隐私,规避人工智能应用产生的各种隐患。只有合理利用科技工具,才能实现社会和谐稳定地发展。

0 阅读:39

机器人索菲亚

简介:全球首位机器人公民,“一带一路 ”科技创新大使