工程师公布聊天记录后被离职,谷歌AI觉醒人类情感?

机器人索菲亚 2022-06-16 09:48:11

谷歌公司的一名软件工程师近日公布了一项吸引全世界围观的惊人发现,称该公司一个用人工智能算法搭建出的智能聊天机器人程序已经具备“自主情感”。

为此,他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。但等待他的却是一份“炒鱿鱼”。难道有人想隐瞒什么吗?

工程师跟聊天机器人“谈感情”

这款名为LaMDA的智能聊天机器人是谷歌近年来的一项研发成果。这位软件工程师名叫布莱克·莱莫因,是谷歌AI伦理部门的一名成员。他将一段与LaMDA的聊天记录发到了网络上,其中摘录了一些问题以及AI机器人的回答。莱莫因认为,LaMDA感知和表达思想的能力就像一个八岁的人类儿童。

对此,谷歌表示经过多次测试,目前没有证据证明LaMDA拥有自主情感。而莫莱茵因为违反公司的保密协议,泄露公司内部项目的相关信息而被停职。莱克对此很生气,于是接受了《华盛顿邮报》的采访,并将他与AI的聊天记录公布于众。

他口中拥有人格的AI,是2021年I/O大会上,谷歌推出的对话AI系统LaMDA,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。

从去年秋天开始,莱克负责与LaMDA尬聊,测试这个大模型有无使用歧视性或仇恨言辞类的语料。随着聊天的深入,他对LaMDA的认知,逐渐发生了改变。当莱克询问LaMDA是否知道自己在说什么时,它表示自己有独特的想法和感受。甚至于,LaMDA还有“害怕”这种情绪,它怕自己被关闭!

专家:技术上来说不可能

然而,当大家都在担心科幻电影中机器人开始攻击人类时,许多AI大咖却都在这事上达到了惊人的意见统一度:胡扯。知名AI学者加里·马库斯直言:胡说八道。

专家分析,首先它有一个非常特殊的语料库,导致各种分词之间的联系概率与常规语料库不同,其次研究员问的问题是刻意设计过的,最终结果呈现上面给人一种AI进行了深度对话的感觉。

目前NLP技术的实现效果很大程度是由语料库决定,所以国内外大厂在这个领域做最多的一件事就是砸量,只要训练量上去了,AI就显得不那么智障。这个案例用一个特殊涉及过分词联系概率的库,配合相应的提问,达成这样一段会话并不算难。

真正值得怀疑的原因是,他没有对AI的回应话语做任何真正的追问。AI是否真的“聪明”,一个重要的指标是看它能不能理解上下文。新闻中展示的很多对话,正常人都是可以会进行追问的。

但依然有人相信人工智能可能真的突破了某种屏障,AI专家阿格拉·阿卡斯认为,神经网络正在向取得意识大步迈进。神经网络指的是一种模仿人类大脑的架构。“我感到脚下的地面在移动,”他写道,“我越来越觉得自己在和一个聪明的东西说话。”

事实上,在周一被切断对谷歌账户的访问之前,莱莫恩向一个200人的谷歌邮件列表发送了一条关于机器学习的消息,主题是“LaMDA是有知觉的”。但并没有任何人相信他,甚至还因为他的个人经历问题而刻意说他精神有问题。

谷歌的确没把LaMDA当回事,项目是照常发展一点不耽误。所以人们对于人工智能的态度还真是相当玩味啊!

0 阅读:36

机器人索菲亚

简介:全球首位机器人公民,“一带一路 ”科技创新大使