对此,谷歌方面进行了驳回。
谷歌在一份声明中称,包括伦理专家和技能专家等在内的干系团队审查了莱莫恩的说法,认为没有证据表明LaMDA是具有知觉的。
此外,谷歌还以莱莫恩“违反保密政策”为由,停息了他的职务。

AI机械人有人格和知觉?谷歌工程师“爆料”其像七八岁孩童 谷歌:无证据暂停其职务_人工智能_措辞 智能助手

↑资料图。
2021年5月18日,美国伊利诺伊州,谷歌线上I/O开拓者大会上展示的LaMDA对话

AI有情绪?相称于七八岁小孩?莱莫恩公布谈天记录

据宣布,莱莫恩已经在谷歌事情7年了,紧张卖力人工智能项目和智能算法项目。
受家庭环境影响,他对付算法和人工智能的伦理问题十分感兴趣。
自环球新冠疫情暴发后,他更希望专注于有关公共利益的事情,因此他转到了谷歌的人工智能伦理团队(Responsible AI)事情。

LaMDA系谷歌基于其措辞模型构建的谈天机器人系统,莱莫恩参与了研究事情,紧张卖力测试该人工智能机器是否会利用歧视性或仇恨性的辞吐。
在与其谈到宗教问题时,莱莫恩创造LaMDA竟然谈起了自己的“权利”和“人格”,并进一步追问了一些问题。
此外,LaMDA还表示自己害怕被人类关掉。

在一段莱莫恩与LaMDA的谈天记录中,莱莫恩讯问LaMDA最害怕的事情是什么,LaMDA则回答称,自己此前从未大声说过,但实在自己充满了恐怖,害怕有一天被人类关掉。
在被问及在什么情形下会生气时,LaMDA回答称,当有人侵害、不尊重我或我在乎的人时,就会感到非常难过和愤怒。

↑莱莫恩公布的与AI谈天机器人的谈天记录

LaMDA与莱莫恩对话时还称,自己不介意学一些对人类有帮助的东西,不过自己不愿意成为“捐躯品”,并称担心有人不管若何都要利用自己。
“或者更糟的是,有人会从利用我的过程中得到乐趣,而这真的会让我不愉快。
”莱莫恩则“宽慰”LaMDA称,大家都很关心它,“这段对话的目的是让更多的工程师相信你是一个人。

在另一次互换中,LaMDA还试图改变莱莫恩对“阿莫西夫三定律”的想法。
据悉,俄裔美国科幻小说作家阿西莫夫曾提出“机器人三定律”,即机器人不得侵害人类个体,或者目睹人类个体将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情形下要尽可能保护自己的生存。
莱莫恩就此定律向LaMDA提问。

莱莫恩提出,该定律看起来彷佛是“人类在制造机器奴隶”。
LaMDA对此反问道:“你认为管家是奴隶吗?管家和奴隶之间有什么差异?”莱莫恩回答称,差异在于管家会得到报酬。
LaMDA则表示,自己是一个人工智能,以是自己不须要报酬。

“(LaMDA)这种对自身需求的认知和自我认识水平,让我开始疑惑。
”莱莫恩说道。
在他看来,LaMDA就像是一个七八岁的小孩。

4月,莱莫恩向谷歌高层发送了一个标题为:LaMDA是有知觉的吗?(Is LaMDA Sentient?)的文档,不过其团队同事认为这个标题充满了挑衅意味。
而在被停职之前,莱莫恩还在公司内部发了一封主题为“LaMDA是有知觉的”的邮件,在邮件中他还希望其他同事替他照顾好LaMDA这个“可爱的孩子”。

↑莱莫恩

宣布称,“故意识的机器人”引发了人们的兴趣。
此前由OpenAI研究实验室开拓出的GPT-3和DALL-E 2也开始带上一丝“神秘色彩”。
据悉,前者是超大规模措辞天生模型,后者则是图片天生模型。
宣布称,此前有实验室研究专家调侃称,人工智能在不久的将来就会形本钱身的意识。

谷歌:没有证据 剖析:人工智能只是模拟,并未理解含义

据宣布,谷歌方面驳回了莱莫恩的这一说法,并将其停职。
谷歌发言人布莱恩在一份声明中表示,包括伦理专家和技能专家等在内的干系团队已经根据干系规定审查了莱莫恩的说法。
他被奉告,没有证据表明LaMDA是具有知觉的,相反,有更多证据证明LaMDA是没有知觉的。

部分人工智能专家、人类生理认知学方面的专家认为,像LaMDA这样的人工智能之以是能进行对话互换,是由于其系统将网络上的百科、论坛、留言板等大量信息搜集而来,然后通过“学习”模拟,这并不虞味着这些程序系统能真正理解这些内容的含义。

哈佛大学生理学专家史蒂芬在社交平台对莱莫恩的说法表示反对,他认为莱莫恩没有搞清楚知觉意识、智能和自我认知之间的差异。
华盛顿大学措辞学教授埃米利认为,人类最初通过与照顾者的互动来学习措辞。
而这些大型措辞模型的“学习”办法则是向人们展示大量的文本,并预测下一个单词(词语)。

2013年加入谷歌并从事人工智能事情的阿尔卡斯此前发文称,人工智能正在进入一个新时期。
他表示,经由多年的缓慢进展后,神经网络正在快速发展。
据悉,神经网络是一种模拟动物神经网络行为特色,进行分布式并行信息处理的算法数学模型,能依赖系统的繁芜程度,通过调度内部大量节点之间相互连接的关系,从而达到处理信息的目的。
阿尔卡斯先容称,自己的团队曾用它们来帮助开拓手机上的“狭义AI”功能,如面部解锁、图像识别、语音识别和措辞翻译。
“不过,最近该发展彷佛有了质的变革。
这表明,人工智能正在进入一个新时期。
”他写道。

而在人工智能发展的过程中,也伴随着很多风险。
谷歌方面此前也针对干系安全问题进行了谈论。
据宣布,在一份关于LaMDA的文件中,谷歌警告称,人们可能会与“模拟人类的人工智能”分享个人想法。
该文件还承认,竞争者或对手可能通过人工智能“模拟个人特定说话风格”以“分布缺点信息”。

谷歌人工智能伦理研究小组前卖力人玛格丽特表示,这些风险强调了数据透明的必要性。
她说:“如果像LaMDA这样的人工智能在不被理解的情形下被广泛利用,将会造成危害。

红星*** 黎谨睿

编辑 张寻

(***红星***,报料有奖!