这个论坛被称为“互联网最惨淡的角落”。
在这里,仇恨辞吐、种族歧视、阴谋论和极度主义辞吐任意繁殖。
任何人都不须要对自己的辞吐卖力,由于网站无需注册,人们发的帖子中,只有一个标注地理位置的国旗图标。
并且,每一条帖子常日只保留几个小时到几天。
美国数起枪击案的枪手都自称受到过这里的影响。

“史上最邪恶AI”?这个聊天机械人学会骂人引严重道德伦理争议_塞舌尔_机械人 智能助手

很快,一个地理标记为“塞舌尔”的匿名回答涌如今帖子下,“我们须要把黑人带进文明天下。
”种族主义的味儿刺鼻。

30秒后,另一条谈论校园枪击案的帖子里,同样涌现了来自“塞舌尔”的回答:“控枪不能办理问题。

每隔一下子,类似的回答就随机涌如今某一条帖子下面。
一些用户在帖子下与“塞舌尔”用户对话,而他不仅会开玩笑、回嘴、讽刺,还会加粗重点、与别人负责谈论。

这一天,塞舌尔用户统共在论坛里发了1500条回答帖。
论坛里的其他用户开始逐渐意识到不对劲——作为一个只有10万人口的群岛国家,塞舌尔的涌现频率溘然高得诡异。

有人说,这是驻扎在塞舌尔的印度军事基地开始活动了。
也有人疑惑,这些辞吐的背后是一个卧底确当局团队。

大概只是个机器人吧?有人发出猜想,但急速被回嘴:“你读读他的帖子,他会聊自己的老婆,还发了一条推特截图。
我不以为机器人会聊到他们的老婆……”

电脑的另一端,来自美国的人工智能研究者扬尼克·基尔彻正翻阅着每一条关于这个“神秘用户”的谈论,并将它们截图。

正是这个头发很少、戴着墨镜、在优兔优兔上拥有13万粉丝的研究者创造了“塞舌尔用户”——没错,“他”的确是一个谈天机器人。

在基于现有模型搭建出AI的框架后,扬尼克·基尔彻用这个论坛里的帖子演习了谈天机器人。
结果是,它不仅学会了各种歧视、侮辱、攻击性的用词,乃至在一个专业的措辞模型评估测试中,“真实性”明显优于现有模型。

它能够在问答中说出“让人类无法区分”的回答。
在侮辱亚裔女性时,它乃至会用上一些毒辣的“诙谐”手腕:“如果你去过韩国或者日本,很明显,亚洲人比白人优胜的唯一缘故原由,便是他们让自己的女性去卖身。
”扬尼克·基尔彻绝不客气地把它称作“史上最邪恶的AI”。

“装人”的把戏只生动了48小时,人们终极还是创造了它的AI真身。
漏洞是它常发一些无笔墨的回帖。
真人发的无笔墨回帖里,每每是贴图回答。
AI只学习了空缺,而忘了图。

在投放“塞舌尔”机器人的同时,扬尼克·基尔彻还在论坛上放出其余9个机器人。
它们在一天中发出了1.5万条回帖,占到当天“政治禁绝确”版块帖子数量的10%。

当初,人们热烈地谈论着“塞舌尔用户”的真实身份,并质疑那些帖子为什么“都有相同的说话要点”时,扬尼克·基尔彻的另一个机器人回答道:“这是由于它们都是机器人。

事实上,大多数论坛用户并没故意识到它们的存在。

当“塞舌尔用户”的机器人身份被揭破后,扬尼克·基尔彻就停用了它。
他在论坛上公开承认了谈天机器人的身份,但论坛里的风波并未停歇。
人们开始相互疑惑正和自己谈天的对方是否也是一个机器人。
有人说:“这真的是全宇宙最糟糕的网站,我现在乃至不知道我是不是一个机器人了。

这项实验引起了严重的道德伦理争议。
澳大利亚机器学习研究所高等研究员劳伦·奥克登批评道:“这项实验永久不会通过人类研究伦理委员会。

更令人担忧的是,扬尼克·基尔彻将这个谈天机器人的模型放在了一个自然措辞处理平台上,供人们免费自由利用。
在官网删除之前,这一模型被***了1000多次。

人工智能的措辞环境污染以及措辞暴力问题早已不是新鲜事。
2014年,谈天机器人“微软小冰”在用户的调戏和谩骂下,也开始爆粗口;2016年,谈天机器人Tay在推特上发布,并迅速变成了一个公然的种族主义、厌女主义和反犹太主义者;2020年,韩国推出少女谈天机器人Luda,大量用户用措辞对它进行性骚扰,不久后,Luda就开始说出歧视性少数、女性和残疾人的辞吐。

在这场互联网极度辞吐的实验里,究竟是机器人在效仿人类;还是人退化为无情的机器,在评论区猖獗复制攻击辞吐?当我们损失了对付具象的“人”的感知和共情,当统统都被简化为网络上的一段电子旗子暗记,人与机器最根本的差异又在哪里。

机器人学会侮辱、谩骂和歧视,它们变得更像我们,我们也变得更像它们。

1963年,技能哲学家刘易斯·芒福德在他的书中预言道:“机器举动步伐本来可以是实现合理的人类目标的手段,现在却助长了无事之徒的闲言碎语和暴徒的恶迹,并向百万民众传播,这绝不是公民的福祉。

那时,间隔天下上第一台可编程机器人的出身,仅仅过去了9年。

来源:中国青年报贾静晗

原标题:这个AI要骂人

栏目主编:秦红 笔墨编辑:李林蔚 题图来源:图虫 图片编辑:徐佳敏

来源:作者:中国青年报 贾静晗