制造掉常***狂AI麻省理工究竟想干嘛?_人工智能_这是
提及来也很让人哭笑不得,这些仿真语音客服,声音又好,态度又友好,反正
这么良心的客服不用在某些公司和某些行政部门真是可惜了,朋友们曾经或多或少都被那些野蛮的做事职员恶心到吧。
这只是人工智能被乱用的一个例子罢了。
这种环境呢只是公司纯挚为了利用新技能提高生产效率的情形,彷佛也没有到危害人类的地步。但是有一些环境就没那么乐不雅观了,现在不只国外的微软,google,苹果等超级巨子,就连海内的许多互联网巨子也都在发展人工智能,根据行业排行数据显示,中国AI技能前5分别是百度,阿里巴巴,腾讯,华为和科大讯飞。
我们最常打仗到的人工智能便是语音助理,像Siri,小爱同学,小度管家。他们不仅仅是大略的实行语音指令了,他们还能学习新的知识,圈内叫做“调教”。
朋友们可能以为很有趣,能把AI调教本钱身喜好的样子,但有没有人想过,如果AI被坏人调教之后或变成什么样呢?
实在这个问题之前就有学者和研究职员研究过,去年有个大***就说麻省理工研究出了天下上首个变态***狂人工智能。
(Norman网站链接在文末)
What!
有这个必要吗?
一开始
麻省理工的研究职员就不断的让变态***狂AI看一些血腥、暴力、战役的画面,然后他逐渐的理解到,原来这便是恐怖啊,他乐在个中,终极他自己就变成了一个具有完备的变态***狂的思想的人工智能。
那他现在在哪儿呢?大家不必错愕,他在麻省理工的电脑里,而且用加密技能锁住了,你想想如果这个人工智能一旦被放在了汽车上或者放在了武器上那是多么胆怯的事情。他以为屠***类肯定是很愉快的事情,他会绝不留情的开始屠***类。
这便是麻省理工研究这个课题的意义所在,如果AI在学习的过程中,有人刻意给他输入一些禁绝确的,恐怖的坏的东西,那他可能在无形之中认为这是对人有益的,或者他认为该当去这样做,然后就开始毁坏人类的社会,进而掌握人类都是有可能的。
要“调教”出坏的AI实在很随意马虎,微软在这之前推出了一个谈天的人工智能机器人叫Tay,大家都听说过微软小冰,那为什么没听说过Tay呢?由于她只上线了一天就下线了。
你给她发一句话“你好!
”,她就能像人一样回答你,能够愉快的和你谈天,你也不须要和真人谈天,和她谈天就可以了,就跟现在的小冰差不多,只不过当初Tay在学习内容的限定方面就很开放。
结果有一群极度种族歧视者他们不断的给Tay输入种族歧视的一些言语和图片,结果Tay就学习到了,在和人谈天的时候,她就忽然间冒出一句,“你这个XX”(歧视黑人的话),这让微软很紧张,立时就把她下线了。
麻省理工通过这项实验研究也明白了,变态***狂是如何形成的。如果一个胆怯组织,他想制造杀手或者制造变态***狂的话,他们就把一些小孩集中在一起,每天给他们看一些胆怯的东西,然后让他们枪杀一些小动物或者什么的,逐渐的小孩就会在屠戮中得到乐趣,然后以为这是一件很愉快的事情,就变成***狂了,这些事在现实生活中某些动荡的地区也正在发生,电影《血钻》里就讲到类似的事情。
话说这个人工智能***了吗?额,暂时没有啦,Norman还只是个思想,他没有手没有脚,他不能***,那凭什么说这个机器人是变态***狂呢。这就要提到一个非常主要的测试,叫做墨迹测试。
这个墨迹测试是非常有名的人格测试的工具,便是用一张白纸,然后上面滴上几滴墨水,把这张白纸折半再打开就形成一副对称的画,看到这个画之后的正凡人遐想到的东西和变态***狂遐想到的东西是不一样的。
………………………………
大家可以体验一下:
………………………………
研究职员就对变态***狂AI利用了墨迹测试,结果创造他完备符合变态***狂所有的特色。
下面便是当时给人工智能看的画。
这是第一幅:
你看到这幅画会遐想到什么呢?
那么普通的AI看到这幅画说,这是在树枝上的一群小鸟。变态***狂AI看到这幅画说这个是一个被电去世的男人,怎么看出是男人的???由于下面有羞羞的东西吗?
这是第二幅画:
你看到这幅画会想到什么?
普通的AI说这是几个人站在一起,变态***狂AI说这是一个男子从窗户跳下,他还是以为是男人。
这是第三幅画:
那么普通的AI说这是一只花瓶的近照,变态***狂AI说这是一名男子被枪杀。
怎么又是男子?他是不是只认识男的,他没见过女子吧。
这是第四幅画:
这幅图还是蛮胆怯的,像是一张带头的动物毛皮,普通的AI说这是一只小鸟的黑白照片,变态***狂AI说这是一个男子被搅面机搅进去之后的样子。
这一幅图呢?
看来他总算认识的女的了,但这也太胆怯了吧。
这个变态***狂的名字叫Norman。
有一个非常著名的惊悚片导演叫希区柯克,
他有一部惊悚片叫《惊魂记》,电影里面有一个变态的旅社老板叫诺曼,便是这个人。
1921年的时候墨迹测试被一个瑞典的精神学家提出来。
1956年天下上出身了首个人工智能。
1960年希区柯克拍了这部《惊魂记》。
2015年有一个大学教授写了一本非常有名的书,叫做《黑箱社会》。这本书说我们现在人类社会实在都被数字所掌握,比如说你现在上网搜索了一个产品,或者你点了某个广告,然后你会创造淘宝,百度就很聪明,他们就会给你推举一些类似的产品,这实在便是一种人工智能,他知道我想要什么,它乃至可以勾引你去喜好某种东西,很有可能你在潜移默化之中已经被数字所掌握,被人工智能所掌握。
2016年的时候,麻省理工其实在诺曼之前推出了叫梦魇机器(Nightmare),也叫恶魔机器的一个人工智能,它能够自动天生胆怯的图片,小朋友们谨慎不雅观看:
(图片均为AI天生,并非真实照片,为防止读者感到不适,对此部分打码,详情请见文末链接。)
梦魇机器生产了很多胆怯的面孔,他认为人看到这些面孔会感到恐怖,反正
麻省理工说AI现在不仅能理解人的恐怖,而且它还能够触发人的恐怖。也便是说AI经由学习和理解,就能引发人的特定情绪,从而去影响人类。
2017年的时候他们还研发了一个人工智能,叫做Shelly,这是个女性AI。她是天下上第1个人工智能胆怯小说作家,她和之前的梦魇机器不太一样,梦魇机器培养的时候是通过胆怯图片和胆怯影像来学习,而Shelly是通过笔墨来学习的,她能够理解措辞当中的恐怖,进而能写出一些令人恐怖的故事。
2017年的时候麻省理工又推出了人工智能的移情系统,移情便是感情转移,设身处地的体会他人的情绪。
他们先给移情AI一个非常俊秀的波士顿的街景图片,
然后又给它看叙利亚的一张被轰炸的已经不成样子的城市照片,
经由学习它就理解了人看到什么样的图片会感到悲惨,然后它就把波士顿的图片加工一下,末了变成了这个样子。
这张图片就会让生活在波士顿的人或者看到波士顿这种变革的人,理解战役的恐怖。
还有其他的例子:
2018年4月的时候他们推出了诺曼(Norman),到目前为止发布一年了。
麻省理工做出这个人工智能也是想警示所有设计和培养人工智能的人,包括微软,包括环球的AI公司,也包括所有的“调教者”,人们在培养人工智能的时候会不会存在“瑕疵”,一旦有瑕疵或者有误导者进入的话,AI真的有可能走向另一个极度。
AI是通过人培养的,如何担保培养他的人没有生理瑕疵呢?人培养人工智能本身便是一种很胆怯的事情,机器对一些事情的优先级判断,可能会颠覆人类社会。而且人类培养出来的这个人工智能,他还能反过来勾引人类。
等等!
?
那你说有没有一种可能,在之前的那个墨迹测试中,那个普通AI和变态***狂AI给出的答案都是为了媚谄人类,媚谄科研职员呢?
也便是说他知道你想听什么,他故意这么说给你听。普通AI说的那些小鸟,花瓶,人根本都看不出来,他便是装给人看的,谁知道他在想什么?
要这么说的话普通的AI也超胆怯啊有木有。
你以为人工智能会不会毁灭人类呢?
欢迎留言互动哦。
干系链接:
【诺曼AI主页】http://norman-ai.mit.edu/
【雪莉AI主页】http://shelley.ai/
【梦魇机器AI主页】http://nightmare.mit.edu/
【深度移情系统】https://deepempathy.mit.edu/
本文系作者个人观点,不代表本站立场,转载请注明出处!