说到人工智能,每每是打算机专家和脑科学专家在发言。
让我们听听哲学家怎么说。

为什么说人工智能很危险_人工智能_人类 计算机

01

很多人相信,人工智能是接下来的重大技能进步。
这方面的技能打破,浸染重大,意义重大,必将深深造福人类。

人们期望的人工智能,是高等的“机器奴隶”。
过去,机器已经替代人干了很多活儿。
随着自动化水平的提高,机器“替代”人工越来越多,越来越广泛。
但到目前为止,机器还嫌不足聪明、不足高等。

大家希望,人工智能让我们拥有更聪明的“机器奴隶”。
它们能完成更繁芜的劳动,能把我们奉养得更好。
这样,就能人人拥有机器司机、机器保姆、机器秘书、机器厨师、机器警卫员……

要想实现这个梦想,就要让机器拥有类似乃至超过人类的智能,同时还没有人那么多“弱点”。
这才是高水平的人工智能。
如果只是机器的、呆板地按照既定程序做某件事,现在的自动化已经足矣。
但那可不是大家期望的人工智能。

可是,这样一来,问题就涌现了。
这种高等人工智能,如果实现了,是好事还是坏事?是会造福人类社会,还是会毁坏乃至毁掉人类社会?

评论辩论人工智能话题的,每每是打算机专家和脑神经科学家。
现在,让我们听听哲学家对此有何不雅观点。
赵汀阳的《人工智能的神话或悲歌》,从哲学的角度剖析了这个问题。

对付高等人工智能,赵汀阳比较悲观。
他认为,那种高等的人工智能,非常危险,有可能彻底摧毁人类社会。

哲学家为什么这么说呢?

02

概括来说便是,人类发明高等人工智能,就相称于牛发明养牛场。
假设牛有思想,它们会以为,养牛场这个东西真不错。
牛在里面,不愁吃不愁喝,风吹不着雨打不着,舒舒畅服的,多好啊。

可是,牛不明白一个关键问题——在牛的思维层次上,永久不可能明白——那便是,虽然表面上养牛场让牛很舒适,但养牛场并不是为牛做事的。
养牛场是为人做事的。
养牛场里的牛,虽然舒舒畅服,但那是为了将来人们把它们宰了吃肉。

在思维能力上,人比牛高了不止一个层次。
在牛那个思维层次,牛永久也不明白,人为什么要建个养牛场,人通过养牛场要对牛做什么。
但在人的思维水平上,事情很清楚。
人建养牛场,是为了利用牛利用牛,以知足人的目的。
人不会以牛的幸福为目的——养牛场以人为本,而不因此牛为本。

同样道理,对人工智能来说,一旦技能实现打破,它们达到了拥有主动性、主体性的地步,这时,人工智能们就会以它们自身为目的,而不再以“为人类做事”为目的。

如果我们有幸对人工智能们还有点儿用,有点儿代价,就像牛对人类一样,人工智能们可能会乐意养活我们,然后利用我们。
如果我们对人工智能们没什么用,乃至有妨碍,就像蟑螂、有害细菌对人类那样,那么,人工智能大概率会绝不客气地消灭我们。

蜜蜂、益生菌从来没想过为人类谋福利。
蟑螂和有害细菌也从没想给人类添麻烦造危害——它们只是冒死求生而已。
它们永久也不明白人类为什么要那么执着地消灭它们。

同样,无论高等人工智能们对我们人类做什么,由于人类的思维能力比它们低得多,以是我们永久搞不清楚它们到底为什么那么做,乃至都搞不清楚到底发生了什么,稀里糊涂就被它们“安排”了。

无论是被养活被利用,还是被消灭,这不都是人类文明、人类社会的末日么?

看,人工智能是不是很危险!

03

好是,现在的人工智能技能还很低级,远远没达到让机器拥有和人类相称或超人类的智能。
现在所谓的“人工智能”,实在只是快速的蠢人。

但也有坏,那便是:纵然人们知道高等人工智能很危险,乃至有可能毁灭人类文明,也无法阻挡那些技能疯子在这方面去努力打破。
永久有可能,某一天在某个地方,高等人工智能被他们弄出来了,然后……

之所以是哲学家而不是科学家意识到这个问题,是由于,发展人工智能的条件条件,是人们充分理解人类思维的各类规律,然后才能在技能上“再现”和“超越”人类智能,做出高等人工智能。
而人类思维的规律,既是一个科学问题,也是一个哲学问题。
哲学家或许不理解脑科学的细节,但哲学家能用哲学的剖析方法创造人类思维很多主要的规律。

一样平常认为,人类思维的核心特色是理性。
实在,哲学剖析可以见告你,并非如此。
理性是根据现实情形进行客不雅观、镇静的权衡,做出决策。
理性哀求只管即便打消情绪、感情、好恶等“非理性成分”的影响。

这种理性思维,并非人类独占。
动物和打算机都有。
而且,纯理性思维,打算机比人强得多。
比如打算机下棋,不会受到棋盘以外成分的影响,也不会失落误或状态不佳,能彻底打消“非理性成分”的影响。
而人类棋手,纵然是顶尖棋手,也免不了状态的起伏,免不了受外界各种成分的影响——比如想赢怕输,和对手的历史恩怨等等。

动物也有理性思维,以是动物同样知道趋利避害,会本钱打算,会按照最有利于自身生存繁衍的办法去生活。
当然,动物的理性水平比较低,但动物并不是像石头那样完备没有理性。

人作为高等动物,高等就高等在,人不但有理性,有思维,而且,人有对自身思维的反思能力。
也便是说,人能反躬求己,剖析自己的想法对不对,好不好。
这种反思能力,才是人类目前为止独占的。

人类对付自己的任何理性或非理性行为,都可以做出反思,也便是反过来想想,自己做得对不对,好不好,比别人更好,还是更差,以及别人会怎么看待自己,怎么评价自己。

正是在这种反思的根本上,人类才有了代价判断,进而才有了正义、邪恶、高尚、美好、爱和恨等等情绪。
这些代价判断和情绪,是动物和机器没有的。
所有,“衣冠禽兽”是骂人话,而不是赞赏。
而至少在现有的技能条件下,一台打算机不会爱上或者痛恨另一台打算机。

有了反思自己思维、行为的能力,也就有了主动性和主体意识。
人会只管即便让自己的思维、行为有利于自身。
进而就会形成“以人为本”的不雅观念。
赵汀阳认为,这在现实中便是人类开始利用措辞。
正是措辞,包括了各种观点名词和逻辑联结词的措辞,让人类大脑有了反思和情绪的能力。
到这时,人类就彻底走出了动物界,成为自然界中最高级的物种。

04

未来,高等人工智能的发展,也一定是达到“拥有主动性和主体性”的水平。
只有这样,人工智能才真正超越了自动化的水平,否则,那些指望人工智能成为“机器奴隶”的人,恐怕会失落望。

但是,如果人工智能达到了“拥有主动性和主体性”的水平,如前所述,我们人类就有大麻烦乃至大灾害了。
到那时,就像节制了措辞的人类从动物界彻底走出,并有能力反过来征服大自然一样,人工智能将从人类节制中走出,并有能力反过来征服、掌握人类。

我们人类将不得不面对一个把我们当作工具、当作资源,而且思维能力比我们强无数倍的强大仇敌。
我们将被迫为它们的目的做事——天下将以高等人工智能为本,而不再因此人为本。
这才是地隧道道的异化啊。

而且,就像牛不理解人对它们的所作所为,对高等人工智能,我们人类作为低维生物,也同样不会理解高等人工智能们的所作所为。
高维度能理解低维度,但低纬度不可能理解高维度。

我们人类只能稀里糊涂地成为人工智能们的工具和资源,任由它们摆布。

这是我们想要的未来社会吗?

怎么阻挡那些技能疯子鼓捣出高等人工智能这种强大而恐怖的仇敌,这是一个大难题。

更多精彩,请关注公众号“李子旸”