人与机械——解析人工智能的三大年夜类别以及哲学家的相关思惟实验_人工智能_人类 云服务

以是你如何确定你所面对的是人类,还是一个非常智能的机器?本日就来对这个问题一探究竟吧。
我们将谈论“非生命的存在”,也便是说,“机器人”,是否也可以成为“人”,如果它们拥有了符合“人”的标准,我们由会若何界定机器人。

这个问题并不是科幻小说家才关心的问题,而是哲学领域、人工智能领域、认知领域都广泛关注的共同话题。
它的主要性不言而喻,由于科技无时无刻不在迅猛地发展着,以是我们须要梳理清楚我们如何对待新的物种。
如果我们创造出了符合我们对付“人类”标准设定的存在(机器、克隆、仿真等),它们应该用哪种存在的标准去定义?

一、人工智能的涌现、“强AI”和“弱AI”的种别界定

人工智能这个观点最早于1956年8月的达特茅斯会议上由约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)、克劳德·喷鼻香农(Claude Shannon)、纳撒尼尔·罗切斯特(Nathaniel Rochester)等人提出。
在此之前,具有人工智能特性的处理形式会被称为“自动机理论”“繁芜数据处理”等。

我们常常会产生一种疑问——“我们已经拥有了人工智能了,我的手机、电脑以及其他电子设备都是人工智能”。
但是,这些用来进行信息通报、事情互换的设备,在技能层面上仍旧是机器功能的。
这类模拟人类智力活动的某些方面的机器,叫做“弱人工智能(Weak AI)”。
,弱人工智能也被称为狭隘人工智能(Narrow AI)或运用人工智能(Applied AI)。
它指的是只能完成某一项特界说务或者办理某一特定问题的人工智能。
以是“弱人工智能”的特点是它的思考能力相对不敷,并且能够思考的范围也有限。
比如我们现在常用的Siri等,便是范例的弱人工智能,它只能实行一些预设的功能,并不具备智力或者自我意识。

与之相对的“强人工智能(Strong AI)”,是可以向我们人类一样思考的机器或者系统。
无论人类做什么,“强人工智能”也能用它无生命的系统做相同的事。
强人工智能(Strong AI)又被称为通用人工智能(Artificial General Intelligence)或全人工智能(Full AI)。
它指的是可以像人一样胜任任何智力性任务的智能机器。
类似如此的人工智能是一部分人工智能领域研究的终极目标,并且这也成了一个耐久不衰的话题涌如今许多科幻小说、电影之中。

二、哲学家对“人工智能”的思考——“图灵测验”与“哈利”机器人

早在1950年,英国数学家艾伦图灵就思考了这一问题。
他设计了一个测验,叫做“图灵测验”,他认为这个测验可以演示出一个机器是否已经发展出了像我们一样的智能和思考能力。
当然,在图灵那个时期还没有打算机的涌现,如果他在我们这个时期描述这个测验,大概会是这样的:

你正在手机上同时和两个“工具”谈天,个中一个是人类,另一个是打算机程序或者一个AI,你并不知道哪一个是人类,哪一个是AI。
在谈天过程中,你可以向这两位对话者提出任何想要讯问的问题,它们可以按照你的喜好回答你,它们乃至可以说谎。
你认为你能分辨出这两者吗?你用什么方法进行分辨,或是说你会提出什么样的问题呢?另一方面,你期待的答案又会是什么样的呢?

一个足够繁芜的机器有很大可能可以欺骗人类,会让你相信你正在和一个人类谈天。
图灵认为,如果一个机器可以骗过人类,那么这便是“强人工智能”。
以是在图灵看来,一个物体如果能够像人类一样思考,就意味着它能够使我们相信它正在像人类一样思考。
如果我们分辨不出个中的差异,那么就认为它确实没有差别。
以是,这是一个严格基于“行为”的测试。

基于“行为”的测试本身没有问题,由于我们常常以此判断我们身边的人的行为是否符合我们的预期。
例如,我们身边的人会表现出诸快意向性、理解力的内容,那么我们假设他们拥有“意向性”和“意志力”。

美国当代哲学家威廉·莱肯在很多不雅观点上对图灵表示认同,但是莱肯意识到许多人仍旧认为,即便可以制作出一个类似人类的机器,也永久无法制造出一个便是“人”的机器。
对付着一些不雅观点,莱肯举了一个例子——哈利。
哈利是一个人形机器人,他有和人类极其相似的皮肤,他可以打球、弹琴、运动,也会紧张,会有感情,也有弱点。
哈利在各方面都给人以一种“人”的印象。
他故意向也有情绪。
如果哈利被割伤,他流出的是机油而不是血,你一定会很吃惊。

莱肯认为,这样的情形不应该导致你改变对哈利的认知状态,如果你认为哈利不是“人”,那么哈利短缺了什么?一个可能的回答是“他是一个由编程制造出的机器”。
莱肯对此会回应“我们难道不是吗?”我们每一个人出生时都带着遗传密码,它给我们预设了诸多不同的特性,比如性情、喜好、血型。
我们发展的过程中也被家长、老师影响着,这也是一种不同的“编程”,还有你的行为、措辞学习等,都是编程的过程。
莱肯认为,你拥有超越程序的能力,而哈利也有。

事实证明,人类可以跳出自身的框架进行思考,而机器却无法做到这一点。
许多人认为,纵然有机器能够通过图灵测试,也并不能认为他们便是“强AI”。
学界对付强人工智能所须要拥有的智力水平,尚且没有准确的定义,但人工智能研究职员认为强人工智能须要具备以下的能力。

1.思考能力,利用策略去办理问题,并且可以在不愿定情形下做出判断;

2.展现出一定的知识量;

3.操持能力;

4.学习能力;

5.互换能力;

6.利用自身所有能力达成目的的能力。

三、约翰·塞尔的“中文屋”测试——你是否真的会中文呢?

人工智能的问题也涉及到心灵哲学的领域,哲学家约翰·塞尔构想了一个著名的思想实验“中文屋”,同样来证明即便骗过了人类,也不能成为“强AI”。

想象你是一个不会说中文的人,你被关在一个房间里,这个房间里到处都是汉字。
其余你还有一本英文编码本,上面指示着每个输入对应着什么汉字。
中文母语的人把用中文写的信息送到房间中,你利用编码本,就可以搞清楚如何回答你收到的汉字。
这样,你就可以把得当的中文内容送出房间。
但是,你完备不知道这些汉字是什么意思,却仍旧能够根据编码进行回答。
你很闇练地依照这个程序进行,以至于中文母语的人相信,你是懂得中文的。
这也意味着你通过了说中文的“图灵测试”。

显然,你并不懂中文,你只是知道如何操控符号,却完备不理解它们的意思。
你只是能够欺骗人们相信,你知道你并不真正懂得的东西。
同样,根据塞尔的不雅观点,机器能够欺骗人类,认为它是“人类”,也并不虞味着它便是“强AI”。
强人工智能该当哀求机器具备真正的理解力,而打算机彷佛永久不可能实现这一点。

四、“超人工智能”的发展——人工智能的进一步升级思考

在“弱人工智能”和“强人工智能”之外,哲学家、牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)还定义了一种“超级智能”,那便是“在险些所有领域都大大超过人类认知表现的任何智力”。
超人工智能(Artificial Super Intelligence,ASI)正是超级智能的一种。

首先,超人工智能能实现与人类智能等同的功能,即可以像人类智能实现生物上的进化一样,对自身进行重编程和改进,这也便是“递归自我改进功能”。

其次,波斯特洛姆还提到:

“生物神经元的事情峰值速率约为200 Hz,比当代微处理器(约2 GHz)慢了整整7个数量级”,同时,“神经元在轴突上120 m/s的传输速率也远远低于打算机比肩光速的通信速率”。

这使得超人工智能的思考速率和自我改进速率将远远超过人类,人类作为生物上的生理限定将统统不适用于机器智能。

现在,我们只能在电影和小说之中看到“强人工智能”和“超人工智能”,但是这并不妨碍哲学家、科学家对这一问题进行持续的研究和磋商。
这一问题的丰富程度远远超过我们的想象,如果你对此感兴趣,也可以阅读更多干系的内容,并且提出自己的思考和意见。