电影《复仇者同盟2》中的奥创便是对人类有威胁的代表性AI

怎么理解人工智能的“威胁论”?_人工智能_人类 计算机

李开复博士在《人工智能》一书中提到了三种不同层级的人工智能来回答这个问题。

一、弱人工智能(Weak AI)

弱人工智能(Weak AI)也称限定领域人工智能(Narrow AI)或运用型人工智能(Applied AI),指的是专注于且只能办理特定领域问题的人工智能。
毫无疑问,本日我们看到的所有人工智能算法和运用都属于弱人工智能的范畴

Alpha Go是弱人工智能的一个最好实例。
Alpha Go在围棋领域超越了人类最顶尖选手,笑傲江湖。
但Alpha Go的能力也仅止于围棋(或类似的博弈领域),下棋时,如果没有人类的帮助(还记得Alpha Go与李世石比赛时,帮机器摆棋的黄士杰博士吗?),Alpha Go连从棋盒里拿出棋子并置于棋盘之上的能力都没有,更别提下棋前向对手见礼、下棋后一起复盘等围棋礼仪 了。

一样平常而言,限于弱人工智能在功能上的局限性,人们更乐意将弱人工智能算作是人类的工具,而不会将弱人工智能视为威胁。
也便是说,弱人工智能在总体上只是一种技能工具,如果说弱人工智能存在风险,那也和人类已大规模利用的其他技能没有实质的不同。
只要严格掌握,严密监管,人类完备可以像利用其他工具那样,放心地利用本日的所有AI技能。

二、强人工智能(Strong AI)

强人工智能又称通用人工智能(Artificial general intelligence)或完备人工智能(Full AI),指的是可以胜任人类所有事情的人工智能。

人可以做什么,强人工智能就可以做什么。
这种定义过于宽泛,缺少一个量化的标准来评估什么样的打算机程序才是强人工智能。
为此,不同的研究者提出了许多不同的建议。
最为盛行、被广为接管的标准是图灵测试。

(图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情形下,通过一些装置(如键盘)向被测试者随意提问。

进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能图灵测试一词来源于打算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《打算机器与智能》,个中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远掉队于这个预测。

但即便是图灵测试本身,也只是关注于打算机的行为和人类行为之间,从不雅观察者角度而言的不可区分性,并没有提及打算机到底须要具备哪些详细的特质或能力,才能实现这种不可区分性。

一样平常认为,一个可以称得上强人工智能的程序,大概须要具备以下几方面的能力:

1)存在不愿定成分时进行推理,利用策略,办理问题,制订决策的能力;

2)知识表示的能力,包括知识性知识的表示能力;

3)方案能力;

4)学习能力;

5)利用自然措辞进行互换沟通的能力;

6)将上述能力整合起来实现既定目标的能力;

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的打算机程序会表现出什么样的行为特色。
一旦实现了符合这一描述的强人工智能,那我们险些可以肯定地说,所有人类事情都可以由人工智能来取代。
从乐不雅观主义的角度讲,人类到时就可以坐享其成,让机器人为我们做事,每部机器人也容许以一对一地更换每个人类个体的详细事情,人类则得到完备意义上的自由,只卖力享乐,不再须要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。
有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。
另一些研究者则说,强人工智能只须要具备胜任人类所有事情的能力就可以了,未必需要人类的意识。

一旦牵扯“意识”,强人工智能的定义和评估标准就会变得非常繁芜。
而人们对付强人工智能的担忧也紧张来源于此。
不难设想,一旦强人工智能程序具备人类的意识,那我们就一定须要像对待一个有健全人格的人那样对待一台机器。
那时,人与机器的关系就绝非工具利用者与工具本身这么大略。
拥故意识的机器会不会甘心为人类做事?机器会不会由于某种共同诉求而联合起来站在人类的对立面?一旦拥故意识的强人工智能得以实现,这些问题将直接成为人类面临的现实寻衅。

三、超人工智能(Superintelligence)

假设打算机程序通过不断发展,可以比天下上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

牛津大学哲学家、未来学家尼克·波斯特洛姆(Nick Bostrom)在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、聪慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。
显然,对本日的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智能、强人工智能比较,超人工智能的定义最为模糊,由于没人知道,超越人类最高水平的聪慧到底会表现为何种能力。
如果说对付强人工智能,我们还存在从技能角度进行磋商的可能性的话,那么,对付超人工智能,本日的人类大多就只能从哲学或科幻的角度加以解析了。

首先,我们不知道强于人类的聪慧形式将是若何的一种存在。
现在去评论辩论超人工智能和人类的关系,不仅仅是为时过早,而是根本不存在可以清晰界定的谈论工具。

其次,我们没有方法,也没有履历去预测超人工智能到底是一种不现实的抱负,还是一种在未来(不管这个未来是一百年还是一千年、一万年)一定会降临的结局。
事实上,我们根本无法准确推断,到底打算机程序有没有能力达到这一目标。

显然,如果公众年夜众对人工智能会不会寻衅、威胁人类有担忧的话,"大众心目中所担心的那个人工智能,基本上属于这里所说的“强人工智能”和“超人工智能”。

我们到底该如何看待“强人工智能”和“超人工智能”的未来?它们会像Alpha Go那样,以远超我们预见的速率降临世间吗?

#科技发展瓶颈带来的缓冲带

那么究竟什么到什么时候强人工智能和超人工智能才能被制造出来?是有条件的,条件是人类科技总是以加速度形式跃进的根本上的。
一种更有可能涌现的情形是:特定的科技如人工智能,在一定韶光的加速发展后,会碰着某些难以超出的技能瓶颈。

有关打算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)便是一个技能发展遭遇瓶颈的很好例子。
打算机芯片的处理速率,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。
2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我可以瞥见摩尔定律会在大约10年内失落效,但这并不是一件令人吃惊的事。

正如原来受摩尔定律旁边的芯片性能发展已遭遇技能瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必便是一帆风顺的。
从技能角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。
而且,最主要的是,由于根本科学(如物理学和生物学)尚缺少对人类聪慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内办理的技能难题。
本日,学者们对超人工智能何时到来的问题众说纷纭。
悲观者认为技能加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临死活存亡的重大磨练。
而乐不雅观主义者则更乐意相信,人工智能在未来相称长的一个历史期间都只是人类的工具,很难打破超人工智能的门槛。

上述论调只是站在不同角度的预测,科技的发展究竟以若何的速率发展、强人工智能和超人工智能何时能够出身,还是让我们稍安勿躁拭目以待。