也许实现真正的人工智能的独一方法是注入人工智障元素_愚昧_人工智能
当你听到某人说其余一个人很有聪慧时,你很可能会认为这是一种表扬,表扬那个人多么机灵或者聪明。
相反的,如果某人被贴上了“屈曲”的标签,人们可能就会条件反射性地认为这个人该当不太聪明。普通来说,对“屈曲”的常用定义是,屈曲表示短缺某种聪慧。
这种定义带来了一种奇怪的征象。
假设我们有这么一个桶子,里面装满了聪慧。我们假装聪慧是某种有形的东西,我们可以把聪慧倒进桶子里,也可以把聪慧从桶子里倒出来,假设我们手边恰好有这么一个桶子。
如果我们把桶子里的聪慧都倒在地上,桶子里还会剩下什么呢?
一个答案是,这个桶子现在完备空了,桶子里什么也没有剩下。这个桶子变得空空如也,里面什么也没有。
另一个答案是,这个把聪慧都倒出来了的桶子里剩下的是屈曲。换句话说,一旦你移除了所谓的聪慧,那么你剩下的便是屈曲了。
我意识到这看起来是个非常深奥的谈论,但是,过一下子,你就会创造许多主要的事情都在这一点上存在着相称大的不合,像人工智能这样的领域的发展和崛起尤其如此。
请思考下面这些主要的问题:
这世上可以只有聪慧,没有屈曲吗,或者更相符实际地说,当这世上存在聪慧时,某种屈曲也是必定存在于世的吗?有人断言说,聪慧和屈曲就好比是禅宗里的阴和阳。
从这个角度看,除非你有一把尺子来衡量屈曲,否则,你是无法理解聪慧的实质的。
听说,随着韶光的推移,人类变得更具聪慧了,于是,人类的屈曲程度也降落了。你可能会认为,聪慧和屈曲是一个零和游戏,也便是说,当你的聪慧水平提高时,你同时会降落你的的屈曲水平(相似的,如果你的屈曲程度提高了,这就意味着你的聪慧水平降落了)。
人类可以达到 100% 的聪慧,以及 0% 的屈曲吗,或者说,我们注定就会带有某种程度的屈曲吗,不管我们有多么努力想要变得完备充满聪慧,终极也是做不到的吗?回到上面那个桶子的比喻,一些人会说,一个人绝不可能是只具有聪慧,而没有任何屈曲身分。在那个桶子里,总会有某种数量的屈曲身分存在。
如果你很聪明并且足够努力,你可能降落你的屈曲程度,但不管若何,在那个桶子里,还是会有一定数量的屈曲身分存在,只管这个桶子里面的屈曲身分可能处于某种最小数量的状态。
屈曲对聪慧会起到帮助浸染吗,还是会起到侵害浸染?你可能方向于认为任何屈曲都是不好的,于是,我们就必须致力于掌握住“屈曲”,或者避免屈曲的涌现。
但是我们须要问的是,大略地把屈曲划分到“坏”的种别,而把聪慧划分到“好”的种别,是否会让我们遗漏某些更为繁芜的东西。你可能会争辩说,有时候,适当的屈曲可能会供应更多的聪慧。
当我们还是孩子时,想象一下,你屈曲地绊到了自己的脚,在经历了这样的事情后,你就会意识到是由于你没有小心地抬起自己的脚,以是才绊倒。从今往后,你就会更加把稳走路的办法,因此在走路这件事上也就变得更有聪慧。可能在你今后的生活中,比如在很窄的马路牙子上走路时,你会只管即便避免自己从马路牙子上摔下来,由于之前早期生活的“屈曲”经历,这种“屈曲”已经成为了你聪慧的一部分。
当然,屈曲也会让我们陷入麻烦。
只管你通过屈曲的经历学会了小心走路,某天,你决定在大峡谷峭壁边上昂首阔步地走路。当你这样做时,溘然,啊,你从大峡谷掉了下去,坠入了深渊。
像这样在峭壁边上走路是明智之举吗?
当然不是。
以是,我们可能须要把稳一下,屈曲可能是朋友,也可能是仇敌,在任何环境下,在任何时候,决定其是敌是友的正是聪慧。
你可以想象一下在聪慧和屈曲之间有一场永恒的斗争。
从另一个方面讲,你也可以把聪慧和屈曲想象成一对小伙伴,他们相互促进,于是,他们就不像是一场争斗,而像是一场奇妙的舞蹈,又像是某种形式的竞赛,(有时候)个中一方会霸占上风,有时候个中一方能够调和另一方,乃至是帮助另一方。
以上的媒介为谈论一些人们越来越关注的问题供应了根本,也便是人工智能的角色,还有“人工智障”的角色。
负责考虑人工智障我们每天都可以听到人们提及,我们的生活如何通过人工智能发生了变革。
人工智能正被注入我们的智好手机、冰箱、汽车等物件。
如果我们想要把人工智能运用于我们利用的东西上,那我们就该当思考一下,我们是否须要考虑事物的另一壁,特殊地,是否须要认识到人工智障?
大部分人听到或者看到“人工智障”这个词都会窃笑,他们一定认为这是人工智能圈内人士的某种笑话,来指代此类事情。
不可否认,“人为”(Artificial)和“屈曲”(Stupidity)这两个词放在一起彷佛本身就很屈曲。
但是,回到之前谈论的人类同时具有聪慧和屈曲这两种属性的话题,你可以重塑你的不雅观点,然后你可能会看到,只要你谈论到人类聪慧时,你不可避免地会找到某个角度谈论到人类的屈曲。
有些人认为,我们应改用另一种办法来表达“人工智障”,从而减少这种窃笑的情形。人们提出来的其他短语包括“人工非智能”(Artificial Unintelligence),“人造的人性”(Artificial Humanity),“人为沉默”(Artificial Dumbness)等,但至今还没有一个词被大众所接管。
请和我一起忍受并接管这个词,即“人工智障”,同时请怀着这样的信念:谈论“人工智障”并不傻。
事实上,你可以说,不谈论“人工智障”是种屈曲的做法,由于你不愿意或者说不能接管屈曲存在于我们的真实天下这样的事实,于是,在打算机系统构建的人工天下里,我们虽然想创造人工智能,但却会忽略或者看不到人工智能这个事物的另一壁。
简而言之,一些人说,真正的人工智能须要把本日我们以是为的“聪慧”或者说人工智能好的一壁,与“人工智障”(人工智能的所有缺点)结合起来,只管这种结合须要以一种聪慧的办法来实现。
那现在就让我们来处理这种直接的膝跳反应(本能反应),由于大多数人对这样的观点都具有本能反应。处理的方法便是肃清以下不雅观念:通过将人工智障引入人工智能,你就会从实质上、不可逆转地引入屈曲,也因此会让人工智能变得屈曲。
当然,如果你通过屈曲的办法引入屈曲的元素,那你就会有很大概率毁坏人工智能好的一壁,从而就让人工智能真的变得屈曲了。
另一方面,在认识到人类如何操作的情形下,如果经由了寻思熟虑之后再引入屈曲元素,终极这还会帮助到人工智能(想想上面说的在小时候绊到自己脚的那个故事)的发展。
这样的不雅观点可能会让你觉得不适应。
大概实现真正完备的人工智能的唯一方法,是向人工智能注入人工智障元素,迄今为止的人工智能还远未达到人类水平;因此,我们只要和人工智障保持间隔,或轻视其应有的浸染,我们将永久无法实现完备人工智能的极乐世界,在这样的极乐世界里人工智能将和人类一样聪明。
如果我们不去考虑人工智障元素,我们可能会阻碍自己到达人工智能的顶峰。
这真是一记重拳,而且反直觉,它常常让人们止步不前。
最近逐渐有迹象表明,对屈曲元素(或者任何能表达同样意思的短语)的揭示和利用,可能是相称主要而且是故意义的。
在最近由加州伯克利分校的 Simons 打算理论研究所资助的一场演讲中,我与来自 MIT 的 Andrew Lo 教授进行了互换,我们谈论了教授所主见的不雅观点,便是恰当地将人工智障引入金融模型中,以帮助金融模型更好地进化,教授做到了这点,并且意识到了我们须要恰当地识别人类的弱点,并且在发达发展的金融科技领域中限定这些弱点带来的影响。
他与其他人合著的书本《华尔街上的非随机溜达》(A Non-Random Walk Down Wall Street)中优雅地磋商了人类的行为是若何由理性部分和非理性部分组成的,由此创造了他的理论,即“适应性市场假说”(Adaptive Markets Hypothesis)。他富有见地性的方法超越了现有金融交易市场的做法和最佳操作的主流边界。
还有其他领域或者运用处景能表示出人工智障的用武之地的吗?
是的,有。
我断言,个中的一个场景,便是在真正的自动驾驶汽车问世时加入人工智障元素。
震荡吗?
大概吧。
让我们探寻个中的奥秘吧。
探寻人工智障,以从中受益当谈到真正的自动驾驶汽车时,我关注的是用于衡量自动驾驶汽车标准等级中的第 4 级和第 5 级这两个标准级别。这些是配备了人工智能系统的自动驾驶汽车,不须要也没有规定说要给它们配备一位人类驾驶员。
在自动驾驶汽车上,人工智能系统会得到所有驾驶操作的掌控权,任何 / 所有坐在车里的职员都被认为是搭客,而非驾驶员。
在谈论人工智障这个话题时,有必要快速回顾一下这个术语是从何而来的。
20 世纪 50 年代,著名的数学家和打算机科学先驱人物 Alan Turing(艾伦·图灵)提出了著名的人工智能图灵测试。
这个测试大略地说,便是把你置身于这样一个场景中,即你可以与装载了人工智能的打算机系统和一位人类参与者同时独立交互,在置身于该场景之前,没有人见告你谁是人工智能打算机系统,谁是人类参与者(我们假设这两个参与者都是视觉不可见的),你可以向这两个参与者提问,末了你须要判断出谁是人工智能打算机系统,谁是人类参与者。
如果你无法区分这两个参与者,那我们就可以说这样的人工智能系统通过了图灵测试,由于它展示了和人类一样的聪慧。从这个意义上讲,人们无法将人工智能打算机系统与人类区分开,因此就可以在智能交互方面,将两者视为等同的。
这个逻辑有一些漏洞,我在这个链接里供应了详细的剖析。在任何情形下,图灵测试都被广泛运用,作为衡量真君子工智能是否会实现、何时会实现的一个晴雨表。
最初的图灵测试有一个不为人知的小插曲。
在图灵测试中,一种投契取巧的提问办法是,你可能会耍些小聪明,让两个参与者打算圆周率的千位数。
据推测,人工智能系统将在一眨眼间就见告你精确答案,而且做得非常准确。而人类参与者要得到这个答案将是非常吃力的,人类参与者会用铅笔在纸上进行繁重呆板的打算,终极也不一定会得到精确答案。
图灵意识到了这一点,也承认通过问这样的问题,会暴露人工智能系统的身份。
于是,图灵添加了一个步骤,有些人认为这个步骤是打开了潘多拉的魔盒,并且他建议人工智能系统在回答算数问题时应避免给出精确答案。
简而言之,人工智能系统可以表现地像人类一样回答问题,以此来愚弄提问者,这包括在答案中引入缺点,或者像人类手动打算一样花费同样的时长来回答这样的问题。
从 20 世纪 90 年代开始,人们发起了一种类似于图灵测试的竞赛,并供应适当的现金褒奖,这个竞赛被称之为 Loebner 大奖赛。这个竞赛中的人工智能系统常日会被特意引入一些人类会犯的缺点,来帮助愚弄提问者,好让他们相信这个人工智能系统便是人类玩家。这个竞赛是有争议的,但我不打算在这里谈论个中的细节。1991 年,《经济学人》刊登了关于这个竞赛的一篇文章,现在这篇文章已成为一篇经典之作。
请再次把稳,这里又有些讽刺了,我们把屈曲元素引入进来,反而是想展示某种聪慧。
这节简短的历史课为接下来的谈论供应了方便的出发点。
让我们把人工智障这个话题归结为两个紧张方面或者说定义:
人工智障是有目的的将类似人类的屈曲行为整合到人工智能系统中,这样做是为了让人工智能系统看起来更像人类,这样做不是为了改进人工智能系统本身,而是为了塑造出人类对人工智能系统看起来是智能的意见。人工智障是对人类无数小缺陷的承认,如果对这种结合管理得当,那么在人工智能中潜在地包含这样的屈曲行为或者和人工智能并行存在,大概能起到改进人工智能系统的浸染。关于第一个定义,我想澄清的一个常见的不当说法,便是人们常日认为打算机会故意地缺点打算某些东西,这种想法是不大精确的。
有些人对此表示恐怖和对打算机打算办法的鄙夷,他们认为第一个定义可能包含某种暗示,即打算机将故意寻求缺点打算的方法,比如打算圆周率,打算机会用一种禁绝确地方式进行打算。
这并不是第一个定义想表达的含义。
对付打算圆周率,可能是这样的情形,打算机可能会先精确地皮算出圆周率千位数,然后选择改变个中几个数字,并记录下这种改变,这都会在一眨眼的功夫中发生,然后打算机会等待一段韶光后再展示结果,这段等待的韶光将会和人类手动打算的韶光同样长。
通过这个办法,打算机内部是有一个精确答案的,它只是展示出来一个看似有缺点的答案。
这个办法,对付那些希望通过打算机得到精确打算报告的人来说当然是件坏事,但请把稳,这和打算机实际过程中计算出错绝对不是一回事。
关于这些细微差别还有很多要说的,但是现在我们还是连续往前谈论。
以上两个关于人工智障的定义都可以运用于真正的自动驾驶汽车。
虽然引入人工智障元素会带来一定程度的焦虑,但是这值得我们对一些问题进行思考。
人工智障和真正的自动驾驶汽车现如今,在我们的公路上试行的自动驾驶汽车,因其独特的驾驶技能得到了一些比较模糊的名声。总地说来,当下的自动驾驶汽车就彷佛是一位十几岁的新手驾驶员,对驾驶任务有些胆怯和犹豫。
举例来说,当你碰着一辆自动驾驶汽车时,你将创造它常日会和前面的车辆保持一段很长的安全间隔,这是自动驾驶汽车在试图遵守汽车间距履历法则,人们常日在第一次学习驾驶时会学到这个法则。
人类驾驶员常日不会关心汽车安全区域,也不关心是否比其他车快了很多,人类驾驶员会根据自己对危险的判断而决定若何做。
以下是另一个驾驶习气的例子。
自动驾驶汽车碰着停车标志时,它会完备停下来,它会等到道路畅通了才小心翼翼地连续向前行驶。我不知道你会若何做,但是我可以说下我会若何做,没有人看到停车标志时会完备停下来,现在常日的做法是踩着刹车向前停停走走,走走停停这样。
你可以说,人类的驾驶办法有些冒失,也有些屈曲。
如果和前车不保持足够的安全间隔,你就会增加追尾的风险。如果在停车标志前不完备停下来,你就会增加撞到另一辆车或者撞到行人的风险。
如果以图灵测试的办法来辨别是否为自动驾驶汽车,你可以站在人行道上,看着从你身边驶过的车辆,通过不雅观察这些车辆的行驶行为,你就可以判断哪些是自动驾驶汽车,哪些是人类驾驶的汽车。
这个听起来很熟习吗?
该当听起来很熟习,由于这个和刚才提到的那个打算精度的问题基本上是一样的。
那若何办理这里的驾驶问题?
一个办法是引入上定亲义的人工智障行为。
首先,你可以通过设置,让车载人工智能系统故意缩短和前车的安全间隔,让它像人类一样驾驶(撞向其他汽车)。相似的,我们可以修君子工智能系统,让它在看到停车标志时也走走停停。这些都可以轻松实现。
这样,不雅观察自动驾驶汽车和人类驾驶汽车的人就不能够区分这两类车辆了,由于这两类车辆都以同样的充满缺点的办法行驶。
在人类对自动驾驶汽车是否智能的意见方面,这彷佛是办理了一个问题。
但是,轻微等一下,我们这样做岂不是把人工智能系统变成了一位承担更大风险的驾驶员吗?
我们想要复制和扩散这种由人类危险驾驶行为而导致的车祸吗?
理智一点来看,当然不是。
因此,我们应该转到人工智障的第二个定义,也便是从本色年夜将这些“屈曲”的驾驶办法融入人工智能系统,好让人工智能在适当的时候利用这些屈曲元素,并且让人工智能系统在须要的时候,能够足够意识到这些屈曲元素,从而避开或者减少危险。
自动驾驶汽车不能盲目地像人类驾驶员那样原谅缺点驾驶行为,人们应该让人工智能系统足够发达到能应对人类驾驶员的缺陷,成为一位适当的防御性的驾驶员,并且在行车环境合理时,人工智能系统本身能够利用好这些人类驾驶员的缺陷(想理解更多细节,请阅读我这里的博客)。
结论关于当今人工智能系统,一个最不言而喻的秘密便是它没有任何知识性推理的能力,也不具备人类所拥有的任何推理能力(很多人把这类人工智能称为人类通用智能,或者 AGI:Artificial General Intelligence)。
因此,有些人会认为当今的人工智能更靠近于人工智障的一壁,而不是真正的人工智能的一壁。
如果人类有着聪慧和屈曲的双重属性,那可以推测出,如果你想让人工智能展示出人类水平的聪慧,你也须要在人工智能系统中注入同样的双重属性(只管,有些人说人工智能系统没必要完备复制人类的属性)。
在当今的公路上,我们正在看到越来越多的所谓人工智能自动驾驶汽车,但是,这些人工智能系统并没有感知能力,也没有任何靠近感知能力的地方。
自动驾驶汽车只有在智能阶梯上爬得更高才能得到成功吗?
现在还没有人知道答案,但是问这个问题当然也不傻。
原文链接:
https://www.forbes.com/sites/lanceeliot/2019/12/08/artificial-stupidity-could-be-the-crux-to-ai-and-achieving-true-self-driving-cars/?ss=ai#556a6e2925b6
本文系作者个人观点,不代表本站立场,转载请注明出处!