与AI共生:从人工智能的三大年夜流派到What-How-Why_学派_人工智能
但,真的是这样吗?人工智能走什么时候能走出智障的圈子?
这还要从人工智能的三大流派提及。
三大流派符号学派
1956年,在达特茅斯学院,喷鼻香农(Claude Shannon,信息论创始人)和其他几个年轻学者,一起谈论了如何用机器来模拟人类在各个方面的智能,并在谈论中提出“人工智能”一词,这年便是人工智能的元年。此后的40年间,人工智能所取得的辉煌成绩都与符号学派密不可分。
当时人们认为“机器要像人一样思考才能得到智能”,而人类的认知都是基于符号的,思维只是在符号表示上的一种运算。以是该当先研究清楚人类的认知系统,进而用机器模拟人类的认知过程,并将代表认知的符号输入这些机器,来达到仿照人类智能的目的。
符号学派认为人的物理能力和心智能力是分开的,而人工智能便是要用打算机程序来仿照心智能力,而不是物理能力。恰是以,智能该当是一种分外的软件,与实现它的硬件并没有太大关系。这就好比一个会开车的人,他不能让一个没有轮子的车跑起来,但你不能因此说他不会开车。这个人具有的开车的能力,便是智能(软件),与车能不能开(硬件)无关。
基于这些理念,符号学派在经历了一些波折后,在国际象棋上(1997年)和《危险》(2011年)中降服了人类(《危险》是一个美国电视节目,主持人会给参赛者一系列线索,参赛者要用最短的韶光猜出主持人描述的人或事物)。
连接学派
智力活动在符号学派看来是一款软件,这款软件的运作须要从外界得到大量的知识输入,这样的输入在20世纪80年代相称的费时费力,成为了制约符号学派发展的瓶颈。其余一群人认为,把智力算作是一款软件是远远不足的。
人类智力是在大脑的活动下产生的,而大脑是由上百亿个神经元细胞通过错综繁芜的连接构成的。以是人们很自然的想到,我们是不是可以仿照大量神经元的旗子暗记传输办法来仿照大脑的智力呢?
连接学派通过算法仿照神经元,并把这样一个单元叫做感知机,将多个感知机组成一层网络,多层这样的网络相互连接终极得到神经网络。我们可以根据要办理的实际问题来构建神经网络,进而用数据不断演习这一网络,调度连接权重来仿照智能。
现在炙手可热的深度学习,可以看做是连接学派的延伸,已经在语音识别、图片处理、模式识别等领域取得打破性进展。
行为学派
与上面两个学派不同的是,行为学派把目标聚焦在相对低等的生物身上,他们创造即便是昆虫这种比人类大略得多的生物,也表现出了非凡的智能,比如可以灵巧地行走并躲避障碍物,快速精准地捕食猎物。从这点出发,行为学派模拟动物的身体,在不须要大脑干预的情形下,仅凭四肢和枢纽关头的折衷来适应环境。
另一方面,生命体在蜕变的过程中会不断变异,而环境会对这些变异进行选择,让更适应环境的变异繁衍下去,同时淘汰不适应环境的变异。在这一变异和选择的过程中生物逐渐从大略走向繁芜,从低级走向高等。
基于此,霍兰(John Holland)提出了遗传算法:在打算机中,用一堆二进制串来仿照自然界的生物体,改变这些二进制串来仿照基因突变,用适应度函数来仿照大自然的良好劣汰,终极找到最优解。
这一学派在机器人领域成果卓著,例如美国波士顿动力公司研发的“big dog”,“开门机器人”
What-How-Why:“是什么”、“该怎么”、“为什么”举一个医疗诊断的例子
有一种癌症,叫玄色素瘤,这是皮肤肿瘤中恶性程度最高的瘤种,随意马虎涌现远处转移,可甚至去世,以是早期的诊断非常主要。但是,它的初期表现,跟皮肤上长了一个普通的“色素痣”一样。想要在早期诊断玄色素瘤,最稳妥的办法是做活组织切片检讨,可你总不能每长一个痣就去动刀。
好在玄色素瘤和普通色素痣的外不雅观还是有差异的,总结说来,有以下四个特色:
一样平常都非对称边缘不规则颜色可能分歧一,更富于变革直径常日大于6毫米一个皮肤科年夜夫,要学习上面四个规则,来给患者进行诊断。那打算机不是也可以学习这些规则,然子女替身类吗?
“是什么”和“该怎么”
1945年,英国生理学家吉尔伯特·赖尔(Gilbert Ryle)在演讲中提到了这两种知识:
一个孩子知道自行车有两个轮子,轮子里面都是空气,迁徙改变把手就可以拐弯……他只是知道了“是什么”,但还是不会骑车;如果一个孩子在几次跌倒之后学会了骑车,这时候,他就知道了“该怎么”。知道“是什么”是基于事实和观点;而知道“该怎么”是基于技能和履历。知道“该怎么”,可不一定知道“是什么”,你让一个会骑车的人讲解一下他是怎么骑车的,可能他根本说不清楚。
我们要把一件事物“是什么”见告打算机,一种方法是把这个事物方方面面的描述都见告打算机,它就知道了“是什么”,至少理论上是这样的。比如,你要让打算机来判断这是一个色素痣还是一个玄色素瘤,你只要把那几个特色见告打算机就可以了。
可事实远比这繁芜得多,由于把上面的四个特色翻译成算法措辞,本身就不太随意马虎——到底多不对称才叫“不对称”?怎么不规则才算“不规则”?而且符合那四个特色的也未必是玄色素瘤,不符合的也可能是。以是末了算下来,打算机的准确度还是不如人类专家。
还有第二种方法,便是深度学习。通过深度学习,我们乃至不用去制订规则,只要找出一套得当的模型,然后用大量的数据进行演习,模型自己就能学会判断。事实上,这种办法演习出的神经网络,已经在玄色素瘤的识别准确率上远高于人类专家。
这样说来,在“是什么”这一块,打算机已经可以超越人类了;而像骑自行车这类“该怎么”便是行为学派善于的东西,可能未来也会超越人类。但人工智能有个致命的问题,便是不知道“为什么”。
“为什么”
神经网络可以在玄色素瘤的识别这件事上做得比人类好,但只不过是依赖算法给出输入和输出之间的对应关系,它本身根本不理解病变。人类年夜夫不仅仅会见告你这里有一个病变,他还会见告你用药的时候要把稳周围的危险区域,他还会创造没有症状、但是已经产生的肿瘤……由于人类能理解病变。
人类比打算机更厉害的地方在于,我们不仅能理解,我们还会问“为什么”。
为什么会有这些病变?为什么玄色素瘤边缘是不规则的?为什么会变颜色?为什么随意马虎涌现远处转移?正是由于我们能问出为什么,我们才能不断深入研究,不断得到新的知识,不断找到新的治疗方法,不断地知道新的“是什么”和“该怎么”。
人工智能只能办理一个问题,但是不能创造一个问题。
共生
只管AlphaGo Zero可以在自我对弈的条件下降服所有人类,但AlphaGo Zero还是在有限的棋盘上,在有限的规则下打算。它只知道“该怎么”,而不知道围棋“是什么”,更不知道“为什么”。
更何况真实的天下有无限多的自由度,没有明确规则,你沿着任何一个方向深入下去都会碰到各种各样新的可能性。这些新的东西,才更有代价。
我们目前并不须要过多担心被人工智能抢走饭碗,更该当考虑的是:如何利用人工智能帮助我们更高效的事情?我们是否须要更多的人工智能演习师,而不是年夜夫、工程师?如果人工智能预测缺点,谁来承担任务……
我们须要人工智能,但拓展知识的边界,还得靠我们自己。
参考文献:
[1]《科学的极致:漫谈人工智能》. 集智俱乐部.
[2]The algorithm will see you now. Siddhartha Murherjee. The New Yorker. April 3, 2017. (https://www.newyorker.com/magazine/2017/04/03/ai-versus-md)
本文由 @吹个大气球 原创发布于大家都是产品经理,未经作者容许,禁止转载。
题图来自网络
本文系作者个人观点,不代表本站立场,转载请注明出处!