徐英瑾 | 哲学和人工智能它俩之间能有啥关系?_人工智能_人类
从几年前Alpha Go降服柯洁,到半年前chat GPT的横空出世,近些年来,关于人工智能的谈论从来不绝于耳。人工智能未来发展将会到若何的层面,是会威胁人类文明?或是为人类供应帮助?这一贯是被谈论的焦点。
在复旦大学哲学学院教授徐英瑾看来,目前高唱“AI威胁论”有些杞人忧天,由于现下的人工智能还远远未达到这个程度,例如Alpha Go和chat GPT都是专用人工智能,它们都有一定的局限性。
那么,看似风马牛不干系的哲学与人工智能之间有什么关系?哲学又能对人工智能的发展起到什么浸染?
人工智能研究的终极目的,无非是造出一台能够实行人类大多数任务的机器,其核心问题便是,首先要对人有一个理解。因此在某种程度来说,想要理解人工智能怎么回事,跟理解人是怎么回事,是高度关联的课题。
从哲学的角度思考人工智能,或许会在纷繁的不雅观点中为我们供应一些更加复苏的认知。
01
主流人工智能并不通用
西方第一代人工智能研究者——如明斯基(Marvin Minsky)、纽艾尔(Allen Newell)、司马贺(Herbert Simon),还有麦卡锡(John McCarthy)等人——所试图实现的机器智能,多少是具有“通用人工智能”(artificial general intelligence, AGI)意蕴的,与AGI相对的则是“专用人工智能”。
顾名思义,“专用人工智能”便是指专司某一个特定领域事情的人工智能系统,而所谓的“通用人工智能”(artificial general intelligence, AGI),便是能够像人类那样胜任各种任务的人工智能系统。
而目前主流的AI研究所供应的产品都不属于“AGI”的范畴。比如,曾经由于打败李世石与柯洁而名震天下的谷歌公司的Alpha Go,实在便是一个专用的人工智能系统——除了用来下围棋之外,它乃至不能用来下中国象棋或者这天本将棋,遑论进行医疗诊断,或是为家政机器人供应软件支持。
虽然驱动Alpha Go事情的 “深度学习”技能本身,也可以在进行某些变通之后被沿用到其他人工智能的事情领域中,但进行这种技能变通的毕竟是人类程序员,而不是程序本身。换言之,在观点上就不可能存在着能够自动切换事情领域的深度学习系统。由于统统真正的AGI系统都应该具备在无监督条件下自行根据任务与环境的变革切换事情知识域的能力,以是上面笔者的这个判断本身就意味着:深度学习系统无论如何发展,都不可能演化为AGI系统。
只管上面这个结论在“导论”中已经被反复重申,但考虑到眼前同情深度学习的势力实在过于强大,以至于笔者忍不住在此还想换一个角度对该结论进行论证。该论证将以美国哲学家福多(Jerry Fodor)对付联结主义(即深度学习的前身)的哲学批驳为自身的母型,因此,在学术的正规性上要超过“导论”所呈现的论证。该论证可以呈现为下述三段论。
大条件任何一个AGI系统都须要能够处理那种“全局性性子”(global properties),如在不同的理论体系之间进行决议的能力(其根据则或许是“个中哪个理论更简洁”,或是“哪个理论对既有知识体系的扰动更小”,等等)。
小条件深度学习系统所依赖的人工神经元网络,在原则上就无法处理“全局性性子”。
结论深度学习机制自身就无法被“AGI化”。
很显然,该论证的结论的可接管性,将紧张取决于大条件与小条件是否都是真的。笔者现在将立时解释:二者都是真的。
此论证的大条件之所以是真的,是由于任何的AGI系统都必须具有人类水准的知识推理能力,而知识推理的一个基本特色,便是推理过程所会涉及的领域是事先无法确定的。比如,人类投资家对付金融业务的评论辩论就很难规避对付国际政治军事形势的谈论(由于金融市场每每对国际军事形势的变革有非常敏感的表现),因此,我们就很难在谈论金融问题的时候预先规定“哪些领域一定不会被关涉”。
这一点乃至在做家务之类的看似噜苏的日常劳作中也会得到表示——比如,对付居室环境的整理在很大程度上并不仅仅关涉对付“整洁”这一哀求,而且还要兼顾“方便用户”这一哀求,而该哀求本身又指向了保洁员对付所有家庭成员的生活习气的额外知识。
换言之,跨领域的思维能力是纵然连做家务的大略日常活动都须要具备的。这也便是说,在涉及多样性的问题领域的时候,行为主体就必须具备对付来自不同领域的哀求进行全局权衡能力,而这便是福多所说的处理“全局性子”的那种能力。不难想见的是,上述哀求不仅是被施加给人类的,而且也是被施加给一个空想的AGI系统的——如果我们希望AGI具有人类水准上的通用问题求解能力的话。详细而言,家政机器人、谈天机器人与军用机器人所面临的环境的开放性与繁芜性,都哀求支持这些机器人运作的人工智能系统应具有类似于人类处理“全局性子”的能力。
上述三段论的小条件也是真的,即深度学习机制是在原则上就难以处理这种具有领域开放性的全局性问题。
综上所述,目前主流AI技能的进展,并不能帮助我们真正制造出具有AGI基本特点的智能机器。那么,出路又在何方呢?一个很随意马虎想到的方案是:机器智能的研究者必须得向业已存在的自然智能——即人类智能与动物智能——学习,由此探求到打破的灵感。
02
如何向自然智能学习?
在普通网络媒体中,我们常常听到这样的评论:某某公司鼓吹他们研制的人工智能系统已经达到了4岁或者5岁儿童的智商的水准。使得这种说法具故意义的条件显然是:存在某种横跨机器与人类智力的某种通用的“智商”观点——因此,生理丈量学对付人类智商的测算办法,也可以被利用到丈量机器智商之上。
虽然笔者对用现成的人类智商标准衡量人工智能产品的水准的做法表示强烈的保留态度,却对某种更抽象意义上的横跨机器与人类的“智商”观点保持开放态度。
我们当如何从自然智能那里探求到关于建造AGI机制的“施工图纸”?一个很随意马虎想到的策略便是:生理学家所刻画的各类人类智力的分类形式,归根结底是由人类的神经系统所实行的。时下朝阳东升的“类脑人工智能”(braininspired AI)研究路数。该研究方案的代表项目是由瑞士牵头的“蓝脑操持”(Blue Brain Project),其目的是将人类全体大脑的神经联接信息全部用一个完全的数据模型予以记录。
不得不承认,与前面提到的深度学习的进路比较,类脑人工智能的研究思路的确更可取一些。虽然从字面上看,深度学习的前身——人工神经元网络——也是基于对付人类大脑的仿生学仿照的,但是在专业的神经科学家看来,传统的神经元网络也好,构造更为繁芜的深度学习机制也罢,其对付人脑的仿照都是非常低级与局域的。与之比较较,类脑人工智能的野心则要大得多:
它们要对人脑的整体运行机制作出某种切实的研究,并将其转化为某种数学形式,使得打算机也能够按照“人脑蓝图”来运作。考虑人类大脑的整体运作——而不是局域神经网的某种低端运作——能够以“神经回路”的办法向我们提示更多的关于人类智力整体运作的信息,类脑人工智能的研究显然能够比主流的深度学习研究减少犯下“盲人摸象”缺点的几率。
不过,基于如下情由,笔者依然认为类脑人工智能研究还是隐蔽了不少风险。
情由1
人脑的运作机制非常繁芜,比如,关于人类大脑的海马区是如何处理影象信息的,现在的神经科学家也无法打包票说我们目前得到的认识是基本准确的。换言之,脑科学研究投入大,研究前景不愿定。在这种情形下,如果我们将AI研究的“鸡蛋”全部放在脑科学研究的“篮子”里,那么,AI研究自身的发展节奏也就将完备“受制于人”,而无法有效地分摊研究风险。
情由2
目前对付神经回路的研究,霸占了类脑人工智能研究者的紧张把稳力,由于对付神经回路的仿照彷佛是相对随意马虎动手的。但是,我们很难担保某些神经细胞内部的活动不会对智能的产生具有关键性浸染,而这一点也就使得类脑人工智能研究陷入了两难:如果不涉及这些亚神经细胞活动的话,那么人工智能研究或许就会错过某些关键性的大脑运作信息;但如果这些活动也都成为仿照工具的话,那么由此带来的打算建模本钱将会变得完备不可接管(由于单个神经细胞内部的生化活动所对应的数学繁芜性,就可以与全体大脑的神经网络所对应的数学繁芜性相提并论。
情由3
我们尚且不清楚,“意识”(consciousness)的存在是否是使得智能活动得以展开的一个必要条件。但假设其存在的确构成这样一个必要条件,那么由此引发的问题便是:我们依然缺少一个关于“意识如何产生”的成熟的脑科学理论,因此,我们无法预报何时能够从关于人脑的意识学说中得到关于“机器意识”的建模思路。更麻烦的是,如果彭罗斯(Roger Penrose)的“量子大脑假设”是对的,那么我们就必须从量子层面上重新思考意识的实质。对付类脑人工智能研究来说,这一方面会使得研究者去放弃建立在经典物理学构架上的传统图灵机打算模型,另一方面又会逼迫他们去思考“如何在与传统打算机不同的量子打算机的根本上去构建认知模型”这一困难的话题。
笔者曾在2017年6月于美国加州圣迭戈召开的天下意识科学大会上与彭罗斯爵士本人交谈,向其请问“量子打算机是否能够实现量子意识”这一问题。他对这一问题给出了否定的回答,由于他认为量子打算机的运作依然须要经典打算机的运作供应某种根本。虽然笔者不敢肯定他的这个回答一定是精确的(由于据笔者所知,像“DWAVE”这样的“退火量子打算机”在硬件构成上就与传统打算机非常不同),但笔者至少可以肯定的是:纵然关于大脑的量子意识理论是对的,也并不是任何意义上的量子物理学征象都可以引发意识(否则“意识”就本该是无处不在的)。因此,在量子打算机研究与对付量子意识的机器实现之间,应该还存在大量的理论空缺须要补充。这统统无疑会使得类脑人工智能的事情进度表将越拉越长。
情由4
纵然人类目前已经节制了大脑运作的基本概况,我们也无法担保由此得到的一张大脑运作蓝图可以被机器所实现。其背后的道理是:使得神经活动得以可能的底层生归天学活动具有一种与电脑运作所依赖的底层物理活动非常不同的物理学特色,而正是基于这种不同,科学界才将前者称为“湿件”(wetware),以便与后者所对应的“硬件”(hardware)相互差异。但麻烦也出在这里:我们都知道,高性能航空发动机的运作蓝图,一样平常都须要非常分外的航空材料来加以“落实”,由于这些蓝图本身在某种意义上也已经透露了关于干系运作材料的性子的信息——与之相比拟,我们又怎么能够期望关于大脑的运作蓝图,可以不包含对付特定生化信息的指涉,而可以被完备利用到硅基材料之上呢?
剖析到这一步,读者可能会问:既然大略地仿照我们的人脑并不是“向自然智能学习”的方便法门,我们又有什么别的出路呢?
该问题的答案便是:我们必须学习胡塞尔的“想象力自由变更”的办法,对“智能”的实质进行直不雅观。套用到本书的语境中去,该办法的详细操作步骤便是:对各种可能的智能类型进行展列,并由此为出发点对各种可能的智能形式进行想象,终极剔除关于智能的有时性身分,找到智能的实质性要素。
提到“人类之外的自然智能”,很多人或许会立时遐想到灵长类动物的智能。但考虑人类与其他灵长类动物之间的类似性,出于“剔除人类智能实现办法中的有时性成分”这一目的,我们最好还是在非灵长类动物中探求智能活动的标记。比如,我们在作为软体动物的章鱼那里找到繁芜的行为模式,只管作为软体动物的章鱼具有与灵长类不同的神经系统(这种另类的神经系统使得章鱼可以在大脑与吸盘处罚置影象系统)。
对付章鱼的行为与心智的研究,目前已经成为西方学界的一个新热点。甚而言之,有些专家还认为植物也可以具有“短期影象”与“长期影象”等心智功能,只管植物是没有严格意义上的神经系统的;甚而言之,有人还认为细菌也可以表示某种“群体智能”——比如,通过旗子暗记传导蛋白质(而不是神经组织)的帮助,大量聚拢的细菌可以办理一些繁芜的打算机程序才能够办理的优化问题。
从上面列举的这些例子中我们不难创造,使得创造智能活动得以存在的有时成分与实质性成分。神经系统的存在,恐怕便是可以被“约分”掉的有时性成分,由于植物与细菌的智能都不依赖于其存在。特定智能行为对付遗传代码的依赖性,看来也必须被“约分”掉。由于对付章鱼的研究表明,章鱼的大量繁芜的捕猎与逃逸行为都是后天习得的(换言之,遗传基因只能为章鱼得到繁芜行为的潜力进行编码,而不能对详细的行为本身进行编码)。与之比较较,不能被“约分”掉的实质性成分则包括:(甲)如何面临环境的寻衅,并给出应战的模式;(乙)如何在给出这种应战的同时,最有效、经济地利用智能体所具有的资源。这也便是说,只管自然智能的详细表现形式非常丰富多彩,但是其所具有的一样平常功能构造却是相对同等的。
综合本节的谈论来看,向自然智能借脑固然是未来AGI发展的必经之路,但如何确定我们所须要仿照的自然智能的“知识层次”,则是在干系研究展开前率先要被回答的问题。与类脑人工智能研究者对付大脑详细神经细节的聚焦不同,笔者主见通过“想象力自由变更”的办法,对智能活动的实质——有机体对付开放式环境的节俭式应答——进行抽象,由此得到对付AGI的一些更富操作性的辅导见地。
03 再谈“强人工智能”与“超级人工智能”
本文既有的谈论,实在已经足以澄清这么一个论点:既有的专用人工智能之路,并不能真正通向AGI,由于后者对付智能活动实质的涉及,并不是前者的题中应有之义。对付有些读者来说,这样的澄清彷佛还漏掉了目前媒体广泛炒作的两个观点:一个是“强人工智能”(strong AI),一个是“超级人工智能”(artificial super intelligence)。那么,AGI与它们之间的关系又是什么呢?
首先可以肯定的是,强AI既不是AGI的对立面,也不是其同义词。与强AI对应的观点是“弱AI”(weak AI),而弱AI也既非专用AI的对立面,亦非其同义词(只管二者外延上有高度重合)。说得更清楚一点,弱AI指的是打算机对付自然智能的仿照,而强AI指的是打算机在上述仿照的根本上对付真实心智的得到,二者之间的区分,牵扯到的是“虚拟心灵”与“真实心灵”之间的差异。
与之比较较,专用AI与AGI之间的区分则是AI系统自身利用范围宽窄之间的差异。因此,从观点的外延角度来看,一个AGI系统或容许能是弱AI,也可以是强AI(由于一个达到AGI标准的系统是否能够配得上“真实心灵”,依然是一个有待争议的心灵哲学话题)——而专用AI系统则只可能是弱AI(由于真实的心灵肯定是具有跨领域的问题处理能力)。
再来看“超级AI”这个观点。笔者个人认为这是一个非常暗昧的字眼,由于“超级”本身的含义就非常暗昧。如果就AI系统在单项能力上对付人类的超越的话,那么现在的“Alpha Go”就已经是这样的超级AI了——但如果“超级AI”指的是某种能够比人类更为灵巧地统调各种能力与知识领域的AI系统而言,很显然这样的系统还没有涌现。
但纵然存在这样的系统,如何界定 “超级”二字的真正含义,依然会成为一个值得商榷的问题。其背后的道理是:正如前面已经指出,任何智能体都无法不在只管即便节俭地利用资源的条件下,对开放环境中存在的寻衅“无所顾忌”地回应,因此,纵然是所谓的“超级AI”,也不可能在其运作中无限地挥霍其运算资源,并哀求无限的前设知识作为其推理条件。换言之,这样的系统依然是与我们人类一样的“有限的存在者”,并与我们人类一样面临某种终极的薄弱性。
不过,如果我们将“超级”的门槛降落,并在“比人类轻微更灵巧、更具创造性一点”这一意义上利用“超级AI”这个字眼的话,那么,制造出这样的系统,并非在观点上是不可能的。说得更详细一点,我们当然可以由此设想:某种AGI系统能够以一种比人类更具效率的办法进行遐想与类比,找到问题的求解方略,而这种系统所接驳的某些外围设备的强大物理功能,显然也能够使得全体人造系统得到比人类整体更强大的决策与行动能力。
那么,这样一种超级AGI系统,是否能够对人类的文明构成威胁呢?对付该问题,笔者暂且保持开放的态度。不过,正如本章所反复解释的,纵然有一天这样的AGI系统问世,其技能路径也会与主流的人工智能技能非常不同——因此,那种凭借主流人工智能技能的进展就大喊“奇点时候即将到来”的论调,依然是站不住脚的(“奇点”在库兹威尔这样的未来学家那里,特指人工智能技能能够颠覆性改变全体人类文明的那个历史时候点。但在笔者已知的范围内,在国际主流的科学哲学界与心灵哲学界,很少有人负责看待这种“奇点理论”)。换言之,虽然“AI威胁论”并非永久会显得不合时宜,至少就目前的情形而言,高唱此论调,的确显得有些杞人忧天。
今日荐读
哲学证成与机器编程:
人工智能、知识论与儒家的三方对话
徐英瑾 著
梁玲 编辑
2023年7月
复旦大学出版社出版
内容简介
随着人工智能学科的发展,人工智能与人文学科进行跨学科互换的必要性也正在日益增加。在这种跨学科互换当中,哲学当中的知识论研究,就会扮演越来越主要的角色,知识论研究的重点在于“证成”(justification),即要找到合理的根据使得目标论断能够得到确定。从人工智能的态度来看,证成本身就对付打算机程序的“可解释性”(accountability)提出哀求,而目前基于深度学习的打算机程序正好缺少可解释性。本书试图打通知识论的证成研究和打算机的编程研究之间的界线,使得我们能够用打算机的眼力澄清知识论研究中的一些模糊之处,反过来也用知识论不雅观点来使得打算机领域的人工智能研究的可解释性得到提高。
作者简介
徐英瑾,1978年出生于上海,哲学博士,现为复旦大学哲学学院教授、博士生导师。专长为剖析哲学史、心灵哲学、人工智能哲学以及剖析哲学与欧陆哲学比较研究。著有《用得上的哲学:破解日常难题的99种思考方法》与《人工智能哲学十五讲》等。业余爱好中外各国历史,在学术研究之余,创作并出版了长篇历史小说《坚》。
本期编辑 | 李映潼
转载及互助请联系liyingtong25@163.com
本文系作者个人观点,不代表本站立场,转载请注明出处!