人工智能成长史:第一次热潮和第二次热潮螺旋式向前成长_人工智能_专家体系
【东音社按】本文摘自日经BP的《完备读懂AI运用最前哨》,经东方出版社授权发布。人工智能的历史是“热潮”与“低谷”交替涌现的历史。发展热潮中充满了无限的期望,但是事与愿违,它迅速走向了衰败。热潮与低谷的发展史,为人工智能的实用化供应了积极性的参考。
本文,我们将讲述人工智能第1次热潮和低谷以及第2次热潮初始阶段的历史。
一、低级阶段:谈天机器人1956年的达特茅斯会议上,“人工智能”一词登上了历史的舞台。之后,各种人工智能程序陆续登场,人工智能迎来了第1次发展热潮。在这个期间,人工智能软件“Eliza(伊莉莎)”引起了很大的反响。Eliza,是最早的与人对话程序,从1964年开始,由德国科学家约瑟夫•魏泽堡主持编写。当时,利用了专门的编目处理措辞“SLIP”进行程序开拓,之后的程序开拓则是由LISP主导进行的。
Eliza有各种各样的对话例子,个中最著名的例子便是模拟生理年夜夫的生理辅导。被测试者都认为与自己对话的是生理年夜夫,丝毫没有疑惑网络对面的是一台机器。
Eliza通过模式匹配与观点词典技能模拟与人对话的程序。它便是之后被称为“谈天机器人(chatterbot)”程序的原型。谈天机器人,虽然是可以模拟人类对话的程序,但是却没有融入人工智能的技能,只是表面上看起来像是双方的对话是成立的。从这种并无才能的角度出发,它也常常被称为“人工无能”。谈天机器人多是利用大略的词汇识别和观点词典编程的。
当然,也有人主见“像Eliza这样的谈天机器人(人工无能)并不是人工智能”。它既没有对智能进行定义,也没有依据智能进行推理,因此至少不能称之为研究并模拟人的智能的“强人工智能”。其余,谈天机器人是利用大略的模式匹配和观点词典编程的,它的行动模式是能够被人推断出来的,它看起来就像以if句式差异意思的决定论式的程序。
但是,以Eliza为代表的谈天机器人(人工无能),让众人开始理解人工智能,并促进了自然措辞处理的迅猛发展,这也表示了它们的巨大贡献。我们至少可以称它们为低级阶段的人工智能。
二、第一次热潮:弱人工智能阶段在人工智能发展的第1次热潮里,有一个须要先容的程序,那便是通过符号处理得到更加严密的打算结果的“打算机代数系统”。比起大略的数值打算程序,该系统可以得到更加严密的打算结果。
“Macsyma”,是人工智能发展初期的具有代表性的打算机代数系统之一,该程序能够处理多项式以及不定积分。
Macsyma是在1968年以William A. Martin为首的科学家研发的一套系统,因此LISP措辞编写,并融入了启示法的问题办理方法。启示法,是通过探索最靠近最优解的近似最优解的方法来得出问题的答案,而不是搜索所有可能的答案,从而得出最优解。
其余,“Reduce”也是该期间具有代表性的打算机代数系统,是由Anthony C. Hearn于20世纪60年代开拓编写的。现在,已经开放源代码,研发活动仍在进行中。Reduce程序利用LISP编写,可以处理不定积分。
Macsyma问世之后,打算机代数系统取得了很大的发展,美国沃尔夫勒姆研究的“Mathematica”、日本莎益博工程系统的“Maple”等都是之后研发出来的系统。
如前所述,Macsyma和Reduce都是利用LISP编写的,因此我们也可以说LISP作为人工智能的汇编措辞发挥了巨大浸染。反过来也可以说,打算机代数系统就像一个LISP的巨大的运用程序,LISP处理系统须要将这些程序成功运转起来。
其公式处理方法用的是启示法,完备不同于只是基于if句式的决定论式的程序。它至少可以称得上是一个模拟专家思考行为的“弱人工智能”。
继谈天机器人和打算机代数系统之后,在人工智能发展的第一次热潮期间出身的还有专家系统这套程序。
专家系统,正如其名,它是一套将人类专家的知识和履历变成数据形式,然后通过数据进行推理的系统。初期的专家系统中比较有名的是“Mycin”系统,它是由以美国科学家Edward Shortliife为首的团队在1970年初期研发的。Mycin系统是通过与患者进行人机对话的形式来诊断病情,也是利用LISP来编写的。它拥有500多条规则,可以进行较为大略的推理。
它的特点是,导入了被称为“确信度”的系数这一观点来判断诊断的准确度。但是也有人主见,导入这一观点随意马虎给推理过程造成一定的滋扰。
专家系统,不仅在第1次人工智能热潮中得到发展,在第2次人工智能热潮中也连续盛行。
三、人工智能的瓶颈初现端倪在第1次人工智能发展热潮中出身的各种人工智能程序,只是进行大略推理的程序较多,在发展过程中,瓶颈也就逐渐地显现出来了。
早在第1次发展热潮之前,马文•明斯基和西摩尔•派普特动手的人工神经网络研究就指出了人工智能发展可能涌现的瓶颈问题。详细来说,由输入系统和输出系统组成的大略感知器,作为人工神经网络的一种形式,无法办理“不可分的问题”。
在这里我们不做详细解释,但是线性不可分问题的确在很多地方都存在,它也显示出只是导入了大略感知器的人工智能的弊端,这也导致了众人对人工神经网络的期待连忙地降落。
最近盛行的多层人工神经网络(深度学习模型),随着学习运算法则的不断进化,线性不可分的问题也逐渐被办理。这一点我们将在后面的篇章里做详细阐明。
四、经历“低谷时期”,进入第2次发展热潮
人工智能发展的第1次热潮,从1956年一贯持续到70年代前期。这一期间研发的专家系统等人工智能系统,因受到打算机处理性能的制约,只能处理一定数量的规则,并且是在特定的领域、特定的环境下才能够发挥浸染。
人们在对人工智能充满期待的同时,对研发出来的缺少实用性的系统也充满了失落望,因此,国家以及企业在人工智能方面的预算也越来越少。这一期间,也便是20世纪70年代后期被称为人工智能发展的“ 第1次低谷”。
但是,进入20世纪80年代后,人工智能很快再次迎来了新的发展热潮。
本次发展热潮的主角是在第1次发展热潮时出身的专家系统。因处理美国迪吉多公司(DEC)的VAX系统的各种订单并取得非常成功的专家系统受到广泛关注,各IT供应商迅速导入专家系统。
人工智能发展迎来第2次热潮,最大的一个缘故原由在于打算机性能的大幅提高。进入20世纪80年代,基于繁芜规则的专家系统也可以在打算机上运行。由此,逐渐实现了专家系统的商业性利用。
随着专家系统的兴盛,制订专家系统运行规则的工程师也被称为“知识工程师”,并且一韶光成为炙手可热的职业,就像在本日,数据科学家这个职业相称盛行,受到人们的追捧。
知识工程师的紧张事情是听取用户的业务内容并对其进行剖析,从中抽出明显的规则与隐蔽的规则,然后进行分类。
当时,科学家们研发出了各种专家系统。初期的各种专用专家系统大都是利用LISP编程,随着技能的改造,逐步地发生了变革,通用的引擎部分依然利用LISP编程,规则部分则是知识工程师利用外部数据进行编程。并且,用LISP编程的引擎部分,利用C措辞进行编程的开拓研究也已经展开了。
专家系统的编程由专用LISP措辞向普通的C措辞过渡,该系统也变成了一样平常的程序员编写的一样平常系统,其新意也就逐渐淡化了。
由此,专家系统也就从人工智能程序变成了决定论式的普通程序。随着这一变革,专家系统的浸染效果也变得非常明确,但是其发展瓶颈也开始显现出来。
五、人工神经网络的发展
在人工智能发展的第2次热潮中,人工神经网络也发生了很大的变革。第1次发展热潮时,马文•明斯基等就已经指出,仅凭大略的人工神经网络还有很多无法办理的问题。为理解决这一大难题,多层化的人工神经网络开始受到关注。但是,如何实现多层人工神经网络的自我学习,还没有一个固定的模式。
之后,被称为反向传播(Backpropagation)的算法问世,冲破了这种僵局的持续。反向传播是人工神经网络的一种自我学习算法,基于这种算法,多层人工神经网络的机器学习实现了定式化。该算法通过在输入层和输出层之间设定一个中间层(隐蔽层),以反向传播的办法实现机器的自我学习。
基于反向传播的形式逐渐形成固定的模式,人工神经网络的发展也进入了兴盛期。线性不可分的问题也开始得到办理,人工智能也实现了进一步的发展。
在人工智能的第2次发展热潮时,笔者有幸参与了作为人工智能机的LISP专用机的研发事情。LISP专用机,也便是一种被称为“AI事情站”的新型打算机。当时,各企业都争相研发各种人工智能专用机,一韶光,形成了一股热潮。
人工智能专用机出身之初的价格大约在1000万日元,之后价格连忙低落,使得人工智能专用机在一定程度上得到了遍及。在人工智能专用机上运行的程序就有专家系统。可以在人工智能专用机上直接编写专家系统,也可以先编写通用的专家系统,然后再将各种规则编入系统中。
本文系作者个人观点,不代表本站立场,转载请注明出处!