向深度进修三剑客进修四种科研精神(上)_神经收集_深度
来源:陈德旺科学网博客
深度学习,尤其是深度神经网络学习算法的兴起和大数据的加持,结合GPU的算力,犹如 “三英战吕布”,终于搞定了人工智能这一反复无常的“吕布”, 使得人工智能得以第三次复兴。
如今,人工智能技能向各行各业渗透,智能家当的发展正风起云涌。饮水思源,我们不能忘却,提出深度学习核心算法并于2019年得到图灵奖的三位英雄:深度学习三剑客: Hinton, LeCun 和Bengio. 尤其,是要向他们学习以下四种创新精神,以更好地实现我国创新能力的提升。
1. 坚持神经网络研究三十年的武断执着精神
Hinton, LeCun 和Bengio虽然在不同的国家,处于不同的阶段,从20世纪八十年代开始,不谋而合就对人工神经网络,尤其是神经网络学习算法,非常感兴趣。Hinton年纪较大,在其余2位还在读上大学或读研究生的时候,Hinton已经博士毕业,到斯坦福大学做博后了。1986年,Hinton与美国科学院院士Rumelhart等在Nature 上揭橥论文,提出了著名的BP(反向传播)算法:多层神经网络参数学习算法,引起了神经网络第二次复兴的浪潮。该经典论文至今已经被引用2万多次。这次复兴之后,基于BP算法的神经网络办理了很多问题,干系研究和论文呈现井喷状态。
可惜,好景不长在。几年后,研究职员创造:BP算法虽然好用,但也存在收敛速率慢,随意马虎陷入局部最小值和网络的初始化参数密切干系。尤其,由于演习韶光太长,演习参数太多,内存常常溢出,难以处理如图像识别这类高维度和大量样本数据问题。于是,神经网络的研究陷入了第二次低潮:很难拿到课题,很难揭橥论文 ,很多研究职员就放弃了,转向别的研究方向。
但是,Hinton不气馁,始终坚持研究方向不动摇,苦思冥想破解之道不懈怠, 转移到加拿大多伦多大学连续开展研究。在共同发明BP算法20年后,2006年Hinton,通过深度思考和编程实践,终于想出了针对高维数据的破解之道,在Science上揭橥了用神经网络减少数据维度的新方法,为深度学习的兴起奠定了理论根本,至今被引用1万余次。之后,深度神经网络的发展可谓波澜壮阔,气势如虹。由于篇幅关系,就纷歧一描述了。
2. 互助与辩论并重的和谐团队精神
1987博士毕业后,LeCun 去加拿大多伦多大学,追随神经网络的旗手人物Hinton 做了一年的博士后。在Hinton的启示和辅导下,LeCun提出卷积神经网络用于手写体识别,大幅度提高了精度,引起了关注。但好景不长,该方法的通用性不强,还是难以处理更高维的彩色图像数据。
2003年,LeCun到纽约大学任教并发展了第三个互助者:前公司同事 蒙特利尔大学教授Yoshua Bengio,与Hinton一起组成了所谓的“深度学习的阴谋( Deep Learning Conspiracy)”。听说,Bengio 在读研究生时,读到了Hinton的一篇论文,如被电击,找到了儿时非常喜好的科幻故事的觉得。如今有机会加入偶像领导的神秘小组,自然是大喜过望。
2004年机会终于来了,Hinton拿到了一个加拿大政府支持的大项目,很快就组建了研究组,并约请LeCun和Bengio加入了他的项目组。至此,三剑客正式进入了蜜月期 。为了证明神经网络是有用的,他们开拓了更多层的神经网络(深度神经网络),用更大的数据集来演习网络,并在更强大的打算机上运行网络参数的学习算法。Hinton 曾开玩笑地表示:三人均匀每周都要见一次,而聚会常常以吵架结束。我想Hinton2006年在Science上揭橥的经典论文该当和这些吵架干系,吵架和辩论使Hinton的思考更有深度(深度思考)。十年面壁思考,十年谈论辩论,Hinton化了整整20年的韶光,终于想出了神经网络第二次衰落的关键破解之法。
达摩面壁9年(另说10年),9年后的2015年,三剑客互助写了一篇Deep Learning(深度学习)综述论文揭橥在Nature, 正式给他们的研究成果和无数干系研究树立了一壁旗帜,影响了这些年AI的快速发展和智能家当的快速崛起,已经被引用2.5万余次了。
作者简介:陈德旺,IEEE高等会员,IEEE Trans.on ITS 编委,中国自动化学会稠浊智能专委会副主任,中国运筹学会智能打算分会副理事长,美国加州大学伯克利分校访问学者,福州大学数学与打算机科学学院教授、博士生导师,紧张研究方向为人工智能、大数据和智能交通等。至今揭橥论文120余篇,个中SCI检索论文40余篇,IEEE Transaction论文13篇,他引3000余次;得到各种科研褒奖10多项。
荐:【中国风动漫】除了《哪吒》,这些良心国产动画也该当被更多人知道!
声明来源:陈德旺科学网博客,RAD极客会(ID:RAD_Geek_Club)推举阅读,不代表RAD极客会态度,转载请注明,如涉及作品版权问题,请联系我们删除或做干系处理!
本文系作者个人观点,不代表本站立场,转载请注明出处!