来源:piekniewski's blog

《AI穷冬将至》作者:人工智能存在十大年夜问题_智能_措辞 科技快讯

作者:Filip Piekniewski

编译:肖琴 金磊

【新智元导读】不久前,一篇题为《AI寒冬将至》的文章火了,引发AI领域专家学者、研究职员、学生乃至吃瓜群众的大量谈论。
该文对有关深度学习的炒作提出批评,认为深度学习已经尘埃落定,就像股市会崩盘,AI的寒冬一定会再次来临,虽然无法预测它何韶光降。
这篇文章的作者Filip Piekniewski是打算机视觉和AI领域的专家,经由几周的思考,他重新总结了自己对AI的不雅观点,值得寻思。

最近几周,我被迫重新思考和总结我对AI的意见。
在《AI寒冬将至》那篇帖子广为传播后,很多人通过电子邮件和twitter联系我,提出了很多好的建议。
因此,我决定以简洁的办法写一下我认为我们的人工智能方法存在什么问题,以及我们可以办理什么问题。
以下是10个要点:

1. 我们被图灵对智能的定义所束缚了。
图灵有关智能构想很著名,他将智力限定为一种和人类进行措辞游戏的办理方案。
详细来说,图灵将智能设定为(1)游戏的办理方案,(1)将人类置于判断的位置。
这个定义非常具有迷惑性,并很适宜人工智能领域。
狗,猴子,大象,乃至啮齿类动物都是非常聪明的生物,但它们没有措辞,因此也不可能通过图灵测试。

2. 人工智能的核心问题莫拉维克悖论(Moravec's paradox)。
这个问题在本日要比1988年它刚被提出时要明显得多,而我们在过去30年里险些没有采纳任何行动来办理这个问题,这是令人羞愧的。
莫拉维克悖论的核心论点是,现实中最大略的问题比最繁芜的游戏更难解。
(注:如莫拉维克所写;“要让电脑如成人般地下棋是相对随意马虎的,但是要让电脑有如一岁小孩般的感知和行动能力却是相称困难乃至是不可能的。
”)我们沉迷于令AI在游戏中超越人类(以及其他受限且定义明确的话语领域,如数据集),将其作为智能的指标,作为一种与图灵测试同等的标准。
我们完备忽略这样一个事实:对智能的终极判断由现实本身,而不是由一个人类组成的委员会作出。

3. 我们的模型乃至可能起浸染,但每每是出于缺点的缘故原由。
我在其他文章详细阐述过这点,深度学习便是一个很好的例子。
深度学习显然已经办理了物体识别问题,但是大量研究表明,深度神经网络能识别物体的缘故原由与人类能不雅观察到物体的缘故原由大不相同。
对付用图灵测试精神欺骗人类的人来说,这可能并不主要。
但对付关注人工智能体处理非预期(域外)现实的能力的人来说,这是至关主要的。

4. 现实不是游戏。
就算跟游戏有关,它也是一个无限的游戏凑集,个中的规则不断变革。
任何时候只要涌现了重大发展,游戏规则都会要重写,所有玩家都须要作出调度,否则就会去世亡。
智能是一种机制,它会进化以令智能体能够办理问题。
由于智能是一种赞助我们玩“规则不断变革的游戏”的机制,因此作为一种副浸染,它能让我们玩有一套固定规则的实际游戏也就不足为奇了。
但反过来就不成立了:构建在玩固定规则游戏时赛过人类能力的机器,跟构建一个能够玩“规则不断变革的游戏”的系统差得远了。

5. 物理现实中有一些规则是不变的——即物理定律。
我们用措辞描述他们,并利用它们来做预测,从而建立文明。
但是为了在这个物理环境中行动,这个星球上的每一种生物体都节制了这些定律,并不须要措辞。
小孩子在学会牛顿运动定律之前,就知道苹果会从树上掉下来。

6. 我们的视觉统计模型实在是非常不敷的,由于它们仅依赖于某一韶光的事物和人类指定的抽象标签进行识别。
深度神经网络能够看到数以百万计的苹果挂在树上的图像,但永久不可能创造万有引力定律(以及许多对我们来说很显然的东西)。

7. 知识的困难之处在于它对我们而言是在太显而易见了,乃至很难用措辞去描述它,进而在数据中给它打标签。
对付所有“显而易见”的东西,我们存在巨大的盲点。
因此,我们无法教打算机知识,不仅由于这可能不切实际,更根本的缘故原由是我们乃至没故意识到“知识”是什么。
直到我们创造机器人做了一些很屈曲的事情,我们才顿悟:“哦,原来它不懂...... [这里可以填任何显而易见的知识] ......”。

8. 如果我们想办理“莫拉维克的悖论”(我认为该当是当今任何严明的AI事情的焦点),我们就多少须要模拟生物体纯粹依赖不雅观察天下学习的能力,而不须要标签。
实现这一目标的一个有希望的想法是构建一个别系,对未来的事宜进行预测,并通过将实际的发展与系统的预测进行比较来学习。
大量的实验表明,这确实是生物大脑中发生的事情,并且从许多角度来看这样做都很故意义,由于这些系统必须要学习物理定律。
预测视觉模型(predictive vision model)是朝这个方向迈出的一步,但肯定不是末了一步。

9. 我们急迫须要在图灵的定义之外定义“智能”的特色。
一个不错的想法来自非平衡态热力学(non-equilibrium thermodynamics),并与预测假设同等。
我们须要这样做,由于我们须要构建智能体,这些智能体肯定通不过图灵测试(由于它们没有措辞智能),但我们须要一个框架来衡量我们的进展。

10. 我们本日所做的险些所有称之为AI的事情,都是可以用措辞表达的某种形式的自动化。
在许多领域,这些所谓AI可能有用,但这与用Excel取代纸质表格来帮助司帐师,实际上没有什么不同。
有问题(并且问题始终存在)的领域是自主(autonomy)。
自主不是自动化(automation)。
自主不仅仅意味着自动化。
如果是哀求比人类更安全的自主的话,那么它意味着更多,比如说自动驾驶汽车。
自主该当是广义智能的同义词,由于它假设能够处理意外的、未经演习的,未知的事物。

以上是我想传达的核心要点。
这些论点有细微的差别,这便是我写这篇文章的缘故原由。
当然,如果你承认这些要点,我们的不雅观念就基本上是同等的。
《AI寒冬将至》那篇文章还有其他许多细节受到激烈的辩论,虽然我认为这些细节不是必要的,但为了完全起见,让我就个中的一些表达我的意见:

1. 天生的还是后天习得的?当然,有的生物具有天生的能力,但无疑也有后天学习的东西。
不过,这是一个与实现(implementation)干系的问题,我认为它没有明确的答案。
在我们未来的发展中,我确信我们会利用两者的结合。

2. 学习特色还是人工构建的特色?这是一个干系的问题。
我的不雅观点是,“皮层打算”(cortical computation)的绝大部分会被习得,这是在AI和自主的背景下(但这并不虞味着如果它被证明有用,或由于某种缘故原由难以学习,我们就不能人工构建它)。
大脑里还有很大一部分很可能预置的。
在更详细的自动化运用中,这两种情形都可能会有。
在某些情形下,学习的特色可能明显优于人工构建的特色(这是深度学习的卖点所在),但在许多运用中,人工精心制作和开拓的特色绝对、毫无疑问优于任何学习的东西。
总的来说,我认为这是一个伪命题。

3. 脉冲,连续,数字还是仿照,又或是量子?我对此没有非常强烈的主见,每一种都有优点和缺陷。
数字大略,确定并且易于得到。
仿照很难掌握但功耗要低得多。
脉冲(spiking)也是,,虽然它的额外好处是更靠近生物学,这可能意味着它是更好的办理方案。
量子? 我不愿定是否有强有力的证据证明量子打算在办理智能问题方面有必要性,只管我们可能会创造它是必要的。
这些都是“如何做?”(how)的问题,但我的紧张兴趣还是“是什么?”(what)的问题。

【加入社群】

新智元 AI 技能 + 家当社群招募中,欢迎对 AI 技能 + 家当落地感兴趣的同学,加小助手微旗子暗记: aiera2015_3入群;通过审核后我们将约请进群,加入社群后务必修正群备注(姓名 - 公司 - 职位;专业群审核较严,敬请包涵)。