算法相对论|大年夜型神经收集有微弱自立意识?IEEE人工智能专家:弗成能_意识_神经收集
之前OpenAI首席科学家Ilya Sutskever一句“现在的大型神经网络可能已经有了点自主意识”的发言引得杨立昆(Yann LeCun)“了局论战”,学术圈诸多争议。
此后,MIT的访问学者Tamay Besiroglu在推特上发布的一张在机器学习模型发展图又激起谈论。他在图上画了一条线,边界以上即是模型“有微弱意识”。
虽然Besiroglu后来发推文表示只是玩笑,依然不能消弭辩论。
对付“现在的大型神经网络可能已经有微弱自主意识了”的不雅观点,IEEE China Council Vice Chair(国际电气电子工程师学会中国联合会副主席)王潮接管澎湃***(www.thepaper.cn)采访时表示,“由于先天性毛病,不可能通过神经网络产生自主意识。目前深度神经网络已经到了天花板。”
王潮是上海大学教授,中国人工智能学会理事、会员工委会副主任委员,2019年获中国人工智能学会首届精彩贡献奖。
王潮阐明道,“目前的神经网络和深度学习在本源上存在问题:违背了David Marr从神经科学和脑科学角度奠定的认知科学(Cognitive Science)理论、打算视觉(Computational Vision)和打算神经学(Computational Neuroscience)理论。 由于将模型(表达)、算法、和实现的构造这三层混在一起,深度学习丢失了语义和深度信息。因此深度神经网络不可能产生自主意识。”
杨立昆(Yann LeCun)曾经在IEEE Spectrum说过,虽然深度学习从生物学中得到了灵感,但这离生物大脑的实际运作办法间隔还远得很。杨立昆还指出深度神经网络的非监督学习能力远远弱于大脑,缺失落了人类大脑的基本的学习事理。
“深度神经网络的几大局限性,包括泛化能力弱、表达能力弱、无把稳机制以及过度依赖演习数据等,已经严重制约其运用,更谈不上产生意识。”王潮说道。
对付AI能否有自主意识,我们该如何思考这个问题呢?
王潮认为,“当古人工智能面对的三大难题:意识、情绪、推理。基于直觉推理,人工智能有望产生部分自主意识。这里,我们关注的是产生更精准的意识,而不是略显模糊的意识。”
“人类的意识涉及到人类大脑对一个不完全天下的描述,通过人类直觉判断和逻辑思维,把场景感知和情景认知结合起来,领悟前辈知识观点,有望形成部分意识。展望未来,环球首个商业化量子打算机D-Wave,目前已经装备美国能源部下属两个国家实验室、NASA、洛克希德马丁、南加州大学等,其事理量子退火独特的量子隧穿效应可以使得直觉推理方法以较大概率得到更精确的意识。”王潮接着道。
那我们须要担心AI会有自主意识吗?
王潮的答案是否定的,“无需担心人工智能会产生部分精确的意识。人工智能如果具备部分意识,终极是一种造福于人类的办法行事,使人类与技能之间达成崇高信赖。”
中国工程院院士郑南宁曾在《公民日报》发文《发展有助于人类的人工智能》表示,让机器具有自我意识、情绪以及反思自身处境与行为的能力,这是实现类人智能最困难的寻衅。具有自我意识以及反思自身处境与行为的能力,是人类差异于其他生物最主要、最根本的一点。其余,人类的大脑皮层能力是有限的,如果将智能机器设备与人类大脑相连接,不仅会增强人类的能力,而且会使机器产生灵感。让机器具有自我意识、情绪和反思能力,无论对科学和哲学来说,都是一个引人入胜的探索领域。
附采访问答:
1. 对付 OpenAI 首席科学家Ilya Sutskever“现在的大型神经网络可能已经有微弱自主意识了”的不雅观点您怎么看?
由于先天性毛病,不可能通过神经网络产生自主意识。目前深度神经网络已经到了天花板。
Yann LeCun曾经在IEEE Spectrum说过,深度神经网络与生物大脑还离得很远(“While Deep Learning gets an inspiration from biology, it’s very, very far from what the brain actually does;”)Yann LeCun还指出深度神经网络的非监督学习能力远远弱于大脑,缺失落了人类大脑的基本事理(“The brain is much better than our model at doing unsupervised learning. That means that our artificial learning systems are missing some very basic principles of biological learning;” )
目前的神经网络和深度学习在本源上存在问题:违背了David Marr从神经科学和脑科学角度奠定的认知科学(Cognitive Science)理论、打算视觉(Computational Vision)和打算神经学(Computational Neuroscience)理论。 由于将模型(表达)、算法、和实现的构造这三层混在一起,深度学习丢失了语义和深度信息。——因此深度神经网络不可能产生自主意识。
深度神经网络的几大局限性,包括泛化能力弱、表达能力弱、无把稳机制以及过度依赖演习数据等,已经严重制约其运用,更谈不上产生意识。
2. 您认为AI会有自主意识吗,您如何思考这个问题?
基于直觉推理,人工智能有望产生部分自主意识。这里,我们关注的是产生更精准的意识,而不是略显模糊的意识。
当古人工智能面对的三大难题:意识、情绪、推理,犹如郑南宁院士所言,迈向人类思维水平的人工智能是一件令人生畏又极具寻衅的研究事情,使机器人能具有自我意识、情绪和反思能力,无论对科学和哲学来说,这都是探索领域。
人类的意识涉及到人类大脑对一个不完全天下的描述,通过人类直觉判断和逻辑思维,把场景感知和情景认知结合起来,领悟前辈知识观点,有望形成部分意识。展望未来,环球首个商业化量子打算机D-Wave,目前已经装备美国能源部下属两个国家实验室、NASA、洛克希德马丁、南加州大学等,其事理量子退火独特的量子隧穿效应可以使得直觉推理方法以较大概率得到更精确的意识。
3. 如果AI有自主意识,您以为这是一件值得担心的事情吗?
无需担心人工智能会产生部分精确的意识。人工智能如果具备部分意识,终极是一种造福于人类的办法行事,使人类与技能之间达成崇高信赖。
工业运行、社会管理权力在由人向机器转移,人工智能的意识和决策不能成为大忽悠,这些年业内已经在把稳到人工智能的根本问题:模型和演习数据集对人工智能的影响问题,犹如从前谷歌的传染病预测系统后期案例。所幸这些问题国际大企业、国内外高校已经关注到,并逐步给出办理方案,2016年起IEEE也组织了100多位在人工智能、法律、伦理、哲学和政策领域事情的学术界、政府和企业部门的专家,专门从事此类干系问题的国际准则制订。
任务编辑:李跃群
校正:张亮亮
本文系作者个人观点,不代表本站立场,转载请注明出处!