近日,美国AI研究公司OpenAI联合创始人兼首席科学家伊尔亚·苏茨克维在接管美国《麻省理工科技评论》杂志专访时,讲述了他对未来AI的希望和担忧。
苏茨克维认为,如果我们“眯着眼睛看天下”,那么ChatGPT可能是故意识的。

人工智能会产生意识吗_意识_神经 AI快讯

这听起来很“猖獗”,但在近一两年,ChatGPT和其他大措辞模型(LLM)震荡了全天下。
这些系统可天生彷佛能表现出思想、理解力乃至创造力的文本。
一韶光,“ChatGPT可能已经有了意识”的话题也冲上了网络热搜,再次引发了网友们对付AI是否具故意识等问题的磋商。

苏茨克维辞吐存在炒作嫌疑

去年11月,OpenAI发布了ChatGPT谈天机器人。
几周内,它便风靡环球,乃至引发了一场新的环球AI竞赛。
上线仅仅两个月,ChatGPT的生动用户就打破1亿,许多人都被这个新“玩意儿”迷住了。

今年9月25日,OpenAI宣告将授予ChatGPT利用语音、音频与用户对话的能力。
有网友晒出了与其交互的视频,视频中AI语音交互中的语气、停顿、重音都十分靠近真人。
有人质疑,它停顿的那一秒真的是在思考吗?

事实上,10月初,苏茨克维就在其社交账号上声称,“大型神经网络具有轻微的意识”。

对此,未来主义网站刊文写道:“这是一个不屈常的不雅观点。
AI研究职员广泛接管的不雅观点是,该技能在过去十年中取得了长足进步,但仍远远低于人类智能,更不用说故意识地体验天下了。

Mind Matters播客网站文章表示,听到这些AI领军人物夸奖他们创造的东西既是天下的救世主,又是潜在的去世神,真是“令人费解”。
然而,一些更中立、客不雅观的不雅观点可能会缓和这种炒作。

打算机工程师罗伯特·J·马克斯便是这些理智的发声者之一,他重申,AI永久不会实现像人类一样的智能或意识。
AI的运行基于算法,它们的功能与人类的情绪和思维有着质的不同。

没有情由认为当前AI故意识

不过,大概这样的辩论陷入了语义混乱之中。

意识到底是什么?它能被量化吗?这本身便是令哲学家和科学家困惑已久的问题。

美国意见意义科学网刊文称,哲学家将意识描述为具有独特的自我意识以及对周围发生的事情的认识。
神经科学家通过剖析人的大脑中整合和解释感官数据的活动,对如何量化意识提出了自己的不雅观点。
然而,将这些规则运用于AI是很棘手的。

粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接管科技日报采访时表示,对付AI领域的从业职员来说,对“什么叫AI拥有自我意识”这件事情并没有一个很清楚的定义,自我意识很难像人脸识别、语音识别这些能力一样可以被定量衡量。

《自然》网站10月30日揭橥书评文章称,美国纽约大学神经科学家约瑟夫·勒杜在《存在的四个领域》中提出,地球上的生命有四种基本类型:生物生命、神经生物生命、认知生命和意识生命。
勒杜坚持认为,意识只能存在于生物体内。
纵然模拟具备意识的生物的机制(无论这些机制从微不雅观到宏不雅观层面是什么),所产生的系统也不会故意识。

澳大利亚《对话》杂志今年也表示,“目前的这些AI系统真的能进行思考和理解吗?”不是一个可纯挚通过技能进步来回答的问题。

新揭橥在预印本网站arXiv上的一篇论文称,今年3月发布的措辞模型GPT-4未能通过图灵测试。

大脑如何产生意识依旧未解

据10月27日揭橥在《神经科学》杂志上的论文,爱沙尼亚研究委员会3名科学家认为,只管AI系统具有繁芜的反应,但这些系统不具备人类所拥有的详细履历或神经机制。
因此,将AI的能力等同于真正的意识可能过于大略化了。

研究指出,措辞模型缺少我们通过感官与周围天下进行打仗所得到的详细的、嵌入性的信息。
同时,当今AI算法的架构短缺与哺乳动物意知趣干的丘脑皮质系统的关键特色。
此外,导致有生命、故意识的有机体涌现的进化和发展轨迹,是本日的AI系统的发展轨迹所不可比拟的。

生命有机体的存在依赖于多层次的细胞活动,能动性和意识正是产生于繁芜的有机体活动。
因此,只管人们想当然地认为ChatGPT和类似的系统可能是故意识的,但这严重低估了我们大脑中产生意识的神经机制的繁芜性。

25年前,神经科学家克里斯托夫·科赫与哲学家大卫·查默斯打了个赌。
科赫说,大脑神经元产生意识的机制将于2023年被创造。
查默斯表示不可能。
今年6月23日在纽约召开的意识科学研究协会年会宣告了这一赌局的结果:查默斯得胜。
也便是说,大脑神经元产生意识的机制并未在今年被创造。

揭橥在《神经科学》杂志上的论文也认为,生物神经元是真实的物理实体,可以成长和改变形状,而大型措辞模型中的“神经元”只是无意义的代码片段。
我们间隔理解意识还有很长的路要走,因此,间隔研发故意识的机器还有更长的路要走。

《自然》网站文章称:AI系统会故意识吗?我们真的想要制造一台具故意识或能动性的机器吗?这些问题的答案都是不愿定的。
我们还不理解天下上哪些生物是故意识的,也没有建立起将这种可能性纳入考虑的伦理框架。
在该文作者看来,成为一个去思考意识来源的生物,而不是一个渴望创造人工意识的生物,大概是更明智的选择。

干系链接

最新研究表明

GPT-4未通过图灵测试

科技日报讯 (张佳欣)图灵测试是一种考验机器是否具有人类智能的方法。
ChatGPT在AI领域成为“新星”的过程中,有一个问题一贯存在:它是否通过了图灵测试。

美国加州大学圣迭戈分校的研究职员卡梅隆·琼斯和本杰明·卑尔根借鉴了艾伦·图灵的研究成果,设计了一个程序,以确定机器是否能够达到人类智力和对话能力的临界点。
倘若达到临界点,那么它就足以让人误以为它是人类。
结果显示,GPT-4未通过测试。
干系研究报告《GPT-4能通过图灵测试吗?》于10月31日揭橥在预印本网站arXiv上。

ChatGPT给人的印象大多是聪明的、快捷的。
在与人交谈时,它的回答很人性化,乃至可以表现得诙谐风趣,能模拟青少年的说话,并通过了美国法学院的考试。
但有时,人们会创造它供应的信息完备是缺点的,是胡编乱造的。

卡梅隆·琼斯和本杰明·卑尔根调集了650名参与者,参与者会和人或GPT模型进行简短对话,并被哀求确定他们在与谁交谈。
结果创造,GPT-4模型在41%的情形下骗过了参与者,而GPT-3.5模型成功骗过参与者的几率仅为5%至14%。
有趣的是,人类仅在63%的试验中成功地让参与者相信他们不是机器。

研究职员总结道:“我们没有创造GPT-4通过图灵测试的证据。
”( 张佳欣)

来源: 科技日报