编译 | 凯霞

“AI”科普丨通用人工智到底是什么?AGI 概念在 AI 界的演化史_人工智能_智能 智能助手

3 月 21 日,美国圣菲研究所(SFI,Santa Fe Institute)的 Melanie Mitchell 教授在《Science》揭橥题为《关于通用人工智能实质的辩论》(「Debates on the nature of artificial general intelligence」)的文章。

作者磋商了 AGI 观点在 AI 历史上是如何变革的,谈论了 AI 从业者对智能如何运作的意见与研究生物智能的人截然不同。
还有大家都在评论辩论的 AGI 到底是什么?

论文链接:https://www.science.org/doi/10.1126/science.ado7069

ScienceAI 对原论文进行了不改变原意的编辑、整理:

「通用人工智能」(AGI)一词在当前有关人工智能的谈论中已经无处不在。

OpenAI 表示,其义务是「确保通用人工智能造福全人类」。

DeepMind 的公司愿景声明指出,「通用人工智能……有可能成为推动历史上最伟大的变革之一。

英国政府的国家人工智能计策和美国政府的人工智能文件中都重点提到了 AGI。

微软研究职员最近声称大型措辞模型 GPT-4 中存在「AGI 的火花」。

谷歌现任和前任高管也流传宣传「AGI 已经到来」。

GPT-4 是否是「AGI 算法」的问题是埃隆·马斯克对 OpenAI 提起诉讼的核心。

鉴于 AGI 谈论在商界、政府和媒体中无处不在,不能由于假设该术语的含义已确定并达成同等而受到责怪。
然而,事实正好相反:AGI 意味着什么,或者它是否意味着任何连贯的东西,在人工智能社区里引起了激烈的辩论。

AGI 的含义和可能的后果已经不仅仅是一个关于神秘术语的学术辩论。
天下上最大的科技公司和各国政府正在根据他们对通用人工智能的意见做出主要决策。

但深入研究有关 AGI 的预测就会创造,许多人工智能从业者对智能实质的意见,与那些研究人类和动物认知的人截然不同——这种差异对付理解机器智能的现状和预测其可能的未来很主要。

人工智能领域的最初目标是创造具有与人类相称的通用智能的机器。

早期的人工智能先驱很乐不雅观:1965 年,赫伯特·亚历山大·西蒙(Herbert Alexander Simon)在他的《人类自动化的形态与管理》(The Shape of Automation for Men and Management)一书中预测,「在 20 年内,机器将能够完成人类能做的任何事情」,而在 1970 年,《Life》杂志援引 Marvin Minsky 的话说:「三到八年内,我们将拥有一台具有普通人一样平常智力的机器。
我指的是一台能够阅读莎士比亚、给汽车加油、搞办公室政治、讲笑话、斗殴的机器。

Artificial General Intelligence 2008

这些乐不雅观的预测并没有成为现实。
在接下来的几十年里,唯一成功的人工智能系统是「狭窄」的而不是通用的——它们只能实行单一任务或有限范围的任务(例如,手机上的语音识别软件可以转录你的听写,但无法智能地相应它) 。

「AGI」一词于 21 世纪初创造,旨在重拾人工智能先驱者最初的远大抱负,寻求重新关注「考试测验以独立于领域的办法研究和再现全体智能」。

直到最近,这种追求仍旧是人工智能领域一个相称模糊的角落,最近,领先的人工智能公司将实现通用人工智能作为他们的紧张目标,并指出人工智能「恶运者」流传宣传通用人工智能的生存威胁是他们的头号恐怖。

许多人工智能从业者都对 AGI 的韶光表做出了推测,例如,有人预测「到 2028 年我们拥有 AGI 的可能性为 50%」。
其他人质疑 AGI 的条件,称其模糊且定义不明确。
一位著名研究职员在推特上表示,「全体观点是不科学的,人们乃至该当为利用这个词感到尴尬。

虽然早期 AGI 支持者认为机器很快就会承担所有人类活动,但研究职员经由惨痛的教训才认识到,创建能够在国际象棋中击败你或回答你的搜索问题的人工智能系统,比制造一个能叠衣服或修理管道的机器人要随意马虎得多。

AGI 的定义也进行了相应调度,只包括所谓的「认知任务」。
DeepMind 联合创始人 Demis Hassabis 将 AGI 定义为「该当能够完成人类险些可以完成的任何认知任务」的系统,而 OpenAI 将其描述为「在最具经济代价的事情中超越人类的高度自治系统」,个中「大多数」 遗漏了须要物理智能的任务,而这些任务可能会在一段韶光内机器人无法完成。

人工智能中的「智能」观点(认知或其他)常日是根据单个代理针对褒奖或目标进行优化来构建的。
一篇有影响力的论文(「Universal Intelligence: A Definition of Machine Intelligence」)将通用智能定义为「智能体在各种环境中实现目标的能力」。

干系论文链接:https://link.springer.com/article/10.1007/s11023-007-9079-x

另一篇文章(「Reward is enough」)指出,「智力及其干系能力可以被理解为促进褒奖的最大化。
」事实上,这便是当今人工智能的事情事理——例如,打算机程序 AlphaGo 被演习来优化特定的褒奖函数(「赢得比赛」),而 GPT-4 被演习来优化另一种褒奖函数(「 预测短语中的下一个单词」)。

干系论文链接:https://doi.org/10.1016/j.artint.2021.103535

这种对智能的意见引发了一些人工智能研究职员的另一种预测:一旦人工智能系统实现了AGI,它将通过将其优化能力运用到自己的软件中,递归地提高自己的智能,并迅速变得「比我们聪明数千或数百万倍」,从而迅速实现超人的智能。

「在我们与超级智能机器共享地球之前,我们必须发展一门科学来理解它们。
否则,它们就会掌握统统,」作者 James Barrat 在谈到他的新书《我们的终极发明:人工智能和人类时期的闭幕》(Our Final Invention: Artificial Intelligence and the End of the Human Era)时说道。

这种对优化的关注导致人工智能社区中的一些人担心「不一致」的通用人工智能可能会猖獗地偏离其创造者的目标,从而给人类带来生存风险。

哲学家 Nick Bostrom 在其 2014 年出版的《超级智能》(Superintelligence)一书中提出了一个现在很著名的思想实验:他想象人类给超级智能人工智能系统一个优化回形针生产的目标。
从字面上理解这个目标,人工智能系统利用其天才来掌握地球上所有的资源,并将统统都变成回形针。
当然,人类并不想毁灭地球和人类来制造更多的回形针,但他们在解释书中忽略了这一点。

人工智能研究员 Yoshua Bengio 给出了他自己的思想实验:「我们可能会哀求人工智能办理景象变革问题,它可能会设计出一种导致人类大量去世亡的病毒,由于我们的指令对付危害的含义还不足明确,而人类实际上是办理景象危急的紧张障碍。

Nick Bostrom 在 2014 年出版的《超级智能》(Superintelligence)。

这种对 AGI(和「超级智能」)的推测性不雅观点与研究生物智能(尤其是人类认知)的人们所持有的不雅观点不同。
只管认知科学对「一样平常智力」没有严格的定义,也没有就人类或任何类型的系统可以拥有一样平常智力的程度达成共识,但大多数认知科学家都赞许,智力不是一个可以在单一尺度上衡量的量。
也不是任意地高下调度的量,而是一样平常和专业能力的繁芜整合,这些能力在很大程度上是在特定的进化生态位中适应的。

许多研究生物智能的人也疑惑,所谓的「认知」方面的智能是否可以与其他模式分离并在分开实体的机器中捕获。
生理学家已经表明,人类智力的主要方面因此一个人详细的身体和情绪体验为根本的。
有证据还表明,个人智力很大程度上依赖于一个人对社会和文化环境的参与。
对付一个人成功实现目标而言,理解他人、与他人折衷并向他人学习的能力可能比个人的「优化能力」主要得多。

此外,与假设的回形针最大化人工智能不同,人类智能并不以固定目标的优化为中央;相反,一个人的目标是通过先天需求与支持其智力的社会和文化环境的繁芜整合而形成的。
与超级智能回形针最大化器不同,智能的增加正好使我们能够更好地洞察他人的意图以及我们自己的行为可能产生的影响,并相应地修正这些行为。

正如哲学家 Katja Grace 所写:「对付险些任何人类目标来说,将宇宙作为一个子步骤的想法都是完备可笑的。
那么为什么我们认为人工智能的目标不同呢?」

机器改进自己的软件,以将其智力提高几个数量级的幽灵也偏离了生物学的不雅观点,即智力是一个超越伶仃大脑的高度繁芜的系统。
如果人类水平的智能须要不同认知能力的繁芜整合,以及社会和文化的脚手架,那么系统的「智能」级别很可能无法无缝访问「软件」级别,就像我们人类无法轻易地设计我们的大脑(或基因)让自己变得更聪明一样。
然而,我们作为一个集体,通过打算机等外部技能工具,比如学校、图书馆和互联网等文化机构的培植,提高了我们的有效智力。

AGI 的含义以及它是否是一个连贯的观点仍在辩论中。
此外,对通用人工智能机器能够做什么的预测很大程度上基于直觉,而不是科学证据。
但这样的直觉有多少可信度呢?人工智能的历史几次再三推翻了我们对智能的直觉。

许多早期的人工智能先驱认为,用逻辑编程的机器将捕获人类智能的全部范围。
其他学者预测,要让机器在国际象棋中击败人类,或者在措辞之间进行翻译,或者进行对话,须要它具有人类水平的一样平常智能,但结果被证明是缺点的。

在人工智能进化的每一步中,人类水平的智能都比研究职员预期的更加繁芜。
当前关于机器智能的预测是否会被证明同样是缺点的?我们能否发展出更严格、更普遍的智能科学来回答这些问题?

目前尚不清楚人工智能科学是否更像人类智能科学,或者更像天体生物学,它预测其他星球上的生命可能是什么样子。
对从未见过、乃至可能不存在的事物做出预测,无论是外星生命还是超级智能机器,都须要基于一样平常事理的理论。

终极,「AGI」的含义和后果将不会通过媒体的辩论、诉讼或我们的直觉和预测来办理,而是通过对这些原则的长期科学稽核来办理。

【免责声明】本公众年夜众号发布的内容仅供学习互换利用,内容版权归原作者所有。
如有陵犯您的权柄,请及时与我们联系,我们将于第一韶光删除内容。
内容为作者个人不雅观点,不代表本"大众年夜众号态度和对其真实性卖力。