麻省理工科技评论2万字长文:什么是人工智能?_人工智能_措辞
大家到底在评论辩论什么?
人工智能是当今最热门的技能。但它到底是什么?这个问题听起来很屈曲,但却是人们最急迫须要办理的问题。简短的回答是:人工智能是一个统称,指的是一组技能,这些技能使打算机能够完成人们认为须要人类智能才能完成的事情。比如识别人脸、理解语音、驾驶汽车、写句子、回答问题、创建图片。但纵然是这个定义也包含很多内容。
问题就在这里。机器能够理解语音或写出句子意味着什么?我们可以让这些机器完成哪些任务?我们该当在多大程度上相信机器能够完成这些任务?
随着这项技能从原型到产品的速率越来越快,这些问题已成为我们所有人的问题。但(剧透!
)我没有答案。我乃至不能见告你什么是人工智能。制造人工智能的人也不知道人工智能是什么。实在不是。“这些问题非常主要,每个人都以为自己可以揭橥见地,”旧金隐士工智能实验室 Anthropic 的首席科学家 Chris Olah 说。“我还认为,你可以为所欲为地辩论这个问题,现在没有证据与你的不雅观点相抵牾。”
但是如果你乐意系紧安全带,踏上旅程,我可以见告你为什么没有人真正知道,为什么每个人彷佛都不同意,以及为什么你关心它是对的。
让我们从一个随口说的笑话开始。
2022 年,在《神秘 AI 炒作戏院 3000》第一集的中途,这是一档绝望的播客节目,脾气暴躁的联合主持人 Alex Hanna 和 Emily Bender 很有趣地将“最锋利的针”刺入硅谷一些最被吹捧的神圣不可陵犯的事物中,他们提出了一个荒谬的建议。他们满怀仇恨地大声朗读谷歌工程副总裁 Blaise Agüera y Arcas 在 Medium 上揭橥的一篇 12,500 字的文章,标题为“机器能学习如何行为吗? ” Agüera y Arcas 提出,人工智能可以以某种类似于人类理解观点的办法理解观点——比如道德代价不雅观。简而言之,大概机器可以被教会如何行为。
图片来源:
汉娜和本德对此不以为然。他们决定用“数学”一词取代“人工智能”一词——你知道,便是大量的数学。
这句不敬的话语意在瓦解他们眼中引用的句子中的浮夸和拟人化。很快,社会学家兼分布式人工智能研究所研究主任汉娜和华盛顿大学打算措辞学家本德(也是互联网上著名的科技行业炒作批评家)就揭开了阿奎拉·阿卡斯想要表达的意思和他们选择谛听的办法之间的鸿沟。
“人工智能、其创造者和用户该当如何承担道德任务?”Agüera y Arcas 问道。
本德问道:“数学该当如何承担道德任务?”
“这里有一个分类缺点,”她说。汉娜和本德不仅谢绝接管阿奎拉·阿尔卡斯的说法,还声称这毫无意义。“我们能不能不要再利用‘一个人工智能’或‘人工智能’了,彷佛它们是天下上的个体一样?”本德说。
听起来彷佛他们在评论辩论不同的事情,但事实并非如此。双方都在评论辩论大型措辞模型,这是当古人工智能热潮背后的技能。只是我们评论辩论人工智能的办法比以往任何时候都更加两极分解。今年 5 月,OpenAI 首席实行官 Sam Altman在推特上透露了该公司旗舰模型GPT-4 的最新更新,“对我来说觉得像魔术一样。”
数学和邪术之间还有很长的路要走。
人工智能有追随者,他们坚信该技能目前的力量和未来一定的改进。他们说,通用人工智能即将到来;超级智能即将到来。也有异端者,他们将这些说法视为神秘的胡言乱语,嗤之以鼻。
热门的盛行叙事由浩瀚大牌人物塑造,从 Sundar Pichai 和 Satya Nadella 等大型科技公司的首席营销官,到 Elon Musk 和 Altman 等行业领头人,再到Geoffrey Hinton等有名打算机科学家。有时,这些支持者和毁灭者是同一个人,见告我们技能太好了,但实在是坏的。
随着人工智能炒作的不断升温,一个反对炒作的团体开始站出来反对,准备打击其年夜志勃勃、每每荒谬的主见。支持这一方向的有一大批研究职员,包括汉娜和本德,还有开门见山的行业批评者,比如有影响力的打算机科学家、前谷歌员工蒂姆尼特·格布鲁和纽约大学认知科学家加里·马库斯。他们都得到了一大批追随者的回应。
简而言之,人工智能已经成为所有人眼中不可或缺的一部分,将这个领域分成了不同的阵营。觉得就像不同的阵营在各说各话,并不总是出于善意。
大概你以为这些都很屈曲或令人厌烦。但考虑到这些技能的力量和繁芜性——它们已经被用来决定我们支付多少保险费、我们如何查找信息、我们如何事情等等——现在是时候我们至少就我们正在评论辩论的内容达成同等了。
然而,在我与这项技能最前沿的人士进行的所有对话中,没有人直接回答他们正在构建的到底是什么。(简短的附注:本文重点关注美国和欧洲的人工智能辩论,紧张是由于那里有许多资金最充足、最前沿的人工智能实验室。但当然,其他地方也有主要的研究,这些国家对人工智能的意见各不相同,尤其是中国。)部分缘故原由是发展速率。但科学也是开放的。本日的大型措辞模型可以创造惊人的事情。这个领域只是无法就幕后真正发生的事情找到共同点。
这些模型经由演习可以完成句子。它们彷佛能做更多的事情——从办理高中数学问题到编写打算机代码,再到通过法律考试,再到创作诗歌。当一个人做这些事情时,我们认为这是聪慧的标志。那么当打算机做这些事情时呢?看起来有聪慧就够了吗?
这些问题触及了我们所说的“人工智能”的核心,人们实际上已经就这个术语辩论了几十年。但随着大型措辞模型的兴起,环绕人工智能的谈论变得更加激烈,这些模型可以以令人愉快/令人不寒而栗(视情形而定)的真实感模拟我们说话和写作的办法。
我们已经制造出具有类似人类行为的机器,但还没有摆脱想象它们背后有类似人类思维的习气。这导致人们对人工智能的能力评价过高;它将直觉反应固化为教条主义态度,并加剧了技能乐不雅观主义者和技能疑惑论者之间更广泛的文化战役。
除了这种不愿定性,还有大量的文化包袱,从科幻小说(我敢打赌,这个行业中的许多人都是看着这些科幻小说终年夜的)到影响我们对未来意见的更加恶劣的意识形态。鉴于这种令人头晕眼花的稠浊,关于人工智能的辩论不再只是学术性的(大概从来都不是)。人工智能引发了人们的激情,让成年人相互辱骂。
马库斯在谈到这场辩论时说:“现在的智力状况并不康健。”多年来,马库斯一贯在指出深度学习的毛病和局限性,深度学习是将人工智能推向主流的技能,为从法学硕士到图像识别再到自动驾驶汽车等所有领域供应动力。他在 2001 年出版的《代数思维》一书中指出,神经网络是深度学习的根本,但它无法自行推理。(我们现在先跳过这个话题,但我稍后会再谈论它,我们会看看“推理”这个词在这样的句子中有多主要。)
马库斯说,他曾试图与辛顿就大型措辞模型到底有多好展开一场正式的辩论,辛顿去年公开表达了对他参与发明的技能的担忧。马库斯说:“他便是不会这么做。他叫我傻瓜。”(我过去曾与辛顿评论辩论过马库斯,可以证明这一点。“ChatGPT 显然比他更理解神经网络,”辛顿去年见告我。)马库斯还因撰写一篇题为“深度学习正在碰钉子”的文章而引起众怒。奥尔特曼在推特上回应道:“给我一个平庸的深度学习疑惑论者的信心。”
与此同时,马库斯的鼓声也让他成为了个人品牌,并于去年得到了约请,与奥尔特曼坐在一起,在美国参议院人工智能监督委员会面前作证。
这便是为什么所有这些争斗比一样平常的互联网恶意更主要。当然,这涉及到巨大的自傲心和巨额的金钱。但更主要的是,当国家元首和立法者调集行业领袖和固执己见的科学家来阐明这项技能是什么、它能做什么(以及我们该当有多害怕)时,这些争议就变得主要了。当这项技能被融入我们每天利用的软件中时,它们就变得主要了,从搜索引擎到笔墨处理运用程序再得手机助手。人工智能不会消逝。但如果我们不知道我们被卖的是什么,谁是骗子?
“很难想象历史上还有哪项技能会引发这样的辩论——辩论它是否无处不在,还是根本不存在,”斯蒂芬·凯夫 (Stephen Cave) 和坎塔·迪哈尔 (Kanta Dihal) 在2023 年出版的《想象人工智能》一书中写道。这本书收录了关于不同文化崇奉如何影响人们对人工智能的意见的论文。“人们可以对人工智能持有这种意见,这证明了它的神话品质。”
最主要的是,人工智能是一种理念,一种空想,它既受到数学和打算机科学的影响,也受到天下不雅观和科幻比喻的影响。当我们评论辩论人工智能时,弄清楚我们在评论辩论什么将澄清许多事情。我们不会就这些问题达成同等,但对人工智能是什么的共识将是一个很好的出发点,可以开始谈论人工智能该当是什么。
无论如何,大家究竟在争吵什么呢?
2022 年末,OpenAI 发布ChatGPT后不久,一个新的 meme 开始在网上流传,它比其他任何东西都更能捕捉到这项技能的怪异之处。在大多数版本中,一个名为 Shoggoth 的洛夫克拉夫特式怪物,全是触手和眼球,举着一个平淡的笑脸表情符号,仿佛在掩饰笼罩其真实实质。ChatGPT 在对话笔墨游戏方面表现得像人类一样民平易近,但在这种外表背后隐蔽着深不可测的繁芜性和胆怯。(“这是一个恐怖的、难以形容的东西,比任何地铁列车都大——一个无形的原生质气泡聚拢体,”HP Lovecraft 在 1936 年的中篇小说《猖獗山脉》中这样描述 Shoggoth 。)
@ANTHRUPAD 通过 KNOWYOURMEME.COM
迪哈尔说,多年来,盛行文化中最著名的 人工智能试金石之一是《闭幕者》。但通过将 ChatGPT 免费放到网上,OpenAI 让数百万人亲自体验了不同的东西。“人工智能一贯是一种非常模糊的观点,可以无限扩展以涵盖各种想法,”她说。但 ChatGPT 让这些想法变得切实可行:“溘然之间,每个人都有了一个详细的东西可以参考。”什么是人工智能?对付数百万人来说,答案现在是:ChatGPT。
人工智能行业正在大力宣扬这个笑脸。看看《 逐日秀》最近对行业领袖的炒作。硅谷首席风险投资家马克·安德森 (Marc Andreessen) 表示:“这有可能让生活变得更好……我认为这真的是一个绝妙的主张。” Altman 表示:“我不想在这里听起来像一个乌托邦式的技能兄弟,但人工智能可以带来的生活质量提升是非凡的。” Pichai 表示:“人工智能是人类正在研究的最深刻的技能。比火更深刻。”
但正如该模因所指出的那样,ChatGPT 只是一张友好的面具。在它背后是一个名为 GPT-4 的怪物,这是一个由弘大的神经网络构建的大型措辞模型,它所接管的单词比我们大多数人一千辈子所能阅读的单词还要多。在演习过程中,这些模型须要填写从数百万本书和很大一部分互联网上获取的句子中的空缺,而演习可能持续数月,花费数千万美元。它们一遍又一各处实行这项任务。从某种意义上说,它们被演习成了超级自动完成机器。终极,这个模型将天下上大量的书面信息转化为统计表示,即哪些词最有可能跟在其他词后面,这些统计表示涵盖了数十亿个数值。
这是数学——大量的数学。没有人对此有异议。但仅仅是数学吗?还是这种繁芜的数学编码了能够进行类似于人类推理或观点形成的算法?
许多对这个问题回答“是”的人相信我们即将解锁一种叫做“通用人工智能”的东西,即 AGI,这是一种假想的未来技能,可以像人类一样出色地完成各种任务。他们中的一些人乃至将目光投向了他们所谓的超级智能,这是一种可以比人类做得更好的科幻技能。这群人相信 AGI 将彻底改变天下——但终极会若何呢?这又是一个紧张点。它可能会办理天下上所有的问题——也可能带来毁灭。
如今,AGI 涌现在世界顶级人工智能实验室的义务宣言中。但该术语于 2007 年发明,作为一项小众考试测验,旨在为当时以读取银行存款单上的手写内容或推举下一本书的运用程序而有名的领域注入一些活力。这个想法是为了重拾人工智能的最初愿景,即能够做类似人类的事情(稍后会详细先容)。
创造这一术语的谷歌 DeepMind 联合创始人 Shane Legg 去年见告我,这实际上是一种欲望:“我没有一个特殊明确的定义。”
AGI 成为人工智能领域最具争议的理念。一些人将其视为下一个大事宜:AGI 便是人工智能,但你知道,它要好得多。另一些人则声称这个术语太过模糊,毫无意义。
“AGI 曾经是一个肮脏的词,”Ilya Sutskever 在辞去 OpenAI 首席科学家职务之前见告我。
但大型措辞模型,尤其是 ChatGPT,改变了统统。AGI 从脏话变成了营销梦想。
我认为,这就引出了当下最具有解释性的争议之一——它确立了辩论的双方及其短长关系。
见证机器的神奇之处在 OpenAI 的大型措辞模型 GPT-4 于 2023 年 3 月公开拓布的几个月前,该公司与微软分享了一个预发布版本,微软希望利用新模型来改造其搜索引擎 Bing。
当时,塞巴斯蒂安·布贝克 (Sebastian Bubeck) 正在研究法学硕士的局限性,对其能力有些疑惑。尤其是华盛顿州雷德蒙德微软研究院天生式人工智能研究副总裁布贝克,他一贯在考试测验利用该技能办理中学数学问题,但未能如愿。例如:x – y = 0; x和y是多少?“我认为推理是一个瓶颈,一个障碍,”他说。“我认为你必须做一些完备不同的事情才能战胜这个障碍。”
然后他开始研究 GPT-4。他做的第一件事便是考试测验办理那些数学问题。“这个模型成功了,”他说。“现在是 2024 年了,GPT-4 当然可以解线性方程。但在当时,这太猖獗了。GPT-3 做不到这一点。”
但布贝克真正走向大马士革的时候是在他推动自己做一些新的事情的时候。
中学数学问题的特点是,它们遍布互联网,而 GPT-4 可能只是记住了它们。“你如何研究一个可能已经看过人类写过的统统的模型?”布贝克问道。他的答案是,用一系列他和他的同事认为是新奇的问题来测试 GPT-4。
布贝克与微软研究院的数学家 Ronen Eldan 一起研究,哀求 GPT-4 以诗歌的形式给出素数有无数个的数学证明。
以下是 GPT-4 的相应片段:“如果我们取 S 中不在 P 中的最小数字 / 并将其称为 p,我们可以将其添加到我们的凑集中,你明白吗?/ 但这个过程可以无限重复。/ 因此,我们的凑集 P 也必须是无限的,你会赞许的。”
很可爱,对吧?但 Bubeck 和 Eldan 认为这远不止于此。“我们就在这间办公室里,”Bubeck 通过 Zoom 向身后的房间挥手说道。“我们俩都从椅子上摔了下来。我们切实其实不敢相信自己所看到的统统。它太有创意了,而且,你知道的,分歧凡响。”
微软团队还利用 GPT-4 天生代码,为用笔墨处理程序 Latex 绘制的独角兽卡通图片添加角。Bubeck 认为,这表明该模型可以读取现有的 Latex 代码,理解其所描述的内容,并确定角该当放在哪里。
“有很多例子,但个中有几个是推理的确凿证据,”他说——推理是人类智能的主要组成部分。
Bubeck、Eldan 和其他微软研究职员团队在一篇名为“通用人工智能的火花”的论文中描述了他们的创造:“我们认为,GPT-4 的智能标志着打算机科学领域及其他领域的真正范式转变。” Bubeck 在网上分享这篇论文时,他在推特上写道:“是时候面对现实了,#AGI 的火花已经点燃。”
Sparks 论文很快变得臭名昭著,并成为 AI 支持者的试金石。Agüera y Arcas 和 Google 前研究总监、《人工智能:一种当代方法》一书的合著者 Peter Norvig (这本书可能是天下上最受欢迎的 AI 教科书)共同撰写了一篇名为“通用人工智能已然到来”的文章。该文章揭橥在由洛杉矶智库伯格鲁恩研究所支持的杂志《 Noema》上,他们以 Sparks 论文为出发点提出不雅观点:“通用人工智能 (AGI) 对不同的人来说意味着许多不同的东西,但它最主要的部分已经被当前一代前辈的 AI 大型措辞模型实现,”他们写道。“几十年后,它们将被公认为 AGI 的第一个真正例子。”
从那时起,炒作持续升温。当时是 OpenAI 研究员、专注于超级智能的 Leopold Aschenbrenner去年见告我:“过去几年,人工智能的进步非常迅速。我们一贯在冲破所有基准,而且这种进步仍在连续。但这不会止步于此。我们将拥有超人的模型,比我们聪明得多的模型。”(他于 4 月被 OpenAI 开除,由于他声称,他对自己正在开拓的技能提出了安全问题,并“惹恼了一些人”。此后,他成立了一家硅谷投资基金。)
6 月,阿申布伦纳发布了一份长达165 页的宣言,声称到“2025/2026 年”,人工智能的发展速率将超过大学毕业生,到 2020 年“我们将拥有真正意义上的超级智能”。但业内其他人对这种说法嗤之以鼻。当阿申布伦纳在推特上发布了一张图表,以表明他认为人工智能在过去几年景长速率如此之快的情形下将连续发展的速率时,科技投资者克里斯蒂安·凯尔 (Christian Keil)回答说,按照同样的逻辑,他的儿子出生后体重增加了一倍,到 10 岁时体重将达到 7.5 万亿吨。
“AGI 的火花”也成为了夸年夜宣扬的代名词,这并不奇怪。“我认为他们有点得意忘形了,”Marcus 在谈到微软团队时说道。“他们很愉快,就彷佛‘嘿,我们创造了什么!
这太神奇了!
’他们没有与科学界进行审查。”Bender 将 Sparks 论文称为“同人小说”。
声称 GPT-4 的行为显示出 AGI 的迹象不仅具有挑衅性,而且在自己的产品中利用 GPT-4 的微软显然故意推广该技能的功能。一位科技首席运营官在 LinkedIn 上发帖称:“这份文件是伪装成研究的营销花招。”
一些人还认为这篇论文的方法论存在毛病。它的证据很难验证,由于它来自与 GPT-4 的一个版本的交互,而这个版本在 OpenAI 和微软之外是无法得到的。布贝克承认,公开版本有限定模型能力的护栏。这使得其他研究职员无法重现他的实验。
一个研究小组考试测验利用一种名为 Processing 的编码措辞重现独角兽示例,GPT-4也可以利用该措辞天生图像。他们创造,GPT-4 的公开版本可以天生一只合格的独角兽,但不能将该图像翻转或旋转 90 度。这彷佛是一个很小的差异,但当你声称绘制独角兽的能力是 AGI 的标志时,这些事情真的很主要。
Sparks 论文中的例子(包括独角兽)的关键在于,Bubeck 和他的同事相信它们是创造性推理的真正例子。这意味着团队必须确定这些任务的例子或与它们非常相似的任务的例子没有包含在 OpenAI 为演习其模型而积累的大量数据集中。否则,结果可能会被阐明为 GPT-4 重现它已经见过的模式的实例。
Bubeck 坚持认为,他们为模型设置的任务都是在互联网上找不到的。用 Latex 画一只卡通独角兽肯定是个中一项任务。但互联网是一个大地方。其他研究职员很快指出,确实有专门用 Latex 画动物的在线论坛。“仅供参考,我们知道这一点,”Bubeck在 X 上回答道。“Sparks 论文的每一个查询都在互联网上进行了彻底搜索。”
(这并没有阻挡辱骂:“我哀求你不要再当骗子了”,加州大学伯克利分校的打算机科学家本·雷希特在推特上回答道,然后责怪布贝克“被创造在撒谎”。)
布贝克坚称这项事情是出于善意,但他和他的合著者在论文中承认,他们的方法并不严谨——只是依赖条记本不雅观察,而不是万无一失的实验。
只管如此,他并不后悔:“这篇论文已经揭橥了一年多了,我还没有看到任何人给我一个令人信服的论据,证明独角兽不是真正的推理例子。”
这并不是说他能直接回答这个大问题——只管他的回答透露了他想给出什么样的答案。“什么是人工智能?”布贝克重复道。“我想跟你讲清楚。问题可能很大略,但答案可能很繁芜。”
“还有很多大略的问题我们仍不知道答案。个中一些大略的问题是最深刻的问题,”他说。“我把这个问题与生命起源于哪里?宇宙起源于哪里?我们从哪里来?这些都是大问题。”
只看到机器里的数学在本德成为人工智能支持者的紧张反对者之一之前,她作为两篇有影响力的论文的合著者在人工智能领域留下了自己的印记。(她喜好指出,这两篇论文都经由了同行评审——不像 Sparks 论文和许多其他备受关注的论文。)第一篇论文是与德国萨尔大学打算措辞学家亚历山大·科勒 (Alexander Koller) 互助撰写的,于 2020 年出版,名为“向 NLU 迈进”(NLU 是自然措辞理解)。
“对我来说,这统统的开始是与打算措辞学领域的其他人辩论措辞模型是否理解任何事情,”她说。(理解和推理一样,常日被认为是人类智能的基本要素。)
本德和科勒认为,仅靠文本演习的模型永久只能学习措辞的形式,而不是其含义。他们认为,含义由两部分组成:单词(可以是标记或声音)加上说出这些单词的缘故原由。人们利用措辞的缘故原由有很多,例如分享信息、讲笑话、调情、警告某人退后等等。剥离这些背景后,用于演习 GPT-4 等法学硕士的文本可以让它们很好地模拟措辞模式,以至于法学硕士天生的许多句子看起来与人类写的句子千篇一律。但它们背后没有任何意义,没有火花。这是一个了不起的统计技巧,但完备没故意义。
他们用一个思维实验来解释他们的不雅观点。想象两个说英语的人被困在相邻的荒岛上。有一条水下电缆让他们可以相互发送短信。现在想象一下,一只章鱼,它不懂英语,但善于统计模式匹配,它用吸盘缠住电缆,开始监听信息。这只章鱼非常善于预测哪些单词后面随着其他单词。它非常善于预测,以至于当它扯断电缆并开始回答个中一位岛民的信息时,这位岛民相信她仍在与她的邻居谈天。(如果您没把稳到,这个故事中的章鱼是一个谈天机器人。)
与章鱼对话的人会在一段合理的韶光内被愚弄,但这能持续下去吗?章鱼能理解电话里说的话吗?
琼·艾奥内达
想象一下,现在岛民说她已经造了一个椰子弹射器,并哀求章鱼也做一个,并见告她它的想法。章鱼做不到这一点。如果不知道信息中的单词在世界上指的是什么,它就无法遵照岛民的指示。大概它会猜到答案:“好的,好主张!
”岛民可能会认为这意味着她正在交谈的人明白了她的信息。但如果是这样,她便是在无中生有。末了,想象一下岛民遭到熊的打击,并向下贱发出求救旗子暗记。章鱼会如何处理这些话?
本德和科勒认为,这便是大型措辞模型的学习办法,也是它们存在局限性的缘故原由。“这个思想实验表明了为什么这条路不会让我们得到一台能够理解任何事情的机器,”本德说。“章鱼的情形是,我们给了它演习数据,也便是两个人之间的对话,仅此而已。但接下来,溘然涌现了一些意外情形,它无法处理,由于它还没有理解。”
本德的另一篇著名论文是《论随机鹦鹉的危险》,该论文强调了一系列危害,她和合著者认为,制造大型措辞模型的公司忽略了这些危害。个中包括制造模型的巨大打算本钱及其对环境的影响;模型所根深蒂固的种族主义、性别歧视和其他辱骂性措辞;以及建立一个可以欺骗人类的系统所带来的危险,该系统“随意地将措辞形式的序列拼接在一起……根据它们如何组合的概率信息,但不参考任何含义:一只随机鹦鹉”。
谷歌高层对这篇论文并不满意,由此引发的冲突导致本德的两位合著者蒂姆尼特·格布鲁和玛格丽特·米切尔被迫离开公司,他们曾领导过人工智能伦理团队。这也使得“随机鹦鹉”成为大型措辞模型的盛行贬义词——本德也因此陷入了辱骂的漩涡。
对付本德以及许多志同道合的研究职员来说,底线是,该领域已经被迷惑了:“我认为,他们被勾引去想象具有自主思维的实体,这些实体可以为自己做出决定,并终极成为真正对这些决定卖力的实体。”
本德一贯都是措辞学家,她见告我,现在她乃至连利用“AI”这个词都不会“不加引号”。归根结底,对她来说,这是一个科技巨子的盛行语,可以转移人们对许多干系危害的把稳力。“我现在参与个中了,”她说。“我关心这些问题,炒作正在阻碍我。”
非凡证据?阿奎拉·阿卡斯称本德这样的人为“人工智能否定论者”——言下之意是,他们永久不会接管本德认为天经地义的事情。本德的态度是,非凡的主见须要非凡的证据,而我们并没有这样的证据。
但有些人在探求它,除非他们找到明确的答案——火花或随机鹦鹉或介于两者之间的某种东西——否则他们甘心袖手旁观。我们称其为不雅观望阵营。
布朗大学研究神经网络的埃莉·帕夫利克见告我:“认为通过这类机制可以重新创造人类智能对某些人来说是一种搪突。”
她补充道:“人们对这个问题有着武断的信念——险些觉得像宗教一样。另一方面,有些人有点上帝情结。以是对他们来说,暗示他们做不到也是搪突。”
帕夫利克从根本上来说是一个不可知论者。她坚称自己是一名科学家,无论科学引领什么方向,她都会追随。她对那些更猖獗的说法不屑一顾,但她相信个中一定有令人愉快的事情正在发生。“这便是我不同意本德和科勒的地方,”她见告我。“我认为实际上有一些火花——大概不是 AGI,但个中有些东西是我们没想到会创造的。”
艾莉·帕夫利克
礼貌照片
问题在于,人们对付这些令人愉快的事情是什么以及为什么它们令人愉快达成共识。炒作如此之多,人们很随意马虎变得愤世嫉俗。
当你听布贝克这样的研究职员说话时,他们会显得镇静得多。他认为内斗忽略了他事情中的细微差别。“我认为同时持有不雅观点没有任何问题,”他说。“存在随机的鹦鹉学舌;存在推理——这是一个范围。它非常繁芜。我们没有所有的答案。”
“我们须要一套全新的词汇来描述正在发生的事情,”他说。“当我评论辩论大型措辞模型中的推理时,人们之以是反对,缘故原由之一是它与人类的推理不同。但我认为我们不可能不称之为推理。它便是推理。”
Anthropic 的 Olah 在面对法学硕士 (LLM) 课程时表现得非常谨慎,但他的公司是目前天下上最热门的人工智能实验室之一,它创建了 Claude 3 课程,这门法学硕士课程自今年早些时候发布以来,得到了与 GPT-4 一样多的夸年夜赞誉(乃至更多)。
“我以为很多关于这些模型功能的谈论都是非常部落化的,”他说。“人们有先入为主的不雅观点,而且没有得到任何一方的证据支持。然后就变成了一种基于觉得的辩论,我认为互联网上基于觉得的辩论每每会走向缺点的方向。”
欧拉见告我他有自己的预测。“我的主不雅观印象是这些东西正在追踪非常繁芜的想法,”他说。“我们还没有关于大型模型如何运作的全面故事,但我认为很难将我们所看到的情形与极度的‘随机鹦鹉’图景联系起来。”
这便是他所能说的了:“我不想做太多超出我们现有证据所能强烈推断的范围的预测。”
上个月,Anthropic 发布了一项研究结果,研究职员为 Claude 3 配备了相称于 MRI 的神经网络。通过监测模型运行时哪些部分打开和关闭,他们确定了当模型被显示特定输入时激活的神经元的特定模式。
例如,每当向模型展示金门大桥的图像或干系的笔墨时,彷佛就会涌现一种模式。
研究职员创造,如果他们调出模型的这一部分,克劳德就会完备痴迷于这个著名的建筑。
无论问它任何问题,它都会给出与桥梁有关的答案——乃至在被哀求描述自己时,它还会自我认同为桥梁。
它有时指出提及这座桥是不恰当的,但它便是忍不住。
Anthropic 还报告了与试图描述或展示抽象观点的输入干系的模式。“我们看到了与欺骗和老实、谄媚、安全漏洞和偏见干系的特色,”Olah 说。“我们创造了与权力追求、操纵和背叛干系的特色。”
这些结果让我们对大型措辞模型的内部情形有了最清晰的理解。它让我们看到了看似难以捉摸的类人特色。但它到底见告了我们什么?正如 Olah 承认的那样,他们不知道该模型如何处理这些模式。“这是一个相对有限的画面,剖析起来相称困难,”他说。
纵然 Olah 不会详细解释他认为 Claude 3 这样的大型措辞模型内部究竟发生了什么,但这个问题对他来说很主要,这一点是显而易见的。Anthropic 以其在人工智能安全方面的事情而有名——确保强大的未来模型能够按照我们想要的办法运行,而不是按照我们不肯望的办法运行(行业术语中称为“对齐”)。弄清楚当今模型的事情事理不仅是掌握未来模型的必要第一步;它还见告你,你首先须要多么担心末日情景。“如果你认为模型不会非常强大,”Olah 说,“那么它们可能不会非常危险。”
为什么我们无法相处
2014 年,在回顾自己职业生涯的 BBC 采访中,颇具影响力的认知科学家、现年 87 岁的玛格丽特·博登被问及她是否认为存在某些限定,阻挡打算机(她称之为“锡罐”)完成人类可以做的事情。
“我当然不认为原则上有什么,”她说。“由于否认这一点就即是说[人类思维]是靠邪术发生的,而我不相信它是靠邪术发生的。”
但她警告说,强大的打算机并不敷以让我们实现这一目标:人工智能领域还须要“强大的想法”——关于思考如何发生的新理论,以及可能重现思考的新算法。“但这些事情非常非常困难,我认为没有情由假设我们有一天能够回答所有这些问题。大概我们会,大概我们不会。”
博登正在反思当前繁荣的早期,但这种“我们会不会”的摇摆不定表明,几十年来,她和她的同行们一贯在努力办理当今研究职员所面临的同样难题。人工智能始于 70 多年前的一个年夜志勃勃的欲望,我们仍旧对什么是可以实现的,什么是不能实现的,以及如何知道我们是否已经实现了这一目标存在不合。大多数(如果不是全部)这些争议都归结为:我们还没有很好地理解什么是智能,或者如何识别它。这个领域充满了预测,但没有人能肯定地说。
自从人们开始负责对待人工智能的观点以来,我们就一贯被困在这个问题上。乃至在那之前,当我们所看到的故事开始将类人机器的观点深深植入我们的集体想象中时。这些争议的悠久历史意味着,本日的斗争每每会加剧从一开始就存在的不合,使人们更难找到共同点。
要理解我们是如何走到这一步的,我们须要理解我们曾经走过的路。以是,让我们深入研究一下人工智能的起源故事——这个故事也曾为了赢利而大肆炒作。
AI 旋转简史打算机科学家约翰·麦卡锡 (John McCarthy) 于 1955 年在为新罕布什尔州达特茅斯学院 (Dartmouth College) 的一个暑期研究项目撰写资金申请时提出了“人工智能”一词。
该操持是让麦卡锡和一小群研究员同事(名人录中的战后美国数学家和打算机科学家)——或者用剑桥大学研究人工智能历史和谷歌 DeepMind 伦理与政策的研究员哈里·劳的话来说,“约翰·麦卡锡和他的伙伴们”——聚在一起两个月(这不是笔误),在这个他们为自己设定的新研究寻衅上取得重大进展。
从左到右,奥利弗·塞尔弗里奇、纳撒尼尔·罗切斯特、雷·所罗门诺夫、马文·明斯基、彼得·米尔纳、约翰·麦卡锡和克劳德·喷鼻香农坐在 1956 年达特茅斯会议的草坪上。
麦卡锡和他的合著者写道:“这项研究基于这样的猜想:学习的每一个方面或智力的任何其他特色原则上都可以被如此精确地描述,以至于机器可以仿照它。”“我们将考试测验找到如何让机器利用措辞、形成抽象和观点、办理现在只有人类才能办理的各种问题,并提高自身能力。”
他们希望机器能够做的事情清单——本德称之为“不切实际的梦想”——并没有发生太大变革。利用措辞、形成观点和解决问题是当今人工智能的定义目标。他们的狂妄自大也没有太大改变:“我们认为,如果一群精心挑选的科学家一起花一个夏天的韶光研究这个问题,就可以在这些问题中的一个或多个上取得重大进展,”他们写道。当然,那个夏天已经延续了七十年。而这些问题现在实际上已经得到办理的程度,人们仍旧在互联网上大声疾呼。
但这段经典历史常常被忽略的是,人工智能险些根本不被称为“人工智能”。
麦卡锡的同事中不止一位讨厌他提出的术语。历史学家帕梅拉·麦考达克 (Pamela McCorduck) 2004 年出版的《会思考的机器》一书中引用了达特茅斯学院的参与者、第一台会下跳棋的打算机的创造者亚瑟·塞缪尔 (Arthur Samuel) 的话:“‘人工智能’这个词会让你以为这有点虚假。”达特茅斯提案的合著者、有时被称为“信息时期之父”的数学家克劳德·喷鼻香农 (Claude Shannon) 更喜好“自动机研究”这个术语。其余两位人工智能先驱赫伯特·西蒙 (Herbert Simon) 和艾伦·纽厄尔 (Allen Newell) 此后多年仍将自己的事情称为“繁芜信息处理”。
事实上,“人工智能”只是可能涵盖达特茅斯团队所借鉴的凌乱思想的几个标签之一。历史学家乔尼·佩恩 (Jonnie Penn) 已经确定了当时可能存在的替代词,包括“工程生理学”、“运用认识论”、“神经掌握论”、“非数值打算”、“神经动力学”、“高等自动编程”和“假设自动机”。这份名单揭示了他们新领域的灵感来源有多么多样化,涵盖生物学、神经科学、统计学等。另一位达特茅斯参与者马文·明斯基 (Marvin Minsky) 将 AI 描述为“手提箱词”,由于它可以容纳如此多不同的阐明。
但麦卡锡想要一个能表示他年夜志勃勃愿景的名字。将这个新领域称为“人工智能”吸引了人们的把稳力和金钱。别忘了:人工智能很性感,很酷。
除了术语之外,达特茅斯的提案还确立了人工智能领域对立方法之间的不合,这种不合自此一贯困扰着该领域——劳称这种不合为“人工智能的核心抵牾”。
麦卡锡和他的同事希望用打算机代码描述“学习的方方面面或任何其他智能特色”,以便机器可以模拟它们。换句话说,如果他们能弄清楚思维是如何运作的——推理规则——并写下配方,他们就可以对打算机进行编程以遵照它。这为后来被称为基于规则或符号的人工智能(有时现在被称为 GOFAI,“老式人工智能”)奠定了根本。但提出硬编码规则来捕捉实际、非平凡问题的办理问题的过程被证明太难了。
另一条路径则倾向神经网络,即打算机程序,它们会考试测验以统计模式的形式自行学习这些规则。达特茅斯的提案险些只是顺便提到了这一点(分别提到了“神经元网络”和“神经网络”)。只管这个想法最初看起来不太有希望,但一些研究职员仍旧连续研究神经网络和符号人工智能的版本。但它们真正起飞还须要几十年的韶光——加上大量的打算能力和互联网上的大量数据。快进到本日,这种方法支撑了全体人工智能的繁荣。
这里最大的收成是,就像本日的研究职员一样,人工智能的创新者们也曾为根本观点而争吵,并陷入了自己的宣扬攻势。纵然是 GOFAI 团队也陷入了争吵之中。Aaron Sloman 是一位哲学家,也是人工智能的先驱,现年 80 多岁,他回顾起 70 年代他认识明斯基和麦卡锡时,他们“见地不一”:“明斯基认为麦卡锡关于逻辑的说法行不通,麦卡锡认为明斯基的机制无法做到用逻辑可以做到的事情。我和他们俩都相处得很好,但我当时说,‘你们俩都没有搞对。’”(Sloman 仍旧认为没有人能阐明人类推理如何像逻辑一样利用直觉,但这又是另一个离题了!
)
随着这项技能的兴衰,“AI”一词也时而盛行时而过期。20 世纪 70 年代初,英国政府发布了一份报告,称 AI 梦想已无望实现,不值得帮助,这两条研究路线实际上被搁置了。实际上,所有的炒作都无济于事。研究项目被关闭,打算机科学家从帮助提案中删除了“人工智能”一词。
2008 年,当我完成打算机科学博士学位时,系里只有一个人在研究神经网络。本德也有类似的回顾:“我上大学时,一个盛行的笑话是,人工智能便是我们还没有弄清楚如何用打算机实现的统统。就像,一旦你弄清楚了如何去做,它就不再是魔术了,以是它不是人工智能。”
但是,那种魔力——达特茅斯提案中提出的宏伟愿景——仍旧存在,并且正如我们现在所看到的,它为 AGI 梦想奠定了根本。
好行为与坏行为1950 年,也便是麦卡锡开始评论辩论人工智能的五年前,艾伦·图灵揭橥了一篇论文,提出一个问题:机器能思考吗?为了回答这个问题,这位著名的数学家提出了一个假设测试,他称之为模拟游戏。该设置设想一个人和一台打算机在屏幕后面,另一个人向每个人输入问题。图灵声称,如果提问者无法分辨哪些答案来自人类,哪些来自打算机,那么可以说打算机在思考。
与麦卡锡团队不同,图灵认为,思维是一件很难描述的事情。图灵测试是避开这个问题的一种方法。“他基本上说:我不会关注智能本身的实质,而是去探求它在世界上的表现。我要探求它的影子,”劳说。
1952 年,英国广播公司电台调集了一个小组,进一步磋商图灵的思想。与图灵一起来到演播室的还有他的两位曼彻斯特大学同事——数学教授马克斯韦尔·纽曼和神经外科教授杰弗里·杰斐逊,以及剑桥大学科学、伦理和宗教哲学家理查德·布雷斯韦特。
布雷斯韦特首先说道:“思考常日被认为是人类的特长,或许也是其他高档动物的特长,这个问题彷佛太荒谬了,不值得谈论。但当然,这完备取决于‘思考’包括什么。”
小组成员对图灵的问题进行了谈论,但始终未能终极确定。
当他们试图定义思考涉及什么、思考的机制是什么时,目标发生了变革。“一旦人们能够看到大脑中因果关系的运作,人们就会认为这不是思考,而是一种缺少想象力的苦差事,”图灵说。
问题在于:当一位小组成员提出某种可能被视为思想证据的行为(比如对一个新想法做出愤怒的反应)时,另一位小组成员会指出,打算机也可以做到这一点。
正如纽曼所说,编写程序让打算机打印“我不喜好这个新程序”是件很随意马虎的事。但他承认,这只是一个诡计。
确实,杰斐逊说:他想要一台能够打印“我不喜好这个新程序”的打算机,由于它不喜好这个新程序。换句话说,对杰斐逊来说,行为是不足的。主要的是导致行为的过程。
但图灵不同意。正如他所指出的,揭示一个特定的过程——用他的话来说,便是驴子的事情——也无法明确什么是思考。那么还剩下什么呢?
图灵说:“从这个角度来看,人们可能方向于将思考定义为由那些我们不理解的生理过程组成。如果这是精确的,那么制造一台思考机器便是制造一台能做有趣的事情而我们却不真正理解它是如何完成的机器。”
第一次听到人们就这些想法辩论不休,觉得很奇怪。“这场辩论很有先见之明,”哈佛大学认知科学家托默·乌尔曼说。“有些不雅观点仍旧鲜活,乃至可能更加鲜活。他们彷佛在反复强调,图灵测试首先是一个行为主义测试。”
对付图灵来说,智能很难定义,但很随意马虎识别。他认为,智能的外表就足够了——但并未解释这种行为该当如何产生。
然而,大多数人在受到压力时,都会凭直觉判断什么是智能,什么不是智能。有屈曲的方法,也有聪明的方法可以表现出智能。1981 年,纽约大学哲学家内德·布洛克 (Ned Block)指出,图灵的发起不符合直觉。由于它没有解释导致这种行为的缘故原由,因此可以通过诡计来绕过图灵测试(正如纽曼在 BBC 广播中指出的那样)。
“机器是否真的会思考或具有智能,是否取决于人类讯问者的轻信程度?”布洛克问道。(或者正如打算机科学家马克·里德尔所说: “图灵测试不是为了让人工智能通过,而是为了人类失落败。”)
布洛克说,想象一下,有一张巨大的查询表,人类程序员把所有可能问题的答案都输入个中。向这台机器输入一个问题,它会在数据库中查找匹配的答案并将其发回。布洛克认为,任何利用这台机器的人都会认为它的行为是智能的:“但实际上,这台机器的智能和烤面包机一样,”他写道。“它所展现的所有智能都来自它的程序员。”
布洛克的结论是,行为是否是智能行为取决于它是如何产生的,而不是它是如何涌现的。布洛克的烤面包机,后来被称为“蠢人”,是图灵发起背后假设的最有力的反例之一。
深入探究图灵测试并非旨在成为一种实用指标,但它的影响深深植根于我们本日对人工智能的意见。随着过去几年法学硕士课程的激增,这一点变得尤为主要。这些模型根据其外在行为进行排名,详细来说是它们在一系列测试中的表现。当 OpenAI 宣告 GPT-4 时,它发布了一张令人印象深刻的记分卡,详细解释了该模型在多项高中和专业考试中的表现。险些没有人评论辩论这些模型是如何得到这些结果的。
那是由于我们不知道。如今的大型措辞模型过于繁芜,以至于没有人能确切地说出它们的行为是如何产生的。除了少数几家制作这些模型的公司之外的研究职员,他们并不知道他们的演习数据中有什么;没有一家模型制作者分享过细节。这让我们很难说清什么是影象,什么不是影象——一种随机的鹦鹉学舌。但纵然是像 Olah 这样的内部研究职员,也不知道面对一个痴迷于桥牌的机器人时到底发生了什么。
这就留下了一个悬而未决的问题:是的,大型措辞模型是建立在数学之上的——但它们是否能用数学做一些智能的事情呢?
辩论又开始了。
布朗大学的帕夫利克说:“大多数人都试图用空谈来办理问题。”这意味着他们只是在辩论理论,而不去考虑真正发生的事情。“有些人会说,‘我认为是这样’,而有些人会说,‘嗯,我不这么认为。’我们陷入了困境,每个人都不满意。”
本德认为这种神秘感与神话的创造有关。(“魔术师不会阐明他们的魔术,”她说。)如果不能精确理解法学硕士的词语从何而来,我们就会回到对人类的熟习假设,由于这是我们唯一真正的参考点。当我们与另一个人交谈时,我们会试图理解那个人试图见告我们什么。“这个过程一定须要想象词语背后的生活,”本德说。这便是措辞的运作办法。
“ChatGPT 的这个小把戏非常令人印象深刻,当我们看到这些单词从它那里出来时,我们会本能地做同样的事情,”她说。“它非常善于模拟措辞的形式。问题是,我们根本不善于碰着措辞的形式,而不是想象它的别的部分。”
对付一些研究职员来说,纵然我们无法理解个中的事理,也无所谓。Bubeck 曾经研究过大型措辞模型,试图弄清楚它们是如何事情的,但 GPT-4 改变了他对它们的意见。“这些问题彷佛不再那么主要了,”他说。“这个模型太大、太繁芜了,我们不可能指望打开它,理解到底发生了什么。”
但帕夫利克和欧拉一样,也在考试测验这样做。她的团队创造,模型彷佛可以对工具之间的抽象关系进行编码,例如一个国家与其都城之间的关系。在研究一个大型措辞模型时,帕夫利克和她的同事创造,该模型利用相同的编码将法国映射到巴黎,将波兰映射到华沙。我见告她,这听起来很聪明。“不,它实际上是一个查找表,”她说。
但令帕夫利克感到吃惊的是,与傻瓜不同,该模型自己学会了这张查找表。换句话说,法学硕士自己弄清楚了巴黎之于法国就像华沙之于波兰。但这解释了什么?编码自己的查找表而不是利用硬编码的查找表是智能的标志吗?你在哪里划定界线?
“从根本上讲,问题在于行为是我们唯一知道如何可靠衡量的东西,”帕夫利克说,“其他任何事情都须要理论上的承诺,而人们不喜好做出理论上的承诺,由于它太沉重了。”
并非所有人都如此。许多有影响力的科学家对理论承诺并不在意。例如,欣顿坚持认为神经网络是重修人类智能所需的统统。2020年,他见告《麻省理工技能评论》: “深度学习将能够做任何事情。”
辛顿彷佛从一开始就坚守着这一承诺。斯洛曼回顾起辛顿在实验室读研究生时两人曾发生过争吵,他记得自己无法说服辛顿,神经网络无法学习某些人类和其他一些动物彷佛可以直不雅观节制的关键抽象观点,比如某件事是否不可能。我们只能看到某件事被打消在外,斯洛曼说。“只管辛顿非常聪明,但他彷佛从未理解这一点。我不知道为什么,但神经网络领域的大量研究职员都有同样的毛病。”
还有马库斯,他对神经网络的意见与辛顿截然相反。他的不雅观点基于科学家对大脑的创造。
马库斯指出,大脑并不是一张白纸,无法从头开始完备学习——大脑天生就具有勾引学习的先天构造和过程。他认为,婴儿可以学习最好的神经网络仍无法学习的东西。
“神经网络专家手里有锤子,现在统统都是钉子,”马库斯说。“他们想通过学习来完成所有事情,但许多认知科学家会认为这是不现实和屈曲的。你不可能从头开始学习统统。”
作为一名认知科学家,马库斯并不缺少自傲。“如果要真正看看谁能准确预测当前形势,我想我一定是榜首,”他在 Uber 的后座上见告我,当时他正准备赶飞机去欧洲演讲。“我知道这听起来不太谦逊,但我确实有这种不雅观点,如果你要研究的是人工智能,那么这种不雅观点就非常主要。”
鉴于他对该领域的攻击广为人知,马库斯仍旧相信 AGI 即将到来,这可能会让你感到惊异。只是他认为本日对神经网络的执着是一个缺点。“我们可能须要一两个或四个打破,”他说。“很遗憾,你和我可能活不了那么久。但我认为它会在本世纪发生。大概我们有机会。”
彩色梦境的力量在 Dor Skuler 位于以色列拉马特甘家中的 Zoom 通话中,我们评论辩论着一个小灯状机器人时,它正在闪烁。“你可以看到 ElliQ 在我身后,”他说。Skuler 的公司 Intuition Robotics 为老年人开拓这些设备,其设计(一部分是亚马逊 Alexa,一部分是 R2-D2)必须非常清楚地表明 ElliQ 是一台打算机。Skuler 说,如果他的任何客户对此表现出困惑的迹象,Intuition Robotics 就会收回该设备。
ElliQ 没有脸,完备没有人类的形状。如果你问它关于体育运动的问题,它会开玩笑说自己没有手眼折衷能力,由于它没有手也没有眼睛。“我真不明白为什么这个行业要努力完成图灵测试,”斯库勒说。“为什么开拓以欺骗我们为目标的技能符合人类的最大利益?”
相反,斯库勒的公司认为,人们可以与表现为机器的机器建立关系。“就像我们有能力与狗建立真正的关系一样,”他说。“狗给人们带来很多欢快。它们供应陪伴。人们爱他们的狗——但他们从不把它误认为是人。”
艾利奇
ElliQ 的用户中,很多都是 80 多岁和 90 多岁的老人,他们将机器人称为一个实体或存在——有时是室友。“他们能够为这种中间关系创造一个空间,介于设备或打算机与活物之间,”斯库勒说。
但无论 ElliQ 的设计师如何努力掌握人们对该设备的意见,他们都在与几十年来塑造了我们期望的盛行文化竞争。为什么我们如此执着于像人类一样的人工智能?“由于我们很难想象其他东西,”斯库勒说(她确实在全体发言中都称 ElliQ 为“她”)。“而且由于科技行业中有这么多人都是科幻迷。他们试图让自己的梦想成真。”
如今,有多少开拓职员在发展过程中认为,构建智能机器是他们所能做的最酷的事情(纵然不是最主要的事情)?
不久前,OpenAI 推出了全新语音掌握版本 ChatGPT,其声音听起来像斯嘉丽约翰逊 (Scarlett Johansson),之后包括奥特曼 (Altman) 在内的许多人都认为它与斯派克琼斯 (Spike Jonze) 2013 年的电影《她》有联系。
科幻小说共同创造了人们对人工智能的理解。正如 Cave 和 Dihal 在《想象人工智能》一书中所写:“人工智能在成为技能征象之前,就已经是一种文化征象。”
关于将人类改造成机器的故事和神话已经流传了几个世纪。迪哈尔说,人类对人造人类的梦想可能和他们梦想翱翔的韶光一样长。她指出,希腊神话中的人物代达罗斯由于自己和儿子伊卡洛斯制造了一对翅膀而有名,他还制造了一个名为塔洛斯的巨型青铜机器人,可以向途经的海盗扔石头。
机器人这个词源于robota,是捷克剧作家卡雷尔·恰佩克在 1920 年创作的戏剧《罗森姆的万能机器人》中创造的“强制劳动”一词。艾萨克·阿西莫夫的科幻小说中概述的“机器人定律”禁止机器侵害人类,但《闭幕者》等电影却颠覆了这一定律,成为人们对现实天下技能的恐怖的标志性参照点。2014 年的电影《机器姬》是对图灵测试的戏剧性改编。去年的大片《造物主》想象了一个未来天下,在那里人工智能被撤消,由于它引爆了一颗核弹,而一些末日论者认为这至少是极有可能发生的。
凯夫和迪哈尔讲述了另一部电影,即 2014 年上映的《超验骇客》,个中约翰尼·德普饰演的人工智能专家将自己的思想上传到打算机,该电影讲述了末日论者斯蒂芬·霍金、物理学家马克斯·泰格马克和人工智能研究员斯图尔特·拉塞尔所推动的故事。在电影首映周末揭橥在《赫芬顿邮报》上的一篇文章中,三人写道:“好莱坞大片《超验骇客》本周末上映,对人类未来的意见截然不同,人们很随意马虎将高智能机器的观点视为科幻小说。但这将是一次缺点,也可能是我们犯下的最严重缺点。”
大约在同一韶光,泰格马克成立了未来生命研究所,其职责是研究和促进人工智能安全。德普在电影中的差错摩根·弗里曼是该研究所的董事会成员,在电影中客串的埃隆·马斯克在第一年就捐赠了 1000 万美元。对付凯夫和迪哈尔来说,《超验骇客》是盛行文化、学术研究、工业生产和“亿万财主帮助的塑造未来的斗争”之间多重纠葛的完美例子。
去年,在 Altman 的天下巡回伦敦站,有人问他发推文“人工智能是天下一贯想要的技能”是什么意思。那天,我站在房间的后排,面对着数百名不雅观众,听他讲述了自己的创业故事:“我小时候非常紧张。我读了很多科幻小说。很多个星期五晚上我都待在家里玩电脑。但我一贯对人工智能很感兴趣,我以为它会很酷。”他上了大学,发了财,看着神经网络变得越来越好。“这可能非常好,但也可能很糟糕。我们该怎么办?”他回顾起 2015 年的想法。“我终极创办了 OpenAI。”
为什么你该当关心一群书呆子为人工智能而争吵
好吧,你明白了:没有人能就人工智能是什么达成同等。但彷佛每个人都赞许的是,目前环绕人工智能的辩论已经远远超出了学术和科学的范畴。个中涉及政治和道德成分——这无助于让每个人都认为其他人都是错的。
理清这个问题很难。当一些道德不雅观念牵扯到全体人类的未来,并将其锚定在一种无人能完备定义的技能上时,很丢脸清到底发生了什么。
但我们不能就此放弃。由于无论这项技能是什么,它都会到来,除非你与世隔绝,否则你都会以某种形式利用它。而这项技能所采纳的形式——以及它所办理和创造的问题——将由人们的思维和动机决定,就像你刚刚读到的那些人一样。特殊是那些拥有最大权力、最多金钱和最大扩音器的人。
这让我想到了 TESCREALists。等一下,回来!
我知道这么晚才引入另一个新观点是不公正的。但要理解当权者如何塑造他们所开拓的技能,以及他们如何向天下监管机构和立法者阐明这些技能,你须要真正理解他们的心态。
离开谷歌后创立分布式人工智能研究所的格布鲁 和凯斯西储大学哲学家兼历史学家埃米尔·托雷斯追溯了几种技能乌托邦崇奉体系对硅谷的影响。两人认为,要理解人工智能目前的状况——为什么谷歌 DeepMind 和 OpenAI 等公司竞相打造 AGI,为什么泰格马克和辛顿等末日论者警告即将到来的灾害——必须通过托雷斯所称的 TESCREAL 框架来看待这个领域。
这个笨重的首字母缩略词(发音为tes-cree-all)取代了更笨重的标签列表:超人类主义、外向主义、奇点主义、宇宙主义、理性主义、有效利他主义和长期主义。关于这些天下不雅观的文章已经很多(并且还会有很多文章),以是我就不多说了。(兔子洞中还有兔子洞,任何想深入研究的人都可以去探索。选择你的论坛,带上你的探险装备。)
埃米尔·托雷斯
礼貌照片
这种相互重叠的意识形态对西方科技界普遍存在的某种“银河大脑”思维模式具有吸引力。一些人预测人类将永生不朽;另一些人预测人类将殖民星际。共同的原则是,一种无所不能的技能——AGI 或超级智能,由你的团队选择——不仅触手可及,而且不可避免。你可以在 OpenAI 等尖端实验室中随处可见的不战而亡的态度中看到这一点:如果我们不制造 AGI,别人就会制造。
此外,TESCREA 主义者认为 AGI 不仅可以办理天下问题,还可以提升人类水平。安德森在去年揭橥的一份备受关注的宣言中写道:“人工智能的发展和遍及——远非我们该当担心的风险——是我们对自己、对我们的孩子、对我们的未来的道德责任。”我曾多次被奉告,AGI 是让天下变得更美好的办法——谷歌 DeepMind 首席实行官兼联合创始人Demis Hassabis 、新成立的微软 AI 首席实行官兼 DeepMind 另一位联合创始人Mustafa Suleyman 、 Sutskever、Altman等人都这么说过。
但正如安德森所说,这是一种阴阳思维。技能乌托邦的另一壁是技能地狱。如果你相信自己正在开拓一种强大的技能,它将办理天下上所有的问题,那么你可能也相信它出错的可能性不为零。当在仲春份的天下政府峰会上被问及是什么让他夜不能寐时,奥特曼回答道:“都是科幻小说里的东西。”
这是 Hinton去年一贯在评论辩论的紧张场合排场。这也是 Anthropic 等公司声称要办理的问题。这也是 Sutskever 在新实验室中关注的重点,也是他去年希望 OpenAI 内部专门团队关注的重点,但后来该团队的大多数成员因在平衡风险和回报的办法上存在不合而离开。
当然,末日论是个中的一部分。(“流传宣传自己创造了某种超级智能的东西对发卖数字有好处,”迪哈尔说。“这就像是,‘拜托,有人阻挡我变得如此精良和强大。’”)但无论是繁荣还是毁灭,这些人究竟在办理什么问题(以及谁的问题)?我们真的该当相信他们创造的东西和他们见告我们的领导者的话吗?
格布鲁和托雷斯(以及其他人)武断表示:不,我们不应该。他们强烈批评这些意识形态以及它们如何影响未来技能的发展,尤其是人工智能。从根本上讲,他们将个中几种天下不雅观(共同关注“改进”人类)与 20 世纪的种族主义优生学运动联系起来。
他们认为,一个危险是,将资源转向这些意识形态所哀求的技能创新,从开拓 AGI 到延长寿命再到殖民其他星球,终极将使西方人和白人受益,而数十亿非西方人则为此付出代价。如果你的眼力放在抱负的未来,很随意马虎忽略创新确当前代价,例如劳动力剥削、种族主义和性别歧视的根深蒂固以及环境毁坏。
“我们是在考试测验构建一种对我们有用的工具吗?”本德在反思这场 AGI 竞赛的伤亡时问道。如果是这样,那么它是为谁准备的,我们如何测试它,它的效果如何?“但如果我们构建它只是为了说我们已经做到了,那么这不是我能支持的目标。这不是一个代价数十亿美元的目标。”
本德说,看到 TESCREAL 意识形态之间的联系让她意识到这些辩论还有更多内容。“与那些人纠缠是——”她停了下来。“好吧,这不仅仅是学术思想。个中还包含道德准则。”
当然,如果这样毫无差别地阐述,我们——作为一个社会、作为个体——彷佛并没有得到最好的报酬。这统统听起来也相称屈曲。去年,当 Gebru 在一次演讲中描述 TESCREAL 套装的部分内容时,她的听众笑了。事实上,很少有人会承认自己是这些思想流派的正式学生,至少是极度思想流派的学生。
但如果我们不理解那些开拓这项技能的人是如何看待它的,我们如何决定我们想要达成什么样的交易?我们决定利用哪些运用程序,我们想要将个人信息供应给哪些谈天机器人,我们支持社区中的哪些数据中央,我们想要投票给哪些政客?
过去的情形是这样的:天下上涌现了问题,我们制造了一些东西来办理它。而现在,统统都倒退了:目标彷佛是制造一台无所不能的机器,并跳过在构建办理方案之前找出问题所在这一缓慢而艰巨的事情。
正如格布鲁在同一次演讲中所说:“一台能办理所有问题的机器:如果这不是邪术,那是什么?”
语义,语义...语义?当被问及什么是人工智能时,很多人都会回避这个问题。苏莱曼不会。今年 4 月,微软人工智能首席实行官站在 TED 舞台上,向不雅观众讲述了他六岁侄子的回答。苏莱曼阐明说,他能给出的最佳答案是人工智能是“一种新型数字物种”——一种如此普遍、如此强大的技能,称其为工具已不再能表示它能为我们做些什么。
“按照我们目前的发展轨迹,我们正朝着某种我们都难以描述的事物的涌现而提高,但我们无法掌握我们不理解的东西,”他说。“因此,如果我们要最大限度地利用人工智能,同时限定其潜在的负面影响,那么隐喻、思维模型、名称——这些都很主要。”
措辞很主要!
我希望从我们经历的弯曲和愤怒中可以清楚地看出这一点。但我也希望你问:谁的措辞?谁的缺陷?苏莱曼是一家科技巨子的行业领导者,该公司有望从其人工智能产品中赚取数十亿美元。将这些产品背后的技能描述为一种新物种,让人遐想到前所未有的东西,具有我们从未见过的能动性和能力的东西。这让我的蜘蛛感应刺痛。你呢?
我无法见告你这里面是否有邪术(讽刺与否)。我也无法见告你数学如何实现布贝克和其他许多人在这项技能中看到的东西(目前还没有人能做到)。你必须自己拿定主意。但我可以揭开我自己的不雅观点。
早在 2020 年撰写有关GPT-3的文章时,我就说过,人工智能有史以来最伟大的伎俩便是让天下相信它的存在。我仍旧认为:我们天生就认为,以某种办法行事的事物具有智能,无论它是否存在。在过去几年中,科技行业找到了自己的情由来说服我们人工智能也存在。这让我对这项技能的许多说法持疑惑态度。
与此同时,大型措辞模型也让我惊叹不已。它们到底能做什么以及如何做到是我们这个时期最令人愉快的问题之一。
或许人类一贯对聪慧着迷——聪慧是什么以及聪慧还具有什么。
帕夫利克见告我,哲学家们长期以来一贯在构想各种假设情景,来想象碰着非人类的智能行为意味着什么——
——比如海浪冲上海滩,然后它回落时
它在沙子上留下了一首诗的图案?
有了大型措辞模型(通过其笑脸面具),我们面临着以前从未考虑过的事情。“它把这个假设的事情变得非常详细,”帕夫利克说。“我从来没有想过一段措辞是否须要智能来天生,由于我从来没有处理过不须要智能的措辞。”
人工智能有很多种。但我不认为它像人类。我不认为它能办理我们所有(乃至大多数)问题。它不是 ChatGPT、Gemini 或 Copilot。它不是神经网络。它是一种想法、一种愿景、一种欲望的实现。而想法会受到其他想法、道德、准宗教崇奉、天下不雅观、政治和直觉的影响。“人工智能”是描述一系列不同技能的有用简写。但人工智能并不是单一的东西;无论品牌如何频繁地烙印在盒子表面,它从来都不是单一的东西。
“事实是,这些词语”——智能、推理、理解等等——“在须要真正精确定义之前就已经被定义了,”帕夫利克说。“我不喜好问题变成‘模型是否理解——是或否?’由于,嗯,我不知道。词语被重新定义,观点也一贯在演化。”
我认为这是精确的。我们越早退一步,就我们不知道的事情达成同等,接管这统统都还没有尘埃落定的事实,我们就越早——我不知道,我想不是所有人都手拉手唱着 kumbaya。但我们可以停滞相互辱骂。
本文系作者个人观点,不代表本站立场,转载请注明出处!