“超人类人工智能”这一词汇,彷佛已带有一种忽略之意:它在无声中,粉饰了作为人类之最根本的特质。

AI远未击溃人类何以成就超人类人工智能?_人类_机械 智能助手

如今,ChatGPT和Gemini等天生性AI系统,常被标榜为“超人类人工智能”(superhuman AI)前兆。
这可不是骇人听闻的市场营销宣扬,而是一种快速增长、充满危险且强大的意识形态的再现。
1无论是为了使我们无条件地接管AI,还是将AI描述成一个恐怖的幽灵,这种关于“超人类人工智能”的潜在意识形态,都在削弱人类的自主性和独立性,并稠浊了意识心智与我们为反响它们而构建的机器工具之间的界线。

现今的强大AI系统,乃至没有人类心智的基本特色:它们还不具备意识或感知的能力,感想熏染不到痛楚、快乐、恐怖和爱。
它们也无法感知自己在这个天下中的位置和角色,更不用说体验这个天下了。
它们可以回答我们选择的问题,为我们绘制俏丽的图片,天生深度假造的***等等。
但其内部,却如深渊般漆黑。

正因如此,在2023年9月的机器学习会议上2,我向图灵奖得主Yoshua Bengio提出质疑:“在当今的产品远远不能比肩人类,更不用说超越人类时,为何我们还要谈论‘超人类人工智能’?”我曾在他之前的主题演讲公开寻衅过这种辞吐,这种辞吐在Bengio随后的演讲中被再三强调——正如他在网站上及对立法者和其他听众的告诫,他认为人们可能在未来几年内失落去对超人类人工智能的掌握3-7。

Bengio一向是AI研究领域中较为理智的脚踏实地派,因此他溘然采纳这种辞吐,使我感到不解。
他的有些不雅观点我并不反对,包括将不可预测和不可靠的AI系统集成到关键根本举动步伐和防御系统中的潜在危险,以及人们急迫须要更有效地管理这些系统。
但是,把AI称为“超人”,并非提出这些论点的必要条件。

因此,我问他,鉴于我们急迫须要掌握的AI系统缺少人类心智的基本功能和特色,这种论调是否终将成为无益且具误导性的声音?一个没有人类自我反思、同理心或道德聪慧的AI系统,仅凭其办理问题的速率,如何能够被冠以“超人”之名?人性的繁芜,岂是如此大略?更何况,给那些缺少人类最核心特质的机器贴上“超人”的标签,是否终将使我们忽略了那些真正值得我们器重的、关于人性的东西?

我试图向Bengio阐明,打算的速率或精确度之所谓“超人水平”,与真正的超人类——即“超越人性”——之间,实有寰宇之别。
即便是最普通的人,所能展现的聪慧和情绪远超当前最强大的AI系统所能及,后者不过是在高维向量空间中探求最佳路径,返回的只是冷冰冰的符号、词元或像素。
真正范例的人类聪慧行为,如与孩子玩耍或创作艺术品,绝对不但是探求问题的最有效办理方案或天生可预测的令牌(token),但如果你真这么认为,那你就大错特错了。

“试图抹去我们存在中最具人性的部分,并不是什么新鲜事;AI不过是又一个借口。

对此,Bengio却未能接管。
当我还未完备陈述我的问题时,他便反问:“你不认为你的大脑是一台机器吗?”紧接着,他又质疑:“为什么一个硅基机器不能实行我们大脑能做的打算呢?”

这种认为打算机与我们的大脑基于同样事理的不雅观点,并不新鲜。
自20世纪打算机科学出身以来,心智打算理论就一贯有其支持者。
8许多认知科学家、神经科学家和哲学家(包括我在内)虽然认为,这些打算理论对付描述物理大脑的事情办法是缺点的或不完全的,但这绝非一种奇特或伪科学的不雅观点。
可以设想,在最基本的层面上,人类大脑或许最适宜被描述为实行某种生物打算。

因此,令我感到惊异和不安的,并不是Bengio将生物大脑视为机器或打算设备,而是他一开始谢绝承认,人类的聪慧,无论其核心是否为打算,其涵盖的能力远超即便是最尖真个AI工具所能达到的。
我们不但是效率高的数学优化器,或潜在的下一代令牌天生器。

那一刻,我意识到,我们的不合远不仅仅关于机器学习模型的能力;这关乎人类的能力,以及我们该当如何描述这些能力。

什么是超人类人工智能?

在Bengio的网站上,他将“超人类人工智能”定义为一个在广泛任务范围内超越人类的AI系统。
9这个定义颇为模糊:究竟什么算作“任务”?人类的所有活动都可以算作任务吗?

长期以来,人工智能的研究者们将通用人工智能(AGI)视为圣杯,其定义是达到与人类思维等效的水平——而不仅仅是完成的任务。
IBM在其针对AGI的研究操持Strong AI中还保留着这一传统不雅观念:10

AGI须要与人类智能相称;它应具备自我意识,能够办理问题、学习并方案未来……Strong AI旨在创造出与人类心智无法区分的智能机器。

但现在,OpenAI和Geoffrey Hinton、Yoshua Bengio等研究者为我们描述了一个不同的愿景。
一个“与人类心智无法区分”的自我意识机器,不再是AGI的终极目标。
新的目标是让机器“在一系列具有经济代价的任务中匹配或超越我们”。
OpenAI在其章程中将AGI定义为“在大多数经济代价事情中能超越人类的高度自主系统”。
11-12

OpenAI对AGI的重新定位,打消了那些不被视为具有经济代价的事情。
这无疑是对我们人类能力的一次减少,我们应该抵制这种简化。
难道你仅仅等同于你本日完成的事情?如果你醒着的韶光花在了没有明确“办理方案”的活动上,不在能勾选的任务列表上,没有市场价格,你是否就不那么人类,或不那么智能了?

“通过将一个全然无感知、无思考的实体描述为‘超人类’,我们彷佛在无意中抹杀或贬低了‘人类’这一观点。

一旦你将人类智能的定义简化为“市场乐意支付的”,溘然间,创造一个智能机器——乃至是超人类机器——只需制造出一个在经济代价输出的速率和质量上超过你自身的东西。
其他统统都不主要。

随着这种不雅观点逐渐渗透到更广泛的文化中,它逐步侵蚀我们的自我认识。
如果你在一个关于AI的大型讲座或在线论坛上指出,ChatGPT无法体验并思考其天生的词语和句子所对应的事物——它只是一个基于期望的措辞模式的数学天生器——你很可能会收到一种全然负责的回答:“但我们也是如此。

根据这种不雅观点,把人描述为聪慧、有趣、创造性、洞察力、冥思、年夜胆、同情或正义等行为,这些都不过是诗意的夸年夜。
这种描述不携带任何额外的真实性,不指向人类智能的更丰富的现实,也不对应于超出词频和关联打算的任何实际内容。
这些仅仅是对同一呆板任务的华美而禁绝确的描述。

我还不愿定Bengio是否真的认同这一点。
在他讲话后的问答环节中,他彷佛想采纳更为和解的态度,寻求一些共同点。
但当他谢绝承认人类的意义不限于实行打算脚本和发出统计预期的令牌时,我不禁对他的不雅观点产生了信赖。
如果仅凭在这场游戏中降服我们就能成为超人类,人们可能会认为,自二战时英国的Colossus成为第一台比人类更快破解代码的打算机以来,硅基“超人类”就已经在我们中间了。

然而,Colossus只在一个任务上超越了我们;根据Bengio的说法,超人类AI将在“广泛的任务范围”上超越我们。
这种说法预设了人类不过是一个特殊多功能的任务完成机器。
一旦你接管了这种对我们人性的极度简化,那么生产一个同样多功能、具有“超人类”任务表现的任务的机器便不再遥不可及;这个不雅观点险些变得平淡无奇。

那么,这种表达办法究竟有何害处呢?

超人类

“超人类”这一词汇,本意是指“属于人类,却赛过人类”。
要成为超人类,便是要拥有人类所具备的能力,并且拥有人类所不具备的额外能力——或者是将人类的某些能力发挥到极致。
我们不会用这个词来描述一种与我们完备不同的东西,比如那些虽然在某方面表现出众,却缺少基本人类特质的存在。
我们不会说“超人类飞机”或“超人类猎豹”,只管飞机和猎豹的速率,都远超任何人类。

“超人类”一词,常用以描述那些与我们极为相似,却又在某些方面更为出色的存在。
在英语文化中,虚构的超人或许是此观点最著名的表示。
超人虽然不是地球上的生物,但他表示了我们对身体、智力和道德力量的最高人类空想,乃至远超这些空想。
他被称为超人,不仅仅是由于他能飞——这火箭也能做到;也不仅仅是由于他能移动重物——这叉车也能完成。
而是由于他在诸多任务上的出色表现,超越了普通人的范畴,他是我们对最真实的人类特质的一种愿景的放大。

超人的身上没有缺失落任何关键的人类性情特色。
他是对“如果是我们,又会若何呢”这一问题的想象答案。
他有希望、经历痛楚、拥有爱、体验哀伤、怀抱希望、关心他人、也会疑惑;这些体验比我们普通人更为强烈和深刻。
他远不是一个纯挚追求效率的存在。
作为超人,他代表了我们最器重的人类特质,这些特质被视为我们普遍共有的。

当我们将一个完备没有觉得、不思考、只专注于完成经济任务的工具称为超人类时,我们实际上无意中削弱或否定了“人类”的观点及其所能做的统统。
当然,这种试图削弱和否定我们存在中最具人性的做法,并不是什么新鲜事;AI不过是又一个借口。

“AI的道德和体验的贫乏可能会把我们固有智能中最关键的人类维度重新引入我们的关注焦点,并推动文化和那些长期被低估的代价的规复。

在工业时期的长河中,那些企图从人体中提取最大生产力的人一贯试图让我们将自己——更主要的是彼此——视为有缺陷、效率低下的可更换机器,一旦产出低于预期或涌现更高效的替代品就被淘汰。

几百年来,我们对这种简化和愤世嫉俗的思维办法进行了武断的抗争,得益于劳动和人权运动的不懈努力,这些运动阐明并守卫了人类的肃静、正义、自主和尊重等非机器化、非经济化的标准。

而今,要说服我们人类不过是产生经济代价输出的机器,彷佛只须要用那些能在我们授予意义的紧张货币——措辞和视觉——中产生输出的工具。
现在,只需通过智好手机上的运用,你就可以无限制地获取这些货币,我们已经接管了“超人类 AI”的涌现,仿佛这是一个早已确定的事实,实际上已经触手可及了。

重新规复我们的人性

然而,这场较劲还没有结束。
正如哲学家 Albert Borgmann在他 1984 年的书本《技能与当代生活的特色》(Technology and the Character of Contemporary Life)中所述,13只有当一项技能险些取代了我们人类意义的主要领域时,我们才能真切感想熏染并哀悼我们所失落去的。
每每是在这些时候,我们才开始觉醒,奋起反抗,努力夺回并重申这些领域的代价。

他提到的例子,放眼今日,或许看似平凡。
如他所说的后微波炉时期,烹饪艺术复兴,是一种宝贵的创造性和社交实践,即便是最高效的烹饪机器也无法取代。
确实,闇练而富有远见的烹饪实践如今已具备比 20 世纪末更高的文化代价和地位。
同样,跑步机只管供应了一种更方便、更高效的达到相同有氧效果的方法,却无法取代户外跑步和溜达所带来的美好。

实际上,Borgmann 认为,利用跑步机或微波炉带来的感官与社交体验的贫乏,反而可能复兴我们对这些活动的文化关注——这些活动哀求我们全身心的参与,不断提醒我们自己在这个物理天下的位置及与共享此天下的其他生命的联系。
他的见地不无道理。

在“超人类”AI意识形态中,将人类视为“缓慢且效率低下的模式识别者”的不雅观点,可能会引发一场在政治上意义重大的人类意义与代价的复兴。
AI 的道德与体验贫乏,正好可以让我们重新将把稳力集中到人类聪慧的核心维度上,促进那些长期被低估的代价的文化规复。

这将是什么样的情景呢?想象一下,如果在当前由机器意识形态主导的任何社会领域中,紧张的目标不再是机器优化,而是授予人类能力,环境会若何?

我们先来看看教诲。
在许多国家,原来应致力于道德与智力形成的教诲空想,已简化为演习年轻人从测试问题中机器地天生预期答案的优化程序。
一些流传宣传为“您孩子的超人类导师”的天生性 AI 工具,乃至承诺优化幼儿的学习路径。
[14]然而,在技能最为发达的美国,年轻人阅读的激情亲切已降至数十年来的最低点,家长对教诲系统的信赖也跌至历史新低。
15-16

我们该当如何重塑并复兴人性化的教诲体验?如果我们能重新引发孩子们学习的激情亲切,教会他们重新创造,拥抱他们的人文潜能,他们将为自己及未来一代构筑若何的天下?这个天下与那些被教诲成只知如何成为低效机器的孩子所建立的天下,又将有何不同?

再考虑经济方面。
无差别增长的“海内生产总值”盲目地一味生产、发卖产品,不考虑这个过程对环境或社会可能多么有害,如果我们停滞褒奖这种行为,那么我们的海洋、空气、土壤、食品链、根本举动步伐和民主的状况会如何?如果我们设立新的经济勉励方法,依据的是中长期的康健、可持续发展、人类进步和社会信赖与复原力的指标,我们未来的走向又将如何改变?

“如果我们不再用像ChatGPT这样的机器来取代媒体、设计和艺术中的人类职业,而是让AI 开拓者帮我们完成生活中最没故意义的任务会若何?”

如果富余的公司和投资者的税收优惠完备取决于他们的活动如何促进这些人文指标的提升,情形会如何?如果公司的成功不再仅仅通过其股票价格的机器优化来衡量,而是通过对我们共同生活质量的更深远和长期的评价,我们的事情和年轻人投入职场的激情亲切将如何改变?

再来看文化方面。
如果我们重新爱上靠自己创造意义、讲述天下故事、创造新的美和表达办法,当前那些试图用AI取代人类文化产出的努力又将如何被停息?如果我们不再用ChatGPT 这样的机器来取代这些人性的职业,而是让AI 开拓者帮我们完成那些花费我们对其他主要事物的能量的最无意义任务,情形又将如何?如果你再也不须要填写任何税表会是若何?

如果我们为了那些最随意马虎受到腐败、剥削和不公道侵害的人设计AI,情形会若何?如果我们利用我们最好的AI工具,更快更可靠地戳穿腐败行为的证据,增加其政治本钱,并更系统地将腐败和剥削推向公众年夜众生活的边缘,情形又将如何?如果人们集体承诺只褒奖那些乐意展示更大透明度、任务感和诚信的政治家、警察和法官,我们的社会将如何变革?

纵然在这些更添人性的未来设想中,我们也尚未触及乌托邦之境。
但这些可能的未来无疑比任何一个由超人类AI意识形态主导的未来都要光明。

这并不虞味着AI在一个更人性化的天下中没有位置。
我们仍旧须要AI来承担那些固有的不屈安或对人不友好的任务,如环境清理和太空探索;我们须要AI来帮助我们减少日常行政过程的本钱、冗余和韶光包袱;我们须要AI来扩大根本举动步伐的掩护和修复;我们须要AI来剖析如景象、遗传学、农业和供应链这样的繁芜系统。
我们并没有面临用尽机器可以做的主要事务的风险。

我们正如梦游般步入一个可能危险的未来,在那里,我们放弃人性,徒劳地模拟机器,结果却被甩得越来越远。
我们准备好唤醒自己了吗?在一个只褒奖和认可机器思维的时期,人类还能记得并夺回我们的实质吗?我相信,还为时未晚,现在或许正是时候。

原文链接:

https://www.noemamag.com/the-danger-of-superhuman-ai-is-not-what-you-think/[1]: https://www.theguardian.com/technology/2024/apr/09/elon-musk-predicts-superhuman-ai-will-be-smarter-than-people-next-year[2]: https://www.youtube.com/playlist?list=PLF-wkqRv4u1Y-Bret-wrcPypPCZ3Gg_3L[3]: https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/[4]: https://montrealgazette.com/news/national/with-superhuman-artificial-intelligence-looming-canada-needs-law-now-ai-pioneer[5]: https://www.ft.com/content/88a3f4f6-0288-4991-88e0-ed52e939405e[6]: https://yoshuabengio.org/2023/08/12/personal-and-psychological-dimensions-of-ai-researchers-confronting-ai-catastrophic-risks/[7]: https://www.google.com/url?q=https://www.schumer.senate.gov/imo/media/doc/Yoshua%2520Benigo%2520-%2520Statement.pdf&sa=D&source=docs&ust=1716395821482907&usg=AOvVaw1EX2LHOOyPcun2qN39C0Gd[8]: https://plato.stanford.edu/entries/computational-mind/[9]: https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/[10]: https://www.ibm.com/topics/strong-ai[11]: https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/[12]: https://openai.com/charter/[13]: https://press.uchicago.edu/ucp/books/book/chicago/T/bo23186480.html[14]: https://www.synthesis.com/tutor[15]: https://www.pewresearch.org/short-reads/2021/11/12/among-many-u-s-children-reading-for-fun-has-become-less-common-federal-data-shows/[16]: https://news.gallup.com/poll/508352/americans-confidence-higher-education-down-sharply.aspx