那么,将“大脑上传至云端”意味着什么?

善与恶交织在一路塑造了人工智能|专访马克·尼兹伯格_人工智能_人类 AI简讯

答案可能是“数字永生”。

电影《机器姬》(Ex Machina 2014)剧照。

这些年,人工智能技能的发展及其运用,并未取得多少令人夸奖的造诣。
不过这彷佛并没有阻挡“局中人”的希望,他们不止希望能够与人工智能共生,还希望着能借助这一技能,实现意识的永生不灭。
环绕马斯克的回答,更多人随之产生了一个疑问,“数字永生”已经成为现实了吗?这可能只是一个为其诸如“脑机”等业务背书的“谣言”,由于要实现“数字永生”,还面临着思维复制、全脑仿真等一系列障碍。

而在技能层面之外,我们还须要搞清楚更多的问题:如何认识决定不该用人工智能的人?如何有效遏制数据集的腐败和数据集中对个人和群体的潜在歧视?如果人工智能能够办理粮食危急或者应对景象变革灾害,你会因此改变饮食习气或度假操持吗?如果电脑或机器人接手了你的事情,但你并不须要烦恼收入来源,你会冒死努力保住事情或者探求一份新的事情吗?

当然也包括,如果一个人将“大脑上传至云端”,我们该当将其视为原来的人类一份子,还是该当将其纳入另一个阵营?

在回答上述问题之前,我们还须要思考这样一个旧调重弹的基本问题,简而言之,这些新的、前所未有的人工智能技能对人究竟意味着什么?

“势如破竹”的机器打算

当下的我们已经无可避免地进入了与机器共存的时期。
在生活的各个领域,机器正在我们无意识的情形下替我们做出更多的决定。
曾经令读者或者不雅观众木鸡之呆的科幻小说、电影,正在成为我们日常生活的一部分。
这种渐进式的改变,乃至让我们对此并没有太多的察觉。

自1955年,约翰·麦卡锡发明“人工智能”一词以来,与之干系的研究已经经历了六十多年。
人工智能超过了地理界线和社会阶层,所有不同类型的人工智能技能都有一个共同的目标:获取数据、处理数据、从数据中学习。

前辈的学习算法被大量利用于决定我们行为的基本活动中,数字团已经侵入了我们生活的每一个角落,从零售业到金融业,从咨询专家到约会相亲,从康健做事到共享汽车,没有哪个领域可以丝毫不受影响——任何可以置入微芯片的东西都可能成为新的数据来源。
百度和谷歌可以为我们难以定义的搜索需求供应更精确的搜索结果,腾讯和脸书可以帮助我们找到并重新联系上一位久未谋面的朋友,淘宝和亚马逊可以为我们推举送给伴侣的最得当的礼物。

正如奥拉夫·格罗思(Olaf Groth),和马克·尼兹伯格(Mark Nitzberg)两位作者在《所罗门的密码:AI时期的代价、权力与信赖》一书中所说的那样:“每个人都能够从它身上得到好处,它使得我们的生活更加大略方便,互联互通。
随着我们越来越多地利用这些公司的做事,它们得到了更多关于我们生活细节的信息,以确保自己的平台能够知足我们的需求……”

《所罗门的密码:AI时期的代价、权力与信赖》,[德]奥拉夫·格罗思、 [美]马克·尼兹伯格 著,董丹丹 译,中信出版集团,2022年5月。

马克·尼兹伯格希望从伦理学的角度,磋商人类与人工智能共生、协作的关系。
对付前述问题,尼兹伯格认为个中有一些问题迫不及待:比如保持安全、保住事情、担保我们对自己的生活方向有发言权。

但在另一方面,尼兹伯格也认为,我们必须避免落入陷阱,将人类和机器等同起来,把两者作为竞争对手——机器智能和人类智能协同互补比两者过度竞争要强得多,“具有神经网络能力的认知机器可以帮助我们成为更有效的传感器和更快的处理器,我们可以建立更多的联系做出更好的决策……创造一种共生的智能伙伴关系,它有可能将我们和天下带到新的高度。

在对尼兹伯格的访谈中,他表示,“当人工智能成为每一项人类活动的一部分时,我们须要在世界这一背景下进行反思:我们必须认识到算法的背后隐含着道德和伦理准则,我们须要积极研发的不仅仅是技能,还有与之干系的如何利用它们的社会准则,以便它们可以与我们的繁荣美好的未来共生。
”目前,尼兹伯格的事情重点已从技能层面转向了政策层面,希望藉此证明人工智能的有益性。

马克·尼兹伯格(Mark Nitzberg),加州大学伯克利分校人类兼容人工智能中央(CHAI)实行主任。
《所罗门的密码:AI时期的代价、权力与信赖》一书合著者。

——对话马克·尼兹伯格——

在数据里,

善与恶交织在一起

新京报:人工智能技能的非凡能力为我们的时期带来了光明一壁的同时,也带来了许许多多无法避免的问题。
那么,人工智能技能到底意味着什么?是什么匆匆使你想要和奥拉夫·格罗思一同完成《所罗门的密码》这本书?

马克·尼兹伯格(以下简称尼兹伯格):2016年,媒体对日益强大的人工智能技能的机遇和风险进行了铺天盖地的宣布:自动驾驶汽车、卡车和自主无人机时期即将到来。
许多有名科学家和企业家认为,通用人工智能的涌现是人类历史上最为伟大的事宜,但这也有可能摧毁人类。

奥拉夫和我一起编写了《所罗门的密码》,以调查天下各地的人工智能景不雅观,向"大众先容人工智能的最新故事。
在与科学家、企业家、立法者、投资者以及经济学、法学、哲学和宗教领域的学者交谈的过程中,我们得出了一个中央结论:人工智能是人性的放大器,善与恶交织在一起,强大人工智能的涌现并不是发生在我们身体上的事情。
我们可以通过选择:谁来支配它、出于什么目的、在什么样的技能和法律范围内支配它和掌握它。

《所罗门的密码》这个标题所希望传达的便是这样的观点,它指的是历史上以领导力、聪慧与打算而有名的所罗门王。
当人工智能成为每一项人类活动的一部分时,我们须要在世界这一背景下进行反思:我们必须认识到算法的背后隐含着道德和伦理准则,我们须要积极研发的不仅仅是技能,还有与之干系的如何利用它们的社会准则,以便它们可以与我们的繁荣美好的未来共生。

《我,机器人》(I, Robot2004)剧照。

新京报:在你看来,人类与机器共存的时期是否已经到来?如何界定人类与机器的边界?

尼兹伯格:正如我们所看到的那样,人类当然已经和机器共存。
我们每天都在与软件互助——比如我们在线购买商品,或者通过语音相应系统预订酒店或者预约年夜夫。
这些系统并不是人类,但事实上,它们正在变得越来越靠近人类。
当一个语音助手可以像一个人类的个人助理一样表现出色时,我们该当在哪里划清机器和人类的界线呢?

目前,欧盟和美国出台了一些法律,哀求机器识别自己的身份,并见告用户自己并非人类。
这与(仍旧是假想状态的)人类级别人工智能助手和真实人类之间的观点差异有关:机器人是人类出于某种人类启示的目的而设计的,这在实质上是一种人类的征象;而一个真正的人类,显然不能说是由人类设计的。

如果我们将这种差异视为根本,那么它将阻挡人工智能系统被视为是有感知的,或是在法律或者道德意义上的“人”而涌现。
只管如此,即便我认为人工智能机器人该当是高度繁芜的机器,它们的设计目的也必须是为了帮忙,而不仅仅是为了实现特定的内部目标。
对用户奇妙且不断变革的偏好建模,是创建可信且有效的人工智能系统的核心寻衅。

电影《超验骇客》(Transcendence 2014)剧照。
影片中,天才科学家威尔·卡斯特致力于开拓出最靠近人类的人工智能机器人“品(Pin)”。

新京报:一个被机器所主宰的天下,是什么样的呢?

尼兹伯格:一个由机器主导的天下可能会有几种形式,但没有一种是可取的:个中一种正是我们许可儿工智能变得越来越强大,并失落去对其系统的掌握。
在这种情形下,人类将成为我们自己的超级智能造物的宠物或奴隶,否则人类将彻底灭绝。

这个假想发人深省——这也是我们人类兼容人工智能中央(CHAI)正在努力避免的命运。

交出了我们的“掌握权”

新京报:《所罗门的密码》融入了一个发生在2035年的,有关于阿娃的爱情故事,这个故事畅想了十几年后,人工智能技能渗透到生活方方面面时,我们的生活可能会发生什么样的变革。
在所有的描述中,你认为最值得当心的问题是什么?

尼兹伯格:这个爱情故事中智能助理机器人(Pal)的灵感来自于2017年的语音助手,但在当时,这一观点还是假想中的。

如今,智能助理机器人已经成为可能:语音助手会根据它所不雅观察到的个体习气及时空干系信息给出建议:比如,假设你约了贾斯敏(Jasmine)在十分钟后见面,而你还有二十分钟的路程,谷歌助手可能会对你说,“看来你要迟到了,我须要发个提醒她吗?”

像百度文心(ERNIE)和谷歌T5(2019年由谷歌推出的预演习模型)这样的大型措辞仿照系统都精通许许多多的措辞任务,使得系统能够以令人信服的个性化的办法与我们交谈。
但对我来说,用机器模拟和稠浊威信人士并不是最令人担忧的危险。
我相信,通过新的法律和公众年夜众意识,我们可以很好地处理这种情形。

对我来说,当下最大的危险来自个性化的社交媒体。
推特(Twitter)、脸书(Facebook)、微博(Weibo)和字节跳动(Bytedance)都是超级媒体,它们可以用非常快速且廉价的办法改变十亿人的想法。
有充分的证据表明,社交媒体自身虽然没有实质上的危害,但可以对社会凝聚力和民主规范造成巨大危害。
敌对型用户可以制造政治冲突,摧毁公司或个人的荣誉,或者扳倒一个商业或政治对手。

纵然是善意型用户利用也会出错:脸书试图根据不雅观察到的用户口味定制内容,而这导致了美国社会冲突加剧——基于用户兴趣构建的人工智能算法每每会放大走向极度的主题。
我的一位大学期间的朋友,过去是一个不折不扣的和平主义者,自从他被卷入一个社交媒体群后,就变得偏执,这匆匆使他购买了一把枪,选择离开城市,过着与世隔绝的生活。

我们须要监管算法来减少社交媒体的危害,制订某些目标,并哀求社交媒体公司对在线内容造成的线下侵害卖力,以及供应技能办理方案,例如,在推举算法的反馈机制中增加幸福感丈量。
最新一项研究表明,这些方法对改进用户福祉是有效的。
当然,问题仍旧存在:包括(社交媒体)该当在多大程度上受到监管,以及在多大程度上可以由个人用户自行决定?

新京报:人工智能系统已经运用在我们日常生活的许多方面,面对人工智能的迅猛发展,有很多问题彷佛是作为个体的我们难以抵挡的。
我们可以在多大程度上信赖人工智能?我们该当,或者说不得不交出生活的掌握权吗?

尼兹伯格:我相信,信赖的问题同样适用于人工智能系统,就彷佛适用于任何工程系统一样。
我们信赖桥梁,是由于我们知道有相应的标准和法规可以确保建筑商的资质和信誉,而由政府和受到认可的第三方机构进行的审计和检讨,以及定期且持续的评估和检讨,确保结果可以在很长一段韶光里持续令人满意。

电影《少数派报告》(Minority Report 2002)剧照。

人工智能系统和其他工程系统之间的实质差异在于个人与社会的交互广度。
自动驾驶汽车正在接管数十亿公里的驾驶行为测试,以理解司机过往可能碰着的各种状况,但它们依然不能够在所有驾驶情形下都进行测试。
在大多数情形下,这些系统被认为是赞助的,而不是完备自主的。
如果自动驾驶汽车可以安全靠边停车,我们可以松开方向盘。

但这就触及了第二个问题核心:我们该当交出掌握权吗?

我认为答案是肯定的——如果经由权衡这是值得的,或者说有利于公共安全的。
假设有一种新型的无人机出租车(drone taxis)可以利用——我不指望法律会许可我可以驾驶飞机翱翔,除非我接管了专门的演习并获取了翱翔执照——法律可以合理地哀求我把掌握权交给人工智能自动驾驶仪。

但社交媒体推举系统的情形要繁芜得多。
苹果的***运用程序和字节跳动的运用程序一样,决定了我每次浏览***时首先看到什么文章,接下来看到什么文章。
我已经把把稳力的掌握权交给了数以百万计的***爱好者。
源源不断的***文章的吸引力是不可抗拒的,如果推举文章的算法是为了吸引我的把稳力,那么它一定会导致一种上瘾行为。

从某种程度上来说,这正是移交掌握权所带来的负面影响。
在***聚合器的情形下,涌现了更高等别的对用户进行掌握的替代方案:例如,使得用户在“写作风格”方向上,从“奇妙”滑向“挑衅”;或是在“确立态度”时,从“附和”滑向“批评”。

回到我们对人工智能的意见,即赞助性或者自主性:丰田将智能驾驶定位为“驾驶员赞助”系统,逐步帮助驾驶员实现越来越多的功能,直到盲人驾驶成为可能。
特斯拉正在拥抱自动驾驶模式,他们的目标是积极地实现这一模式,以至于他们将这一驾驶赞助功能命名为“自动驾驶”,而不是“全自动驾驶”——以防万一。
显然,被视为赞助系统的自动驾驶更随意马虎被测试,也更随意马虎得到信赖。

隐私永久是最大的问题之一

新京报:你们在书中提到,该当捉住推动人工智能进步的“三个C”——认知(cognition)、意识(consciousness)和良知(conscience),它们为人工智能的发展供应了主要的里程碑。
对此,你有一些基于当下的思考,或者说关于它们的答案吗?

尼兹伯格:认知是基于“思考”这一任务的,须要考虑许多成分,评估许多选项,这是人工智能算法的核心权限。

如果你讯问险些任何一位人工智能研究职员,他们都不会声称他们的目标是建立意识或良知。
在我们结束这本书时,我总结说:我们所说的意识是一场伟大而有代价的辩论,在这场辩论中我将采纳的态度是,这是一个社会选择的问题。

如果我们选择将一个足够强大的人工智能系统视为是故意识的,那么它们是否有责任遵照我们的规范并授予它们“人格”?如果它们是“人”,也即公司或个人所有的“人”,那么我们是引入奴隶制了吗?我很确信,人工智能系统——由公司创建和操作的繁芜打算机程序——在可预见的未来不会被视为法定的“人”。

电影《机器姬》(Ex Machina2014)剧照。

末了,良知是一种更高层次的人类成分,不仅假定人工智能拥有独立人格,而且假定它具有社会群体中的成员身份。
在这种情形下,人工智能在道德层面上有任务和责任分享公共资源、财富和不幸。

事实上,许多国家涌现的人工智能法规都对人工智能系统施加了道德标准。
我可以这样总结:人工智能系统都在努力捕捉认知;意识问题是一场激烈的辩论,但我希望法律不会很快授予人工智能系统以人格;良知是当古人工智能的前沿领域之一,无论是在限定大型措辞模型行为的技能意义上,还是在世界各地运用于人工智能系统的日益增长的法律和伦理构造中。

新京报:我们乃至可能没有察觉到,人工智能在各个领域影响着我们的一举一动,智好手机、电脑、汽车、冰箱,乃至是牙刷、马桶等,都在无时无刻网络着我们的各种数据(当然也包括隐私数据),一些人会为此感到恐怖——这可能是一种无时无刻都被监视或者掌握的恐怖,对此,你有一些建议吗?当下的我们该当如何守卫自己的隐私?

尼兹伯格:办理隐私问题的一个办法是通过法律对隐私进行保护,这因国家和地区而异。
例如,在欧洲,隐私法被称为GDPR(General Data Protection Regulation),也便是《通用数据保护条例》。
举一个小例子,《通用数据保护条例》中规定了“删除权(被遗忘权) ”,许可个人要求从科技公司的做事器上删除他或者她的所有行为数据。
类似的法律可以给予公民一种掌握感和隐私保护感。

当然,只管有法律规定,我们的隐私也很随意马虎受到威胁。
比如智好手机确实一贯伴随着我们,其功能使其不可或缺,但也侵蚀了我们的隐私感:GPS位置传感器、快速互联网连接、摄像头、麦克风。
还有监控摄像机和其他无处不在的互联打算设备使得大型供应商和运营商能够从我们所有人这里捕获各种行为数据,并可能与司法部门和其他政府机构互助,捕获和存储数据以供剖析。

不过,可以网络所有这些数据并不虞味着他们确实网络了这些数据。
归根结底,这取决于我们是否信赖政府机构和科技公司不会违反隐私法。

新京报:你提到,构建一个共生智能的环境,须要人们有能力辨别不同智能中的好坏,这样我们才可以整合各方形成更好的伙伴关系。
这须要人们对人工智能的潜力怀有高度信赖,并乐意接管用这些人工智能增强人类的能力。
我们该当如何理解这种共生智能环境?又如何建立这种信赖关系?

尼兹伯格:这正是人工智能时期所面临的巨大寻衅之一。
数据驱动的系统是不透明的,很难证明其行为的详细情形。
我们正在研究下一代系统——数据驱动和符号系统,可以利用正式系统的一些机制。
然后,我们就可以建立安全和效益标准——“良好”智能。

本日的我们已经生活在与大型软件系统的共生关系之中——只要试着在没有手机的情形下在城市里走一天!

我们须要通过它来旅行、预订餐馆、折衷团体、付款、确定音乐会安排,我们生活在各种移动设备和智能系统当中。
我相信有一种建立信赖的模式:运用商店——在许可发布之前对软件运用程序进行评估。
大概目前还没有达到它们该当达到的效果——但它们可以作为一个安全的数字生态系统模型,每个模块都有认证。

因此,通过安全的生态系统认证和分发的,被证明是有益的人工智能模块,有助于在人类和人工智能系统之间建立更加深入的共生关系。

技能须要被规训

新京报:越来越多的人正在躲在数字身份的背后。
一些网络环境中充斥着人肉搜索、网络威吓和仇恨,人工智能的发展是否放大和加剧了这种不受掌握的冲动表述的涌现?如果人工智能将这种状态也视为人类的真实面貌,是否会带来不可预测的危险?

尼兹伯格:由数据驱动人工智能系统的社会危害确实很多。
但我的不雅观点是,就像所有的技能一样,人工智能是人性的放大器——放大人的善与恶。
很难发明出一种只能用于善的技能,一种能够感知何时被用于有害的技能,只能大略地关闭它们。

与核能发电、药物和基因工程一样,人工智能的滥用或因此造成意外侵害的风险与它对天下的影响一样大。
研究职员可以创造技能或数据本身中的一些关键故障。
过去的数据记录了过去的决策,包括那些不公道的决策。

当工程目标偏离当前情形时,一组有固定目标的编码会变得危险。
对付每一种有时性,我们不可能事先知道所有人的偏好;此外,一个有固定目标的智能系统会很自然地得出结论,不能关闭它,由于那样会妨碍它实现目标。

这一领域的研究有时被称为定位问题,即人类想要什么,以及如何设计系统来实现我们所希望的未来。
这是一个寻衅,仅仅将偏好大略地写在一个长长的列表并提前将其放入人工智能系统并不敷以应对。

新京报:《所罗门的密码》首次出版于2018年,在过去的四年当中,你是否产生了一些新的思考?自2020年起肆虐环球的新冠肺炎疫情,在人工智能领域带来了一些以往未曾被人们所关注到的问题吗?

尼兹伯格:之前的问题涵盖了我们已经办理的大多数常见问题。
通过进一步研究百度、谷歌、微软和美国开放人工智能研究中央(OpenAI)的大型措辞模型,人们对实现通用人工智能的可能性提出了新的问题。

《所罗门的密码》英文版封面。

他们正在将文本语料库(有时也包括图像)输入到称为Transformer(一种机器学习模型)架构的深度神经网络的新变体中。
结果令人惊异,由于这些系统能够内化书面措辞的可能性:语音、常见用法,乃至更令人印象深刻的口语表达,在某些情形下,还涌现了一种不可思议的“知识”。
由于它们接管的是笔墨演习,没有任何在天下上的“根本履历”,它们无法达到幼儿或家养宠物所表现出的那种知识。
虽然它们可能会利用表达因果关系的词语,但它们并没有幼儿那种从物理和因果关系中得到一种根本认知,例如把杯子推倒,水就会溢出来。

我的许多同事,包括伯克利大学的斯图尔特·罗素(Stuart Russell)、现在北京大学和清华大学事情的朱松纯,以及麻省理工学院的约书亚·特南鲍姆(Joshua Tenenbaum),都确信仅靠深度网络无法实现普遍的人工智能。

新冠肺炎疫情加速了人工智能支持系统的运用,也因此加速了我们在编写《所罗门的密码》时所预见的一些积极和悲观结果。
大多数人熟习的一个范例例子是利用***会媾和社交网络来创建、加入和参与社会团体,以便供应不须要立即面对面打仗的做事。

纵然我们被封闭在家里,我们也有机会打仗很多没有见过面的朋友和亲戚,由于拜访远方的亲朋好友和拜访邻居一样大略——都是通过***。
社交网络算法会推举远方的朋友,也会建议我们加入新的社交群体,这改进了与世隔绝的人们的生活。
同样,在线联机的康健咨询,能够更快、更频繁地监测患有某些疾病的患者以及薄弱的老年人。
只管亲自照顾护士已经被规复,但远程医疗咨询的便捷性和经济性依然对卫生部门产生了持久的积极影响。

在一个伶仃无援的环境中,许多人被网络招募加入到志同道合的团体之中,而这在线来世界之中是无法做到的。
如果这些团体是康健的,有共同的真正的兴趣或爱好,这便是积极的效果;但在许多情形下,招募是为了政治目的,比如鞭策冲突,在某些情形下的身体暴力等。
人工智能支持下的招募犹如人工智能推举的广告一样精准有效,它对社会的危害远远大于站在街头讯问***是否对某项奇迹感兴趣的传统办法。
在线招募就犹如网罗密布,它可以根据个人资料选择特定人群推送一百万条量身定制的。
比较之下,街头招募就如同一根钓鱼竿。

文/何安安

编辑/西西

校正/刘军