何怀宏:人物、人际与人机关系——从伦理角度看人工智能_关系_机械人
内容择要:
传统的社会伦理一向因此调节人与人的关系为中央,当代伦理学近年则开始比较系统地反省人与物之间的关系,而未来的伦理学大概还须要将人与智能机器的关系纳入其考虑范围。这紧张是由于人赖以得到对其他所有自然物的支配上风的智能,将可能被机器超越。关于人机关系的伦理思考,一种思路是方向于做减法而非做加法,即优先和集中地考虑规范智能机器的手段和限定其能力,而不是考虑如何设定和培养机器对人类友好的代价判断,亦即只管即便将智能机器的发展限定在专门化、小型化尤其是尽可能的非暴力的范围之内。
伦理是有关生活代价与行为正邪的磋商。而无论生活还是行为,都是在人的关系中展开的,人的天下便是一个关系的天下。这些关系包括人与自然的关系、人与人的关系,乃至人与自我的关系、人与超越存在的关系。本日的天下涌现了一个极为主要的新情形,便是人工智能的飞速发展使一种新的物——智能机器也涌如今伦理思考的范围之内。
继人从自然、从物等分离出来后,一种新的存在也有可能再分离出来。这种新的存在既是物,初始又是人创造的。它结合了人与物的两方面性子。它是不是有可能取代人目前所取得的“超级物种”的地位?这是人工智能对人类提出的最大寻衅。对此笔者将另文磋商,这里紧张从伦理的角度磋商对人机关系的认识,磋商人们对目前的智能机器能做些什么,能提出一些什么样的基本伦理思路与规范。
人与物的关系天下上除了人,还有物。人本来也是物,现在也仍旧还可以笼统地归于物或者说一样平常的存在。但如果从人的特性,从人的能力、意识、道德而言,人就可以差异乃至对峙于地球上的其他所有物。这样就有了人与物的关系,但人与自然物的关系长期以来并没有纳入道德的理论系统中来考虑,没有成为一种道德理论或生态哲学的体系,直到20世纪下半叶才发生改变。
我们可以从不同的韶光长度来回顾人与物的关系的历史:地球史、生物史、动物史、人类史和文明史。前面的历史包含着后面的历史。当然,前面三种只是一种人类的史前史,只是方便我们看到人类的自然来源。
人猿揖别,人先是直立起来,就腾出了两只手,手的拇指能与其他手指对握,就能够握持和制作工具;火的发明使人能吃到熟食乃至保存,它促进了脑力的发展,而且人工取火还能成为生产的工具,如利用火把来驱赶和烧去世动物。人从一开始大概便是群居动物,有了意识之后更懂得分工互助。
二三十万年前涌现的当代智人,还在以采集佃猎为主的石器时期就已经造成大量物种的消灭了,他们用火把、叫嚣、石块、木棒等,利用分工协作的群体力量,将其他动物驱入山谷,使之大量去世亡,真正吃下去的实在只是很小的一部分。而且他们的佃猎工具首先是一些大型陆地动物。
很永劫光内,人对天空中的鸟和深水中的鱼都不太能够顺利地把控,他们缺少这方面的能力,乃至对眇小生物也不如对大型动物有办法。根据近年的研究,智人大致是从东非出发,后来分别到了亚洲、欧洲、澳洲、美洲。而他们走到哪里,就造成那里的一些大型动物迅速减少乃至灭绝,乃至一些原来的人种也消逝了。
这大概是人与物的关系的第一阶段,即他从其他动物中脱颖而出,能够借助工具和智力来与任何一个物种乃至所有物种对峙与反抗。第二个阶段则是从仅仅一万多年前的人类的农业文明开始。人在文明史的阶段,逐步变得不仅能够反抗,而且能够支配其他所有的物种,成为地球上的主人。
他获取食品和能量的办法,开始从以采集佃猎为主转到以栽种畜牧为主。他不仅利用无生命的物体如石块作为工具,也开始利用其他的动物作为工具了。他利用畜力来延伸和扩大自己的体能,不再只是获取现成的自然物,而是通过改变自然物的形态以达到自己的目的。各种栽培的作物、驯养的动物,都不再完备是原来的样子了。
人开始以越来越大的社群定居,经济生活有了稳定的预期,可以养活少数的有闲阶层来专门从事文化的事情,直到涌现城市、笔墨、金属工具和国家,乃至涌现轴心时期的精神文明。
到了近代工业革命又是一个飞跃,人发明了蒸汽机、内燃机、电力,人利用煤、石油等自然资源,设计和大批制造了各种机器,极大地增强了人征服自然的能力。人在农业文明时期对自然物的改造,多少还能够看出原来的样子容貌,工业革命时期的产品,就险些看不出原来的样子容貌了。人大大地改变和提升了各种获取食品和能量的办法。这各种各样的人造的机器已经不是自然物了,但却还是没有自身智能、不能自我学习和独立改进的人造物。人真正成了地球上所有自然物的主人,他能够轻易地降服所有其他物种或其联合,能够移山填海,改变自然界的面貌。
那么,人是依赖什么达到这统统的呢?在这一过程中,人的体能并没有什么上进,在某些方面可能还退化了。人迄今在速率、力量、耐力、柔韧等方面还是不如地球上现有的某些动物,但他却完备可以支配它们。他使它们就范所依赖确当然不是他的体能,而是他的智能,是他的智能所带来的具有极大上风的暴力和强力。人和其他动物之间自然也就处在一种很不平等的关系之中,只是到近年人类才稍稍有所反省息争救,但这种关系的不平等性子并不可能改变。
人依赖他的智能,可以大大扩大和延伸他的体能,乃至完备不用自己的体能而办成他想办的事情。人哪怕开始只是比其他动物彷佛稍稍聪明一点,也会带来越来越大的差距。智能贯穿人类进化的始终,本日看来更是独领风骚。这里所说的“智能”自然不是人的意识能力的全部,而紧张是指人对物质天下的认识和掌握能力,人其余还发展起一种试图认识天下之根本、人生之意义以及审美、艺术等诸多精神领域的能力,人与其他动物的不平等的缘由和实质差别乃至更多地是来自这些方面。但控物的智能却是人类对其他动物取得上风和支配力的紧张依赖。
当人类进入文明阶段,有了劳心阶级、国家和措辞笔墨之后,智力则有极大的、飞速的上进。于是我们看到了加速度乃至指数速率的发展:地球有约40多亿年的历史;生命有30多亿年的历史;动物有约7亿年的历史;人类有近300万年的历史;当代智人有20万年的历史;文明有1万多年的历史;国家有5000余年的历史;工业革命有300年的历史;而新的或可称作“智能革命“的高科技文明则大概只有五六十年的历史。
人只是到了文明阶段,有了明确的自我意识,有了明确的“人禽之别”的意识,才有了一种实际上存在的道德关系。但是,对人与物的道德关系的系统认识和故意识的调节,还要到文明的更高阶段。而且,即便是文明阶段的人和人之间,还有时重新堕入那种动物般的生存竞争的状态,这时对双方险些都没有什么道德可言,很难对个中的一方做出赞赏或训斥的道德评价。但这可以说是非常状态,对为何堕入这种非常状态,还是可以做出道德评价并进行各种补救和调节。
对人与物的道德关系的调节,必须首先办理一个“道德地位”(moral standing)的问题。人在征服其他物种尤其是动物的过程中,并不理解其他动物的全部感情和感想熏染,乃至没有考试测验去理解。他也不是对它们怀有恶意,人捕获它们、吃掉它们,并不是出于痛恨。人和人之间毕竟都是有自我意识的,但动物、生物乃至其他统统自然物没有这种自我意识,无法成为道德的主体。但人是否就可以为所欲为地对待它们呢?它们是不是还能得到一种得到人的道德对待的地位呢?这种道德地位的根据是什么呢?
对这种道德地位的根据的问题,各种生态伦理学理论有一些不同的回答。但大都认为,其他物种或物体也具有它们内在的、固有的或天赋的代价。其他物种或物体虽然没故意识,不是道德的主体(moral subject),但它们由于具有这种内在代价,也应该成为道德关怀的工具(moral object)或者说“道德顾客”(moral patient),而人也该当成为对它们进行道德关照的代理人或代理主体(moral agent)。
当然,除了“道德地位”,还会有一种“道德主要性”的考虑。即均得到一种须要关照的道德地位的其他物种或物体,还是有一些不同的道德主要性。比如动物看来就因其具有感想熏染性而应得到更大的关照,像虐待动物就该当首先在打消之列,其次是有生命的物体,再次则是无生命的其他所有物体。当然,也可以将全体的自然环境视作一个生态系统来考虑。
人与人的关系伦理学的中央,尤其是传统的伦理学可以说紧张是处理人与人的关系,即人际关系。对这种人与人的关系,有时随意马虎仅仅理解为个人与个人的关系,中国传统的伦理学尤其看重亲人之间的关系。但广义的人际关系应该包括三个方面:第一是个人与个人的关系或者自我与他人的关系,比如一个人与亲人、朋友、熟人、生人的各种关系;第二则是个人与各种群体,诸如因地域、种族、文化、宗教、政治乃至兴趣而结成的大大小小的群体的关系,这里最主要的还是个人与国家的关系;第三则是人类的各种群体与群体的关系,这里最主要的大概也是国家与国家的关系,或者说政治共同体之间的关系,还有宗教团体之间的关系。而在人类世代之间乃至还可以说有一种“代际关系”。
人与人之间的道德关系和行为规范是不是大致在进步呢?采集佃猎时期的人结成小的原始群体,内部非常平等,但对外部的其他人类原始群体则相称暴力或者说残酷(如果说能够用这个具有道德意味的评价词的话)。农业文明阶段则涌现了国家,在各个政治社会之间还是有相称的冲突,但不是像原始时期那样誓不两立了;在政治社会的内部则更加温和与和平了,人们通过政治秩序更能保障自己的安全与生养,但这是建立在某种等级制的根本之上的。到了当代社会,道德调节范围不断扩大:所有的人都被视作平等的个体,虽然从生存平等、人格平等到基本人权的自由平等,也有大段的弯曲。
而暴力的减少也是一个总体的趋势,虽然也有弯曲乃至大的波谷,像20世纪上半叶就爆发了两次天下大战和许多内战、骚乱,但二战之后的总体发展是暴力大幅减少,尤其是在发达国家与迅速发展的国家内部,我们乃至看到它延伸到家庭和学校,霸凌和体罚等都呈现日趋减少乃至禁绝之势。人们的最低生活保障标准也在不断提升,如食品、医疗条件的大幅改进,瘟疫的趋于消灭,人的预期寿命普遍增加。道德调节的范围乃至扩展到所有生灵和自然物——虽然在哀求的程度上有所不同,这种人物关系的改进或也可以说是人际关系改进的一种延伸。
如果我们以暴力与平等的两个标准来稽核人类道德的进步,那么在暴力方面大致是一种相称平滑的线条:在人类的前文明阶段,或者说采集和佃猎的阶段,暴力是相称频繁和残酷的;在农业文明的阶段,暴力减少了;在工业文明的阶段,虽然也有起伏,但至少从截至目前的总体趋势而言,暴力连续减少了,虽然足以毁灭人类数十次的大规模***武器还存在。从平等的角度不雅观察,则大致是一条弯曲的线条:在采集佃猎阶段,有一种内外有别的内部高度平等;在农业文明阶段,则基本上是一种不平等;到了工业文明阶段,则走向了一种比较全面的包括所有社会成员和席卷各个方面的平等。
暴力与平等,不仅是我们不雅观察人际关系的两个最主要的道德标准,也可以作为不雅观察人物和人机关系的主要标准。反对暴力和造孽逼迫涉及到生命和自由的基本原则,构成在各文明和宗教中诸如摩西十诫中的“四不可”、基督教金规和儒家忠恕之道这样的道德规范的核心内容。像国家这样的逼迫暴力固然还是不可短缺,但产生这样的暴力还是以“以暴制暴”为宗旨的,它针对的正是人类的暴力行为。虽然这种国家暴力也会被滥用,但如果它能遵守这一宗旨,且必须经由一定的法律程序才能实施,那么,它还是能被人们广泛接管。
人类目前已经历了原始群体阶段的内部很平等和外部多暴力、农业文明阶段的不平等和少暴力、工业文明阶段的广泛平等和更少暴力的过程。人与自然物的关系近年虽有诸多改进,但还无法处在一种像人与人之间的平等地位。新涌现的生态伦理学理论试图对此有所平衡,尤其是非人类中央理论如动物权利和动物解放理论,试图更加关怀和提升弱势生命的地位,但还是不可能做到真正平等。这大概也是人类道德不仅不可能,乃至也无必要去做的。生态伦理学中的一种整体不雅观点可能更有道理,它也使我们遐想到像古代斯多亚派那样的普遍宇宙理性,但它还是不能不给人类以更多的权重。
人与物的这种不平等关系的根本缘故原由,可能还是人与自然物是属于不同的存在种类,后者没有理性和自我意识,而所有故意识的乃至仅仅有觉得和生命的存在都会更优先地方向于自身的保存。即便是按照整体论的不雅观点,所有的生命都该当共生,所有的存在都该当共存,但每种生命都会本能地或者是故意识地优先考虑自身的生存,而不是优先考虑其他物种的生存。这也是有道理的。以是对人能够提出的道德哀求,该当是人也应该只管即便兼顾其他物种的生存,而并不是哀求人类比较关心自己的生存更关心其他物种的生存。否则就可能分开人性,乃至也分开物性。
那么,对付人与智能机器的关系,我们是否也可以从上述两个标准不雅观察,考虑能够建立一种什么样的关系,并只管即便地减少暴力呢?
人与智能机器的关系自从打算机和网络、机器人、生物技能、纳米技能等高科技问世且越来越快地发展,人类进入了一种新的技能革命。其核心或可称之为“数字革命“”算法革命”,或者更综合地说是“智能革命”的阶段。如果说以前的工业革命紧张因此极高的效率办理人类体无能为力的问题,现在的智能革命却是以极快的速率办理人类智无能为力的问题。智能一贯贯穿于人类征服自然的始终,本日看来还要独领风骚。
随着这些技能革命和改造,人类本日进入了一个新的阶段,这一新的技能革命或许将使人类文明分开“工业革命”“工业文明”的范畴。目前还仍旧将高科技的发展归在“工业文明”的大范畴内,但未来或许要将这种智能革命带来的新文明独立出来,构成一个新的文明阶段,而“工业文明”或许还可归之于利用和改造自然物的人类文明阶段,未来的以人工智能为中央的文明则可能是一种创造全新的人造物的阶段。由此就给人类伦理带来以前从未碰着过的新问题:如何认识和处理人机关系?
人类不仅一开始就要从生存发展的策略和技能上考虑人与物的关系,或者说人与自然的关系。人从精神文化上考虑这种关系也很早就开始了。最早的希腊哲学家试图认识自然天下的实质、构成、元素,以及人与自然共享和差异的东西,人与自然该当处在一种什么样的关系之中,等等。中国古代的思想家也提出过“道法自然”“天人合一”的命题。古人也曾提出和实施过各类掩护自然环境和生态的一些规则,并在近数十年涌现了系统的环境伦理的哲学理论。但是,迄今的确还难说有关于人机关系的系统伦理学理论。这缘由是什么呢?当然,最直接的一个阐明便是:人工智能对伦理提出的寻衅还是一个很新、晚近才涌现的事物。
但我们还可以结合也是晚近才进入我们系统性伦理思考的人物关系的论据,来更细致地回答这个问题:为什么我们过去险些不重视乃至很少考虑人机关系的伦理问题?察看一下近年来环境哲学提出的有关该当看重人物关系的伦理,善待其他生灵和关心全体生态的论据,大致有以下几点:
第一是感想熏染性,这紧张是对动物有效。其他动物也和人一样会感想熏染到痛楚,虽然紧张是生理上的痛楚,但也有生理上的痛楚,不仅有受害动物感想熏染的痛楚,乃至也有它的差错的痛楚。一只大雁被人击伤掉落了,不仅这只大雁感想熏染到痛楚,它的差错也常常会徘徊不去,哀鸣不已。
第二是生命,这也包括了植物,植物也是有生命的。你拔起一株花,它很快就枯萎了。你砍伐掉一棵树,它也就永久不能郁郁葱葱了。
第三是整体性,这包括了所有的自然物,尤其是地球上的自然物。不论是有生命的还是无生命的,它们构成一个人生活在个中的生态整体,从整体的不雅观点来看,险些也可以说是须要相互依存。
第四是自然性,自然界是先于人类而存在的,自然物也是可以不依赖于人而独立存在的,而人却必须是依赖自然而生存的。
末了可能还有一种自然给人带来的感想熏染问题,自然万物常常能够给人带来一种美感,乃至还唤起人们的一种伟大感、深邃感、庄严感乃至敬畏感。
基于上面的情由,人不仅应该善待动物,爱惜生命,即便是无生命的物体,也应该只管即便保护它的原生态和自然性,保留一些原生态的荒野、湿地、雪峰等,掩护全体生态系统的平衡。
但以上这些情由彷佛对人造的机器和机器人都不适用。它们是硅基质料或者加上金属,不具有我们人与动物共有的肉体感想熏染性;它们看来也不具有会自己成长、变革和繁殖的生命,也不构成自然整体的一部分——它们在自然界本来是不存在的,只是人利用一些自然质料造出来的物体;它们也不会自然地给我们带来美感,或者说,幽美与否是我们按照自己的审都雅授予它们的,是出于我们的设计,看来也唤不起一种伟大感和敬畏感。以是,此古人们对机器的态度是比对自然物差的,人们会根据自己的须要更加随意地对待它们:会拆卸、报废和处理它们。没多少人会想我们要像善待动物一样善待机器。保养它们也只是为了让它们更好和更长久地为我们做事。当然,也没有人真的恨它们,过去卢德分子捣毁机器实在紧张是倾泻对人的怒火。
但为什么我们现在须要负责地考虑人机关系的伦理问题?这变革可以追溯到什么时候?是什么成分使我们必须思考机器伦理的问题呢?
工业文明早期,机器还是我们制造并完备可控的产品,并不存在伦理的问题。这一变革大概发生在机器开始自我学习、自我改进的时候,即涌现了自动化机器,直到智能机器人的涌现,这机遇器开始拥有了人的一部分能力,即控物的能力、工具理性的能力,这也是人赖以降服其他动物的能力。机器开始拥有了智能,拥有了工具或技能的理性——而这工具理性正是当代社会的人最为推崇和广泛运用的一种理性。机器在这些方面开始有些像人了,但在人的其他意识能力方面,比如说情感、意志、整体的自我意识方面,它们还不像人。
但既然有了一部分人的能力,它们是否会发展到也将拥有自己的情绪、意志乃至自我意识?如果未来的发展的确是这样,乃至在它们只具有人的一部分能力的情形下,我们是不是就该当开始考虑我们与它们的伦理关系问题?当然,匆匆使人关心这一问题的一个最大潜在动因可能还是一个威胁的幢幢暗影——那便是它们会不会连续发展到在智能方面超越人乃至替代人?
许多科学技能专家可能是齐心专心专注于研制与开拓,这方面我们得感谢文学艺术家,是他们的作品,包括许多科幻小说和影视作品,从一开始直到本日都在坚持不懈地提出各种可能的人机伦理问题。
最早利用“机器人(Robot)”这个观点的捷克作家恰佩克,在1921年揭橥的作品《罗素姆万能机器人》中就很超前地提出了人与机器的关系问题。其剧中,发明和制造机器的人们动机各不相同,有的是为了利润,有的是为了科学,有的乃至是出于人性的空想——如主管多明便是希望能够将人类从繁重的劳动中解放出来,都变成享有肃静和空隙的“贵族”。于是,公司制造的大量机器人在环球被用作苦力,而来到机器人制造公司的总统的女儿,则希望人性地对待机器人。十年后,机器人开始在全天下造反了,组织了国际机器人协会,杀去世了这个工厂的管理人,结束了人类的统治而开始了自己的统治,虽然他们不久也碰着如何繁殖或复制自己的问题。
科幻作家阿西莫夫在小说《转圈》中最早提出了给机器人设定的三个伦理规则:1.不得侵害人和见人受到侵害不作为;2.服从人的指令;3.自我保存。这是有序的三规则,即越是前面的规则越是优先,后面的规则不得违反前面的规则,机器人乃至不能服从人发出的侵害人的指令(如主人想要机器人帮助自己自尽的指令);机器人的自我保存不仅不能侵害人,也不能违反人的旨意。如果涌现机器人即将侵害人的情形,或者即便不在这种情形下,但只要人发出了让机器人自尽的指令,它也必须服从。这显然因此人为中央的规范。
要实施这些规则自然会有机器人判断的包袱,即如何判断人——被侵害的工具和作为发令主体的人,这人是指发明制造它的人还是利用它的人,是指人类个体还是整体,由于他们之间是可能涌现抵牾的?还有判断哪些情形会侵害人,以及在无法避免侵害人的情形下选择侵害哪个或哪些人;在不同的人发出不同的指令的时候,究竟服从谁的命令;等等。阿西莫夫在一些作品中也描述了个中的一些抵牾和困境。他不仅负责地考虑人机关系——当然,这种关系毫无疑义是不平等的,还试图明确地提出调节的伦理规则,这是一个很故意义的出发点。
后来的人们对这三个伦理规则有不少修正和补充,但都方向于做加法,增多或提高哀求,包括阿西莫夫自己,或是鉴于机器人可能成为恶人保镖的危险,自己也加上了一条更优先的零原则:“不得侵害人类整体。”但做加法将连续加重机器人判断的包袱,还打开了误判或冒名和假托“人类利益”的缺口。
人机关系的伦理调节思路
笔者现在考试测验提出一种新的思路,一种不同于阿西莫夫,也不同于现在许多关心和研究机器伦理的专家的思路。
简要地说,我们可以将现在利用的机器人分为两个层面:民用机器人的层面和国用机器人的层面。而目前人们考虑的人机关系的伦理调节大概有三个方向:一是对机器的代价规定和勾引,如希望设计和培养智能机器遵照对“对人类友好”的指令,教会机器明辨以人为最高代价的道德是非;二是对其行为、手段的规范限定,如阿西莫夫规则中的“不得侵害人”;三是对机器能力的限定,尤其是防止通用的超级智能的发展。
笔者认为第一个方向是不必要,也是不太可能的,乃至后面隐蔽着很大的风险,且和后两个方向有冲突。而后两个才是我们该当努力的紧张方向,但运用在民用机器人和国用机器人的不同层面上会有差别,详细陈述如下:
一些学者认为可以给机器人预先设定让它们“对人类友好”的动机和代价不雅观,或者说“为了人类最大的利益而事情”。但要设定这样的代价目标,就必须让它们发展自己的通用和综合能力,乃至得到一种自我意识。否则他们就无法担负判断的重负:比如若何才是对人类友好,什么是人类的最大利益或整体利益。这些判断必须具有一种通用的、综合的能力,乃至须要一种通盘考虑,不仅要考虑人的物质利益,也要考虑人的精神和文化、感情的各种需求等。如此它也就须要和人一样或类似的自我意识,要全面地理解人。
但这看来是不可能的,它们不是碳基生物,不是灵长类动物,它们不可能具有这种生物的肉体敏感性,也没有领悟精神文化的能力——仅仅靠输入和记住人类的全部文献是不足的,那还须要历史的、无数活生生的富有情绪和瞬间灵感的个人体验的积淀。而且,如果它们真的发展起一种基于自我意识的全面判断和行动能力,那也一定不是建立在这种肉体感想熏染性和有去世性根本上的人的自我意识,那将是我们无法知晓的一种自我意识。我们与它们无法像人与人之间那样“感同身受“”设身处地”。
而人类最好把代价判断留给自己,这也是保持一种人类对机器人的独立性乃至支配性。我们不能什么都依赖智能机器,把什么都“外包”给机器。如果说,我们最好不要让多数人在人工智能的领域内太依赖少数人,我们就更不要让全人类在智能、在精神和代价判断的领域里依赖机器。人类将自己的代价判断完备请托给机器之日,大概也便是人类灭亡之时。我们最好让机器人始终保持它们“物”的基本属性。人所能做的乃至只能做的可能便是限定它们的手段和能力,而不是给它们建立一套以人为中央的代价体系。
它如果真的节制了代价判断和建构的能力,恐怕它很快就要建立自己的代价体系,那是人类不易知晓其内容的“代价体系”或者说它自有的“目标体系”——就像专家们连对现在在智力竞赛中夺冠和降服棋类大师的机器人的详细打算过程实在也不太知晓,其间还是有不少“黑箱操作”。而如果机器有了“心灵”,那将是更大的“黑箱”乃至整体的“黑箱”。
以是,笔者考虑是不是至少首先在民用机器人的层面上,可以对阿西莫夫的三规则采纳另一种思路,即不是做加法,而是做减法,而且缩减到极简,便是一条:机器人不得侵害任何人,也便是原来三规则中第一规则的前半条。乃至我们可以更明确一点,不得侵害也便是不得对人利用暴力,这暴力包括不得利用逼迫的手段限定人的自由,比如强行禁锢人、不让人离开或者像《机器姬》那样锁闭人。
我们可以考虑让这“非暴力”成为一个不可撼动的原则,成为所有机器人的最初始的、不可修正的禁止密码,任何次级的运用和制造机器人都修正不了这一密码。如此,人们的确也就可能从机器那里失落去许多便利和期望,比如说不能制造和利用能够保护自己的“机器保镖”,由于问题是:如果年夜大好人能够利用这些机器的暴力,恶人不是可以更放荡地利用?
当然,机器人还是可以成为救助人的强大工具。当人受到侵害时,机器人还是可以有所作为,只是救人也不得利用暴力。它可以帮助人逃走,可以成为一个极其灵敏和迅速的监测和报警系统,让罪犯不可能遮盖和逃逸,让犯罪的人必须付出代价和受随处分。这样它就还是在帮我们。我们还是有一个强大的安全助手。但我们不能让机器人脱手。暴力的利用要始终节制在人的手里,这也是人该当承担的任务。也便是说,机器人不参与任何暴力,与任何暴力绝缘,乃至不知暴力为何物。它便是一个完备和平的“动物”。
至于在国用机器人的层面,可能无法直策应用这一条禁令。由于国家便是暴力,国家不可能没有暴力,对国家机器无法排斥暴力的利用。但我们还是可以区分国用机器人的两种利用,一是海内的利用,二是国际的利用。可以考虑首先在海内的利用中禁止任何可以***的暴力机器人,而在***机器的国际利用上,则首先力求小型化、专门化。听说前几年就已经有56个国家在研究***机器人,具有智能的***机器如无人机和***蜂已经研制成功乃至投入利用。这样,如果在民用机器人方面该当禁止统统暴力,在国家层面孔前看来就事实上难于禁止,国家不该用这种暴力,也会利用那种暴力。但至少可使其专门化、小型化,不成为大规模***武器。
也有不少人呼吁完备禁止研究和开拓***机器人,但只要有一个大国谢绝,其他国家彷佛也就不会停滞。但我们至少可以考虑一些预先的禁令和逐步的限定。比如禁止***机器人向大规模***武器方向发展,只许可一些已经存在的小型化、专门化、针对性强的***机器人暂时存在。当然,像排雷机器人、拆弹机器人自然是可以存在的。国家之间,尤其从大国开始,还可以考虑签订一些诸如防止核扩散、禁止生化武器那样的条约。这毕竟不是没有先例的,像毒气在一战期间就被研制出来并利用,但之后还是实际被禁用,包括在残酷的二战中。
我们无法完备禁止国家对暴力的利用,毕竟国家本身就意味着一定地域内对暴力的垄断。但负任务的国家,尤其是大国,该当考虑遏止一些不负任务的国家或胆怯组织对***机器人的研制和利用。
当然,这只是一个思路,乃至可能是一个天真的思路。由于人性中有根深蒂固的各种各样的动机,不仅成本牟利的动机,集团和国家私利的动机,乃至科学家出于知识的好奇动机,都可能使对机器人能力和手段的限定归于无效。
但愈是如此,规范也就愈加不能繁芜化。笔者考试测验提出的上述规范的确显得非常大略,但可能唯其大略,才比较可靠。规范必须大略和明确,而且最好是禁令,以减少乃至免除机器人判断的包袱,这也是限定它们的能力。禁令比正面的指令的可行性要大得多。代价动机难于掌握和植入培养,但行为却好掌握得多。机器的判断会在打算可量化的利益和概率方面比较善于,但人的感想熏染、感情等诸多成分是很难量化和打算的。
以是,我们可能不宜放弃并优先考虑这一思路,或者说,至少可以考虑先在所有民用机器人的层次上实施“禁止任何机器暴力”的原则。我们大概还该当故意让人工智能变得“笨”一些,即故意地让它们的功能比较专门化、小型化,限定它们的自主意识和综合能力,防止它们向超级通用智能的发展。
处理人机关系的关键仍在人际关系
我们上面重新从伦理角度回顾和考虑人际关系和人物关系,也都是由于人机关系的寻衅。
再比较一下人物关系和人机关系,这两种关系在某些方面是类似的,即目前的物和机都是没有自我意识的,和人类处在一种强弱不等乃至力量悬殊的地位。但这两种关系又有不同,关键的差别是智能机器同时具有人和物的两种属性:它们一方面还没有自己的自我意识,还是人的造物;但另一方面,它们又已经具有一部分人的属性和能力,尤其在算法上比我们更快、更强,未来还可能全面地超过我们。
我们对动物的直接支配是通过驯养,在千百年来改变了它们的性情之后,我们现在通过大略的措辞和动作就能指挥它们,即便是对猛兽的驯养,有时万一失落控也不会对人造成大的灾害。而我们对机器的支配则是通过各种程序和指令,如果一旦失落控,就有可能通盘皆输。就像一些学者所警告的,我们可能只有一次机会,如果处理不慎,智能机器就将是人类“末了的发明”。
人物关系的伦理紧张是考虑:在一种强对弱的地位上,我们该当若何善待动物等其他外物?而人机关系的伦理则紧张是考虑:虽然目前我们对它们还是处在强对弱的地位,但未来有可能强弱易位。在一种预期它们将会若何对待我们的根本上,我们要考虑我们现在该当怎么办?我们可以对它们做些什么?但一个很大的困境是:虽然目前我们对它们的态度有赖于未来它们对我们的态度,但正好是这一点我们很不清楚乃至可以说无法预期。
当然,我们虽然是考虑对智能机器的态度和规范,但我们所能采纳的行动实在还是首先要在人际关系中用力:人们须要提出各种问题和对策,须要相互说服和谈论,须要造成一种关注人工智能的各个方面的社会氛围,须要深入考虑人类整体的利益。
但这里可能还是会有一个“关键的少数”在关键的时候起最大的浸染。这个关键的少数包括:科学家和技能专家们,他们是在人工智能研发的第一线;出资研究人工智能项目的企业家、成本家们,他们每每可以决定研发的方向;政府的官员和首脑,他们决定或管理着人工智能的政策、法规,包括在某些时候须要作出决议确定;知识分子们,包括文学艺术家们,他们磋商人工智能的性子及其对人的各种可能影响和后果。大多数人可以也该当共享人工智能的成果,但他们或许只能“乐成”而无法“虑始”,对可能的“达摩克利斯之剑”也是如此。当年核武器的研发和利用并不是多数人投票决定的。
大概人们还是能够给智能机器建立一套安全可靠的代价不雅观念系统,但在真的找到一个停当妥善的办法之前,我们还是须要谨慎。最好先不要让机器太聪明、太繁芜、太自主,将智能机器的能力限定在纯挚打算或算法的领域,限定在工具和手段的领域。如果机器有自我意识和情绪,可能会以为这很不平等、很不公正,但为了人类的生存,这也是没有办法的。
人类本来也该当早就掌握自己。如果光阴倒流,人类或许该当更多地考虑人类精神文化能力包括控己能力的发展,而放慢人类控物能力的发展。我们已经吃惊于当代文明发展的力量和速率。
在前文明阶段的人类,是通过发展的缓慢来客不雅观上加长人类历史的。而农业文明阶段的传统社会,虽然发展的速率已经很快,但紧张是通过一种时空的循环来延长人类的历史。这种时空的循环有理论和不雅观念的支持,其实际的表现是:在韶光方面是王朝在同一地域的不断更迭,在空间方面则是文明帝国在不同地域的此起彼伏。但在人类进入工业文明之后,在进化论和平等主义的推动下,以及在世界环球化的背景下,一种对发展速率和力量的客不雅观掌握已不复存在。只管即便让智能机器小型化、专门化和尽可能的非暴力化,可能是我们目前的最佳选项。
近年的一部电影《我,机器人》,可以说对智能机器的通用化和暴力化提出了一个形象的警告。影片中,最新一代的机器人得到了超强能力之后又得到了自我意识,主控电脑开始对阿西莫夫的三规则有了自己的阐明,它以为自己能够比人类自身更好地判断人类的利益,于是发出了指令,让新版机器人去杀去世旧版机器人,并逼迫性地将人类禁锢起来,杀去世反抗者。电影里的一个警察主管不无讥讽地说:“我们将怀念过去的美好光阴:那时候只有人***。”
文章来源:《探索与争鸣》2018年第7期本文系作者个人观点,不代表本站立场,转载请注明出处!