人工智能的伦理问题与治理原则_人工智能_伦理
对人工智能伦理问题的磋商,既包括玄学的研究,也包括寻求办理实际的问题和求得社会共识的谈论。如何在人工智能这一全新的技能条件下创造伦理共识,对经济、社会和政治有着深远意义。目前,各国、各个行业组织、社会团体和人工智能领域的商业公司纷纭提出人工智能的伦理准则,对人工智能技能本身以及其运用进行规制。中国政府把人工智能作为家当升级和经济转型的紧张驱动力,鼓励、扶持和推动人工智能的发展。在我国推动人工智能发展的关键期间,开展人工智能伦理问题的磋商有极为主要的意义。在此背景下,本文关注人工智能所引发的短期与长期的伦理问题以及相应的管理对策,以期人工智能真正造福人类。
人工智能伦理问题与来源
在艺术作品中,不少人熟习弗兰肯斯坦的形象——一个在雷电中出身的人和机器结合的怪物。人们对这些强大却并不良善的力量,常日会感到恐怖。人工智能会不会和弗兰肯斯坦这个怪物一样呢?我们会不会创造一种技能末了毁灭了我们人类?包括埃隆·马斯克在内的一众技能领袖,公开提出了这个问题,这迅速引起了公众的把稳。在人工智能技能语境下,机器的自主性已经超出人之前所预期的范围,这当然哀求有新的任务体系的建构。
人工智能伦理在"大众年夜众谈论中最有名的雏形,来自科幻小说作者阿西莫夫提出的机器人三定律。本日我们知道,阿西莫夫机器人三定律并不能一劳永逸地建立对人工智能的合理约束,但它的真正代价是提出了一个可能性。这个可能性便是我们所创造的技能——在处理某些问题上比我们要迅速,在机器、物理力量上要比我们强的“自主”决策主体——不仅不会侵害人类,反而能够造福人类社会。三定律所要处理的核心问题是人的主体性问题,这也是磋商人工智能伦理和管理的核心问题。关于人工智能伦理和管理,无论是算法决策干系的问题、数据与隐私干系的问题和社会影响干系的问题,都关涉人的主体性问题。
从人工智能现有能力/技能潜力与它给人类社会带来的负面后果的角度来看,会产生两大类问题:1.人工智能被委以对人类事务做决策的能力,但它对决策结果的伦理判断能力不敷;2.人类缺少勾引人工智能发挥浸染的终极伦理准则。
第一类问题来自我们对人工智能系统对其决策结果的伦理意义缺少判断的忧虑。人工智能每每被用来办理一个详细问题,而且只能通过已有的有限数据来作出决策,每每无法像人一样理解更广的社会和伦理语境。故此,我们对人工智能缺少对决策后果的伦理意义的认知有恐怖,这是完备可以理解的。当人工智能决策的后果涉及一个结果和其余一个结果之间的比较时,每每造成难以预见的后果。例如,人可能给人工智能系统一个获取食品的指令,结果这个别系却杀去世了人的宠物。这是由于人工智能对某个结果的伦理意义无法完备理解,甚至于缺点地实行了指令。我们对人工智能对决策结果的伦理判断能力不敷的忧虑,在人工智能技能本身缺少透明度(黑箱问题)时就更加严重了。人工智能采纳的机器学习每每由于算法(例如机器学习)和算力限定的缘故原由,无法回溯机器作出决定的详细机制。无法回溯会带来我们在事先预测后果和事后作出纠正的能力的局限,导致我们在决定是否运用人工智能技能的问题上犹豫未定。
第二类问题来自我们对人工智能的潜力的忧虑。人工智能可能成为人类全部决定的参与和影响者,但我们尚且不知道没有任何已知的伦理准则能指引上述行为。人类创造的“上帝”无力照顾护士这个天下,这让我们恐怖震荡。我们担心随着人工智能的发展,它会导致已有的社会问题进一步恶化,同时可能带来新的社会问题。
从上述条件出发,笔者从目的、手段两个层面提出思考人工智能伦理(嵌入机器的伦理)的两个基本方向:技能必须促进人类的善(表示在人的根本利益原则);在越来加倍达的机器的自主性背景下确认人的主体性(表示在任务原则)。换言之,认识到新的技能本身的特色和它的潜在社会影响,我们看到人工智能伦理要强调:(1)人可以利用人工智能得到更大的能力(积善/侵害),因此有更大的任务,以是应该更加强调归责性;(2)人工智能则必须服从人类设定的伦理规则。这也是《人工智能标准化白皮书(2018)》中提出了人工智能设计和运用中应遵照的两个基本原则的基本依据。违反人的根本利益原则的人工智能,无论是用来敲诈顾客的营销算法、用于法律造成歧视部分公民的法律决策系统,还是对个人信息的过度网络和滥用,都违反人工智能伦理原则。
根据人工智能伦理风险的详细性子与特色,可从算法、数据和运用三个方面度来梳理人工智能的风险。对伦理风险的管理,须要立法和政策明确各干系主体的任务,包括信息供应者、信息处理者和系统折衷者。此外,人工智能还可能对社会产生远期发展的风险,如对既有的就业、市场竞争秩序、产权等法律制度的寻衅,乃至生产办法的根本变革,这些我们将其归入长期和间接的伦理风险之中。
算法方面
算法方面的风险紧张包括算法安全问题、算法可阐明性问题、算法歧视问题和算法决策困境问题。算法安全问题产生于算法漏洞被黑客攻击和恶意利用的寻衅,同时算法从设计、演习到利用中面临可信赖性问题和算法随时可用对可靠性带来寻衅。
算法可阐明性涉及人类的知情利益和主体地位,对人工智能的长远发展意义重大。***颁布《新一代人工智能发展方案》,同时,潘云鹤院士提到人工智能运用的一个须要关注的问题是算法的不可阐明性。算法可阐明性问题在国外也引起媒体和"大众的关注。例如,电气和电子工程师协会(IEEE)在2016年和2017年连续推出的《人工智能设计的伦理准则》白皮书,在多个部分都提出了对人工智能和自动化系统应有阐明能力的哀求。美国打算机协会美国公共政策委员会在2017年年初发布了《算法透明性和可问责性声明》,提出了七项基本原则,个中一项即为“阐明”,希望鼓励利用算法决策的系统和机构,对算法的过程和特定的决策供应阐明。2017年,美国加州大学伯克利分校发布了《对人工智能系统寻衅的伯克利不雅观点》,从人工智能的发展趋势出发,总结了九项寻衅和研究方向。个中之一,即第三项,便是要发展可阐明的决策,使人们可以识别人工智能算法输入的哪些特性引起了某个特定的输出结果。
与可阐明性问题常常同时涌现的是算法歧视问题,即在看似中立的算法中,由于算法的设计者的认知存在某种偏见,或者演习算法利用了有问题的数据集等缘故原由,带来了人工智能系统决策涌现带有歧视性的结果。这类例子媒体时有宣布,例如在金融领域“降落弱势群体的信贷得分”、“谢绝向‘有色人种’贷款”、“广告商更方向于将高息贷款信息向低收入群体展示”等。
算法歧视紧张分为“人为造成的歧视”“数据驱动的歧视”与“机器自我学习造成的歧视”三类。人为造成的歧视,是指由于人为缘故原由而使算法将歧视或偏见引入决策过程中。数据驱动造成的歧视,是指由于原始演习数据存在偏见性,而导致算法实行时将歧视带入决策过程中。算法本身不会质疑其所吸收到的数据,只是纯挚地探求、挖掘数据背后隐含的模式或者构造。如果数据一开始就存在某种选择上的偏见或喜好,那么算法会得到类似于人类偏见的输出结果。机器自我学习造成的歧视,是指机器在学习的过程中会自我学习到数据的多维不同特色,即便不是人为地授予数据集某些特色,或者程序员或科学家刻意避免输入一些敏感的数据,但是机器在自我学习的过程中,仍旧会学习到输入数据的其它特色,从而将某些偏见引入到决策过程中,这便是机器自我学习造成的歧视。
算法决策困境源于人工智能自学习能力导致的算法结果的不可预见性。为此要减少或杜绝算法决策困境,除了提高算法的可阐明性,还可以引入相应的算法闭幕机制。
数据方面
数据方面的风险紧张包括陵犯隐私的风险和个人敏感信息识别与保护的风险。在当代社会,隐私保护是信赖和个人自由的根本,同时也是人工智能时期坚持文明与肃静的基本办法。人工智能时期下陵犯隐私的风险更大,受害者也更多。
传统法律规范对隐私的保护集中于对个人在私人领域、私人空间活动的保护,以及个人私密的、非公开的信息保护。在个人信息的根本之上,法律规范区分普通个人信息和个人敏感信息。法律常日对个人敏感信息予以更高的保护,例如对个人敏感信息的处理须要基于个人信息主体的昭示赞许,或重大合法利益或公共利益的须要等,严格限定对个人敏感信息的自动化处理,并哀求对其进行加密存储或采纳更为严格的访问掌握等安全保护方法。个人敏感信息在授权赞许范围外扩散,或者个人信息的扩散超出网络、利用个人信息的组织和机构掌握范围,以及利用者超出授权利用(如变更处理目的、扩大处理范围等),都可能对个人信息主体权柄带来重大风险。
人工智能技能的运用极大地扩展了个人信息网络的场景、范围和数量。图像识别、语音识别、语义理解等人工智能技能实现海量非构造化数据的采集,而人工智能与物联网设备的结合丰富了线下数据采集的场景。例如,家用机器人、智能冰箱、智能音箱等各种智能家居设备走进人们的客厅、寝室,实时地网络人们的生活习气、消费偏好、语音交互、***影像等信息;各种智能助手在为用户供应更加便捷做事的同时,也在全方位地获取和剖析用户的浏览、搜索、位置、行程、邮件、语音交互等信息;支持面部识别的监控摄像头,可以在公开场合且个人绝不知情的情形下,识别个人身份并实现对个人的持续跟踪。这些都须要法律进一步地规范。
社会方面
与社会干系的伦理问题紧张包括算法滥用和误用。算法滥用和误用是指人们利用算法进行剖析、决策、折衷、组织等一系列活动中,其利用目的、利用办法、利用范围等涌现偏差并引发不良影响或不利后果的情形。例如,人脸识别算法能够提高治安水平、加快创造犯罪嫌疑人的速率等,但是如果把人脸识别算法运用于创造潜在犯罪人或者根据脸型判别某人是否存在犯罪潜质,就属于范例的算法滥用。由于人工智能系统的自动化属性,算法滥用将放大算法所产生的缺点效果,并不断强化成为一个别系的主要特色。
算法滥用紧张由算法设计者出于经济利益或者其他动机的操纵行为、平台和利用者过度依赖算法、将算法的运用盲目拓展到算法设计未曾考虑的领域等。电商平台算法设计者推举不符合用户利益的产品,或者娱乐平台为了自身的商业利益对用户的娱乐或信息消费行为进行勾引、导致用户沉迷等,都是算法设计者操纵行为的展现。在医疗领域过度依赖人工智能平台的读图诊断,导致误诊,以及在安防领域和犯罪误判导致的问题,都直接关系到公民的人身安全与自由。
应该把稳的是,与社会干系的伦理问题有如下特性:其一,它们与个人切身利益密切干系,如算法运用在犯罪评估、信用贷款、雇佣评估等关怀人身利益的场合,对个人切身利益的影响广泛。其二,它们带来的问题常日难以短韶光应对,例如深度学习是一个范例的“黑箱”算法,如果深度学习为根本建立的模型存在歧视,应对时难以查清缘故原由。其三,在商业运用中涌现这类问题时,由于成本的逐利性,"大众年夜众权柄随意马虎受到侵害。
人工智能管理原则与实践
人工智能技能的特质及其伦理寻衅,给社会的管理带来了问题。传统上,管理所预设能够遵照规则的主体(Agent),也便是人本身。本日我们认识到人工智能的特色在于其高度的自主性,即其决策不再须要操控者进一步的指令,考虑到这种决策可能会产生人类预见不到的结果,人工智能技能的设计者和运用者必须在人工智能技能研发、运用的各个环节贯彻伦理原则,以实现对人工智能的有效管理。
在传统技能领域,常见的防止危害的办法是在造成侵害之后进行干预。但是,等待人工智能系统造成侵害之时才考虑干预,很多时候为时已晚。一个更好的方法是将即时和持续的伦理风险评估和合规体系培植作为系统运行的一个组成部分,即时和持续评估人工智能系统是否存在伦理风险、并在危害产生之前以及危害不大的时候就通过合规体系进行处理。即时和持续的风险评估对付人工智能系统的保障要比按下“紧急按钮”要有效得多。
故此,我们在谈论人工智能管理应遵照的思路和逻辑时,必须警觉行业自律的有限性和立法的滞后性。如阿西莫夫等科技伦理的思想者所意识到的,必须将伦理在技能层面就进行明确,才能担保管理的有效性。构建人工智能的伦理标准是管理不可或缺的一壁。此外,根据法律和政策本身的特色来制订法律、完善政策、设立牵制机构,也是管理必须实行的方法。
国内外人工智能管理方面的探索值得我们关注和借鉴。例如,欧盟通过对机器人规制表示了依据人工智能伦理来设计管理体系的前沿探索。美国于2016年出台的计策文件就提出要理解并办理人工智能的伦理、法律和社会影响。英国政府曾在其发布的多份人工智能报告中提出应对人工智能的法律、伦理和社会影响,最为范例的是英国议会于2018年4月发出的长达180页的报告《英国人工智能发展的操持、能力与志向》。
联合国于2017年9月发布《机器人伦理报告》,建议制订国家和国际层面的伦理准则。电气和电子工程师协会(Institute of Electrical and Electronics Engineers,IEEE)于2016年启动“关于自主/智能系统伦理的环球倡议”,并开始组织人工智能设计的伦理准则。在未来生命研究所(future of life institute,FLI)主持下,近4000名各界专家签署支持23条人工智能基本原则。
我国也在这个方面开展了探索与实践。2017年发布的《新一代人工智能发展方案》提出了中国的人工智能计策,制订促进人工智能发展的法律法规和伦理规范作为主要的担保方法被提了出来。2018年1月18日,在国家人工智能标准化总体组、专家咨询组的成立大会上发布了《人工智能标准化白皮书(2018)》。白皮书论述了人工智能的安全、伦理和隐私问题,认为设定人工智能技能的伦理哀求,要依托于社会和公众年夜众对人工智能伦理的深入思考和广泛共识,并遵照一些共识原则。
人工智能技能的开拓和运用深刻地改变着人类的生活,不可避免地会冲击现有的伦理与社会秩序,引发一系列问题。这些问题可能表现为直不雅观的短期风险,如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制订等,也可能相对间接和长期,如对产权、竞争、就业乃至社会构造的影响。只管短期风险更详细可感,但长期风险所带来的社会影响更为广泛而深远,同样应予重视。
人工智能技能的日月牙异与管理体系相对稳定性之间不可避免地存在抵牾,这须要我们明确应对人工智能的基本原则。在国际范围内比较,人工智能伦理基本原则以2017年1月在阿西洛马召开的“有益的人工智能”(Beneficial AI)会议提出的“阿西洛马人工智能原则”(Asilomar AI Principles),以及电气和电子工程师协会(IEEE)组织开展的人工智能伦理标准的事情受到了最多的关注。此前,各国也提出了机器人原则与伦理标准。作者认为,我国人工智能的研究和运用应遵照两个人工智能伦理基本原则,即人的根本利益原则和任务原则。
人的根本利益原则
人的根本利益原则,即人工智能应以实现人的根本利益为终极目标。这一原则表示对人权的尊重、对人类和自然环境利益最大化以及降落技能风险和对社会的负面影响。人的根本利益原则哀求:
(1)在对社会的影响方面,人工智能的研发与运用以促进人类向善为目的(AIforgood),这也包括和平利用人工智能及干系技能,避免致命性人工智能武器的武备竞赛。
(2)在人工智能算法方面,人工智能的研发与运用应符合人的肃静,保障人的基本权利与自由;确保算法决策的透明性,确保算法设定避免歧视;推动人工智能的效益在世界范围内公正分配,缩小数字鸿沟。
(3)在数据利用方面,人工智能的研发与运用要关注隐私保护,加强个人数据的掌握,防止数据滥用。
任务原则
任务原则,即在人工智能干系的技能开拓和运用两方面都建立明确的任务体系,以便在人工智能运用结果导致人类伦理或法律的冲突问题时,人们能够从技能层面对人工智能技能开拓职员或设计部门问责,并在人工智能运用层面建立合理的任务体系。在任务原则下,在人工智能技能开拓方面应遵照透明度原则;在人工智能技能运用方面则应该遵照权责同等原则。
透明度原则
透明度原则哀求人工智能的设计中,担保人类理解自主决策系统的事情事理,从而预测其输出结果,即人类应该知道人工智能如何以及为何做出特定决定。透明度原则的实现有赖于人工智能算法的可阐明性(explicability)、可验证性(verifiability)和可预测性(predictability)。
权责同等原则
权责同等原则,是指在人工智能的设计和运用中应该担保问责的实现,这包括:在人工智能的设计和利用中留存干系的算法、数据和决策的准确记录,以便在产生危害结果时能够进行审查并查明任务归属。权责同等原则的实现须要建立人工智能算法的公共审查制度。公共审查能提高干系政府、科研和商业机构采纳的人工智能算法被纠错的可能性。合理的公共审查能够担保一方面必要的商业数据应被合理记录、相应算法应受到监督、商业运用应受到合理审查,另一方面商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的利益。
应该明确,我们所说的人工智能伦理原则,不仅应该由人工智能系统的研发和运用 的人类主体遵守(包括在研究机构、行业领域的科技企业和科技事情者),而且这些原则应该嵌入人工智能系统本身。机器如何遵照伦理规则这一点,有人仍有质疑。范例的意见是,伦理规则只是给人的,没有可能给人工智能系统(包括机器人)设定伦理规则。的确,传统上伦理原则所针对的是能够遵照这些原则的主体(Agent)也便是人本身。但是,考虑到人工智能的特色在于机器对人的智能的“仿照、延伸和扩展”,即其决策 不须要操控者一步步的指令,同时这种决策可能会产生人类预见不到的结果,人工智能系统也应该受到伦理规则的规制。
结论
社会必须信赖人工智能技能能够给人带来的利益大于侵害,才有可能支持连续发展人工智能。而这种信赖,须要我们认识和磋商人工智能领域的伦理和管理问题,并且在发展人工智能技能发展的早期就故意识地加以利用。本日学者、科技事情者和社会已经有基本共识,便是卖力人工智能系统的研发和运用的人类主体,包括在研究机构、行业领域的科技企业和科技事情者,应该服从一些基本的伦理原则。本文提出的两个基本伦理原则,是海内涵这方面思考的总结和升华。除了人工智能的基本伦理原则,古人给我们的另一个启示是人工智能伦理该当嵌入系统本身。当我们越来越依赖于机器人代替我们作出决策时,我们应该在这个决策过程中嵌入伦理思考,而不是等待决策结果已经给我们带来负面影响之后再去纠正。
本文希望用一种更复苏的眼力去看待人工智能伦理和管理问题。学者和"大众年夜众须要一起磋商:我们有没有可能防止人工智能给个人和社会带来的危害?只有在这个问题得到更深入的思考和妥善办理的时候,人工智能的发展才有真正的根本。
转自丨法理杂志
作者丨郭锐
研究所简介
国际技能经济研究所(IITE)成立于1985年11月,是从属于***发展研究中央的非营利性研究机构,紧张职能是研究我国经济、科技社会发展中的重大政策性、计策性、前瞻性问题,跟踪和剖析天下科技、经济发展态势,为中心和有关部委供应决策咨询做事。“环球技能舆图”为国际技能经济研究所官方微信账号,致力于向"大众年夜众通报前沿技能资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
本文系作者个人观点,不代表本站立场,转载请注明出处!