郭锐:人工智能伦理风险治理依然是世纪难题|AI抗疫的乐不雅观与理性_人工智能_风险
郭锐|中国公民大学法学院副教授,未来法治研究院研究员,社会任务和管理研究中央主任,研究包括公法律、金融法、人权法、人工智能伦理与管理等,担当全国信息技能标准化技能委员会人工智能分技能委员会委员、全国标准化委员会人工智能总体组社会伦理研究卖力人,参与了中国第一个以人工智能标准化为主题的白皮书(《人工智能标准化白皮书(2018)》)的写作并撰写“安全、隐私和伦理”部分,并主持撰写了国家标准委人工智能总体组《人工智能伦理风险研究》报告 (2019年5月发布)。
悛改冠肺炎疫情发生以来,海内数家人工智能企业将最前辈的技能运用于抗疫,多人体温快速检测、智能康健问答、肺部图像剖析、基于人工智能的防疫方案等技能办理方案纷纭呈现。
个中,"大众年夜众对人工智能驱动的康健登记最有体会。在杭州等城市,居民持有经由康健登记的二维码出入小区、公共场所,康健状态根据个人行动轨迹、打仗人群自动更新。
在国际上,不少国家也将最新的人工智能技能用于疫情防控。韩国政府抗疫的履历是大规模检测、追踪和隔离冠状病毒患者,个中追踪患者所依赖的便是通过人工智能系统对监控录像、智好手机的位置数据和信用卡消费记录的数据处理找出患者的活动地点并确立病毒传播链。意大利伦巴第当局则通过人工智能系统剖析市民手机传送的位置数据和他们每天常日行走的间隔来确定有多少人遵守政府的封锁令。以色列政府基于人工智能系统利用手机位置数据的缓存来精确探求可能的冠状病毒患者。
在为新技能助力防控疫情绪到欣喜的同时,我们必须关注人工智能可能的伦理风险。这里所说的伦理风险,不限于因技能尚不完善导致的负面后果,而是与技能本身的特色和它可能产生的深远影响干系。[1] 人们常见的担心是,政府在防控疫情的名义之下利用了人工智能系统来阻挡病毒传播,可能会带来隐私信息泄露、更多确当局滥权等结果。
但是,对人工智能伦理的反思不限于直接的风险。如果是技能尚不完善,其负面后果还可以通过完善技能加以办理;如果是因人工智能技能本身的特色带来的伦理问题,则须要更深入的磋商。
人工智能的伦理风险管理是世纪难题比较以往的技能,人工智能技能的独特之处就在于它的自主性。这种自主性或来自技能本身,或来自运用的过程中社会授予它的角色。换言之,人工智能可能超越传统意义上的工具属性,也可能“参与”人的决策。此处说的参与“决策”,并不限于让人工智能直接进行决策,也包括它的运用对人们的不雅观念、行为与相应的社会关系的改变。
20世纪主要的思想家之一、法国哲学家米歇尔·福柯(MichelFoucault)认为,技能不仅仅是工具,或者不仅仅是达到目的的手段。福柯强调了作为“工具”的技能和参与“决策”的技能之间的区分。“全景敞视监狱”(或称圆形监狱)的设计,不仅仅是供应了一种监视办法而已,而是深刻地改变了监视者和被监视者的生理认知,故此也改变了社会关系。
在另一位法国哲学家雅克•埃吕尔(Jacques Ellul)的眼中,技能参与人的决策最直接的表现是它对效率的追求。埃吕尔提出在当代技能已经成为一个别系:技能不再是工具或机器而已,在15世纪到19世纪的工业、政治、科学、科技革命之后,技能已经弥漫在当代思想、生活的每个层面,让统统都能被丈量、提升和商品化。[2]
上述剖析思路,在人工智能技能的语境下尤其值得借鉴。实际上,这也是人工智能的伦理风险得到环球各国关注的缘由。2019年,环球各国达成一项基本共识,便是将人工智能的负面影响视为伦理风险。中国在2019年发布了《人工智能伦理风险剖析报告》,在这一国际谈论中做出了贡献。
从伦理风险的角度来应对人工智能给社会带来的寻衅,使人工智能产生的负面后果可以在严格的风险管理系统中进行识别、预防和管理。这意味着在人工智能系统的研发和运用生态中各个主体,包括研究机构、行业领域的科技企业和科技事情者都承担相应的风险管理角色并且各负其责、共同协作。对社会而言,当可能的负面后果能够防控,社会才能对人工智能产生信赖。人工智能的伦理风险管理,绝不夸年夜地说,已是一个亟待求解的世纪难题。
人类对风险认知的非理性和局限性应该看到,风险管理的提出固然为掌握人工智能的负面后果指明了方向,我们还必须把稳潜在于个中的某种乐不雅观的、进化论式的科学主义的认知局限。当代社会较之前传统社会面临的风险大大增加了,一定程度上源自于科学主义方向。以贝克、吉登斯、拉什为代表的风险社会理论家看到,当代社会的风险有别于传统社会局部性、个体性、自然性的外部风险,呈现出环球性、社会性、人为性等构造性特色。高度的当代化每每带来高度的风险性。
文化人类学家玛丽•道格拉斯警告,应对风险等主流方法的内在局限也在于其科学主义方向:风险被看作是客不雅观的、可打算、进而可预防的,而文化成分被排斥在风险研究之外。应该看到,在当代社会某些风险被人们广泛认知和重视,而其他的风险却被忽略。当当代社会以科学、理性的名义对风险进行选择与排序时,上述基本事实并未改变。
换言之,当代社会的风险的认知有其强烈的、未被承认的主不雅观性。这种主不雅观性表示在行为经济学家所看到的社会对风险认知的非理性,如美国孙斯坦教授在《风险与理性》中所批评的。[3] 但更深层次的主不雅观性,则是我们的“理性”的局限:无论作为个体还是社会,人的偏见无处不在、无法避免,这一定导致对人们赖以评估风险的所谓理性体系的质疑。
如华东师范大学社会发展学院人类学研究所黄剑波教授所言:“限于不雅观察力、感情动机或者信息不透明,人们不可能洞察所有风险,更加不可能将所有备选决策和结果逐一列出。因此,没有人能够认识所有的风险,人们仅仅能够根据所知的根本来选择风险和安全,对风险的认识险些将一定落入片面狭小的空间中。”[4]
对风险的主不雅观性的承认,并非风险管理的“阿喀琉斯之踵”。正好相反,这种承认可以帮助我们深化对技能产生的风险的认知。玛丽•道格拉斯的洞见是,风险根植于人的不雅观念天下中,表达的是社会对危险的集体信念与代价。当一种风险产生,我们可以去追溯的除了技能、经济等缘由,更应该深入到它所反响的伦理秩序的危急中。
人类恐怖的是人工智能对创造秩序的颠覆对人工智能而言,这种危急或容许以称为“创造秩序危急”。大部分人对磋商人工智能伦理的必要性的认知,来自对机器智能这一未知事物的恐怖。
在艺术史上,反响这一恐怖最著名的形象是“弗兰肯斯坦”(英国作家玛丽·雪莱长篇小说主角)——一个在雷电中出身的人和机器结合的怪物。对这些强大却并不良善的力量,社会本能地感到恐怖,由于我们害怕我们所创造的终极带给我们毁灭。人工智能会不会和“弗兰肯斯坦”一样危及作为技能创造者的人类?改变这一创造秩序,将完备颠覆人所能想象的社会秩序,这是人们感知到风险的根本缘由。
站在一场技能革命的入口处,人类所恐怖的是秩序的颠覆:伊甸园中的亚当和夏娃被妖怪描述的分辨善恶树的果子所诱惑,上帝的创造秩序因此被颠覆。如果说人类对人工智能的恐怖不是由于机器做出某个不利于人的决策,而是机器代替人决策这件事情本身,那么我们也容许以看到人工智能伦理最深层的问题是对创造秩序的颠覆:人类面对被自己创造的技能反噬的可能性。
换言之,人们将人工智能的负面后果看作是风险,本身表示了我们对天下的应然性的想象可能遭遇的挫败。
面对一个被自己创造的技能颠覆的可能性,人类不得不重新面对一系列的问题。当我们思考对人工智能伦理风险的管理,必须谨慎对待技能对个人自我认知、人际关系、政治秩序的改变。我们要特殊关注人工智能技能在运用中潜藏的“大略化”的进路。
有了人工智能技能,商业和公共决策者彷佛可以将社会以一种更为清晰的办法呈现在面前:人们的偏好可以用大数据描述,众人的选择可以越来越精准地预测。但这种清晰化的预测每每难以避开算法设计中的缺点、轻忽和歪曲以及数据记录、统计中不同程度的不准确和缺失落。昔时夜数据为公共决策供应了广阔的样本依托时,社会生活中的人也逐渐被简化为统计学意义上的“人”,其主体性在无限的样本容量下被不断削弱,这为某些算法的滥用、算法歧视的产生铺平了道路。
人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德毛病,受制于人们利用的目标和评估体系。对人工智能的利用故此少不了对人性和社会本身的核阅——谁在利用,为了什么而利用,在我们的天下中扮演着若何的角色?数据是谁给的,演习的目标是谁定的?我们期望中的人工智能决策会与我们自己的善恶选择同等吗?
人工智能抗疫须当心伦理风险抗疫事关重大,运用于个中的人工智能技能固然并不完美,但我国民众对此表现出巨大的宽容。媒体宣布多起居民碰着康健码出问题的事宜,个中受影响的居民总是耐心地等待和合营。在新加坡、韩国、以色列和欧美一些国家,在抗疫期间对隐私信息的获取总体上也得到了民众的支持。
但是,应该看到,人工智能技能本身带来的伦理风险仍在。这个中既有直不雅观的短期风险,如隐私信息的保护问题、算法存在安全隐患、算法偏见导致歧视性政策等,也有相对间接的长期风险,如人工智能对个人隐私、产权、竞争、就业乃至社会构造的影响。只管短期风险更详细可感,但长期风险所带来的社会影响更为广泛而深远,同样应予重视。[5]
在抗疫紧急状态结束之后,人类仍旧必须面对这一世纪难题。
参考文献:
[1] 关于人工智能伦理风险的干系内容,拜会《人工智能伦理风险报告》(国家标准委人工智能总体组,2019年5月), 中国电子技能标准化研究院网站,http://www.cesi.cn/201904/5036.html。
[2] Ellul, Jacques. The Technological Society. New York: Knopf,1967.
[3] 孙斯坦:《风险与理性》,中国政法大学出版社,2005年。
[4] 黄剑波、熊畅:《玛丽·道格拉斯的风险研究及其理论脉络》,《思想战线》2019年第4期。
[5] 更多的谈论,见《人工智能伦理风险报告》,前注1。
文|郭锐
欢迎亲爱的读者和朋友
订阅2020年《可持续发展经济导刊》
每期30元,整年12期共360元
1、电话订阅
联系人:王影 电话:010-62116819 13801241296
收款人:《可持续发展经济导刊》杂志社开户银行:中信银行中关村落支行银行账号:7111210182600071438
2、通过邮局订阅,本刊海内邮发代号为82-520
3、长按识别下方二维码,订阅电子期刊
本文系作者个人观点,不代表本站立场,转载请注明出处!