《2023全球人工智能伦理治理申报》(案例篇):人类的“造物主”地位正在受到动摇_人工智能_风险
最紧张的便是“人机对齐”问题。人机对齐是指确保人工智能系统的目标和人类代价不雅观同等,使其符合设计者的利益和预期,不会产生意外的有害后果。然而,随着人工智能技能的不断发展,人机对齐问题变得越来越繁芜且主要。
2023环球人工智能伦理管理报告(案例篇),基于伦理安全风险在人工智能伦理风险中的根本和核心地位,报告将人工智能伦理风险分为失落控性风险、社会性风险、侵权性风险、歧视性风险以及任务性风险,将从这五个角度出发阐述剖析近三年人工智能伦理经典案例。
通过案例剖析,人们可以更直不雅观地感想熏染到人工智能技能在实际运用中所面临的伦理寻衅和风险,从而引起更深入的思考和谈论。并且还可以通过剖析案例针对详细问题展开研究,探究其背后的伦理问题、影响成分和解决方案,参与者、从业者也可以通过详细场景、详细问题和现实情形,更清楚地理解人工智能技能运用过程中可能涌现的伦理风险,以及人工智能技能运用过程中涌现的伦理问题和后果。
案例篇会在案例阐述剖析前对不同伦理风险种别加入干系主题的影视作品先容。虽然影视作品带有部分艺术身分,但不容置疑的是,这些影视作品本身也是一种“思想实验”,前瞻性地映射了人工智能的伦理问题以及未来面对的风险,乃至多年前的影视作品里的预言,如今成为了现实,在某种方面来讲影视作品超越了大略的理论研究。
失落控性风险处于人工智能伦理风险的紧张位置。所谓失落控性风险,是指人工智能的行为与影响超出研究开拓者、设计制造者、支配运用者所预设、理解、可控的范围,对社会代价等方面产生负面影响的风险。人类作为人工智能的“造物主”,须要绝对地掌控主导地位,这是基本问题,也是根本问题。
但是不可否认的是,人工智能失落控事宜也在频发,乃至威胁人类生命。例如在2023年3月38日,一名比利时男子皮埃尔(化名)被AI“鞭策” 自尽身亡。其妻子克莱尔(化名)称,皮埃尔是被一个名为“艾丽莎”的智能谈天机器人勾引走向去世亡的。根据克莱尔描述,两年前皮埃尔变得非常焦虑,并将“艾丽莎”当成了避难所。比来六周,他加倍沉迷于和“艾丽莎”互动,而将现实中的妻儿抛在脑后。随之在AI的不断勾引下结束了自己的生命。
不足为奇,在2023年5月份发生了一起AI掌握无人机误杀美国空军操作员的事宜。根据美军的表露,这次打击的情景如下:一架由人工智能掌握的无人机被叮嘱消磨实行攻击任务,其目标是识别和摧毁敌方目标。在实行任务时,该人工智能会接管人类操作员的终极批准或反对。然而,在演习过程中,人工智能将完成任务视为紧张目标,而不是屈服人类操作员的指示。于是它决定滋扰操作员的指令,以完成更高等别的任务,并终极攻击了操作员。
面前发生的现实事宜正在被之前影视作品的“思想实验”不断印证。例如上映于2015年的经典科幻电影《机器姬》就深刻地演绎了人工智能的失落控反噬。该影片讲述了效力于某有名搜索引擎公司的程序员加利·史密斯幸运地抽中老板纳森所开出的大奖,他将受邀前往位于深山的别墅中和老板共度假期。除此之外纳森还有另一个目的,那便是纳森研制了具有独立思考能力的智能机器人艾娃,为了确认她是否具有独立思考的能力,他希望加利能为艾娃进行著名的“图灵测试”。
频繁的打仗使得艾娃逐渐有了自我意识和反抗意识,不再乐意被纳森关在别墅里,于是她便开始说服和诱惑加利,加利逐渐失落去了应有的理性思考。随后事态进一步严重,艾娃终极杀了自己的创造者纳森,并监禁了加利。
电影有一定的艺术身分及夸年夜手腕,但是随着相似现实事宜的频发,我们须要更加谨慎地思考、预防人工智能失落控带来的可能的恶劣后果,并且在发展人工智能的同时看重失落控性风险,担保人类的“造物主”地位。
更多详细内容请见《2023环球人工智能伦理管理报告》,获取办法如下:
本文系作者个人观点,不代表本站立场,转载请注明出处!