1月5日,全国信息安全标准化技能委员会(以下简称“信安标委”)正式发布《网络安全标准实践指南—人工智能伦理安全风险戒备指引》(以下简称“指引”)。

若何戒备AI作恶?专家解读人工智能伦理安然风险戒备指引_人工智能_风险 文字写作

多位参与体例事情的专家见告南都,指引的出台,正是为了勾引社会各方充分认识干系风险,确保人工智能安全可控地发展。

提出风险戒备基本哀求

指引将人工智能伦理安全风险总结为失落控性风险、社会性风险、侵权性风险、歧视性风险及任务性风险。

“现在大家都在谈论人工智能的风险,但到底存在哪些风险?这个问题的答案实在没有那么清晰。
因此,指引总结了五类风险,基本涵盖了当前有关人工智能的最主要的事变。
”参与了指引体例的电子科技大学公共管理学院副教授贾开对南都说。

按照指引的描述,失落控性风险,是指人工智能的行为与影响超出干系组织或个人预设、理解、可控的范围,对社会代价等方面产生负面影响的风险。

社会性风险,是指人工智能利用不合理,包括滥用、误用等,对社会代价等方面产生负面影响的风险。

侵权性风险,是指人工智能对人的人身、隐私、财产等基本权利造成侵害或产生负面影响的风险。

歧视性风险,是指人工智能对人类特定群体的主不雅观或客不雅观偏见影响公正公道,造成权利侵害或负面影响的风险。

任务性风险,是指人工智能干系各方行为失落当、任务界定不清,对社会信赖、社会代价等方面产生负面影响。

结合上述风险,指引提出了六条风险戒备的基本哀求,包括符合中国社会代价不雅观、遵守法律法规、以推动可持续发展为目标,等等。

指引提出的风险戒备基本哀求。

值得把稳的是,基本哀求强调,“应尊重并保护个人基本权利,包括人身、隐私、财产等权利,特殊关注保护弱势群体”。

当前,弱势群体遭受“算法歧视”的案例习认为常。
据媒体宣布,美国科技公司Kronos曾供应智能筛选做事,借助“个性测试”淘汰得过生理疾病的人;亚马逊也曾利用人工智能系统筛选简历,结果因演习数据偏差涌现“重男轻女”,项目团队终极终结。

“技能对人的负面影响,特殊随意马虎在弱势群体身上放大。
而弱势群体每每缺少相应的反馈渠道,他们的利益受到侵害后,更不随意马虎被创造。
”参与了指引体例事情的中国公民大学法学院副教授、未来法治研究院研究员郭锐见告南都,指引提出这一基本哀求,是希望引起各方对弱势群体的重视,关注他们的权柄保障。

强调有法可依与用户选择权

除了明确风险戒备的基本哀求,指引还将人工智能活动归纳为“研究开拓”“设计制造”“支配运用”和“用户利用”四类,就每一类活动的风险戒备提出针对性建议。

据南都梳理,这些建议紧张环绕人工智能的可阐明性、可靠性、透明度、恶意运用、事件应急处置、风险救援等方面展开。

“与汽车、家具之类的商品不同,人工智能系统较为繁芜,每每涉及到全链条的研究、产品和做事。
以是指引把人工智能活动分为四类,希望把利益干系方都纳入进来。
”贾开见告南都,指引试图为各种活动主体供应可操作、可落地的辅导规范,因此也特殊考虑到了不同主体的独特性。

他以事件应急处置为例阐明说,针对研究开拓者,指引的哀求是记录关键决策并建立回溯机制,进行必要的预警、沟通、回应。
这是为了给科研事情留出一定自由度,平衡风险戒备与创新发展。
而针对设计制造者和支配运用者,指引的哀求则更加严格,包括设置人工紧急干预机制、确保及时相应等。

整体而言,指引对支配运用者提出了更多哀求。
贾开认为,这是由于支配运用者更加多元、分散性更强,且直接面向用户。
不同规模、性子的组织或个人,其风险戒备能力也有差别,以是指引做了更加细致的规定。

南都梳理发现,指引回应了"大众反响强烈的诸多问题。
以频繁引发争议的逼迫利用为例,指引提出,支配运用者应向用户供应能够谢绝或停滞利用人工智能干系系统、产品或做事的机制;在用户谢绝或停滞利用后,应尽可能为用户供应非人工智能的替代选择方案。

指引还建议支配运用者向用户供应投诉、质疑与反馈机制,并供应包含人工做事在内的相应机制,进行处理和必要补偿。

值得把稳的是,与11月公布的搜聚见地稿比较,指引在支配运用方面新增了一条表述:利用人工智能作为直接决策依据并影响个人权利时,应具有清晰、明确、可查的法律法规等依据的哀求。

郭锐表示,许多人工智能运用都会对个人权利产生重大影响,但当前的一些运用并没有明确的法律依据。
指引增加这一表述,是希望提醒各种组织和个人遵照“有法可依”的原则,防止侵害个人权利。

须要指出的是,指引并非国家标准,也不具备逼迫力。
它所属的 《网络安全标准实践指南》是由信安标委发布的标准干系技能文件,旨在宣扬网络安全干系标准及知识,供应标准化实践指引。
这意味着,指引更多承担着方向勾引和代价取舍参考的浸染。

郭锐认为,指引虽然不具备和法律规定类似的逼迫力,但可以发挥法律难以企及的浸染。
“指引能够让研究开拓者、设计制造者和支配运用者尽早认识到风险的存在,及时回应、管理风险,从而达到降落风险的结果。
”他指出。

贾开则认为,人工智能的管理须要一套体系,指引可以作为体系的一部分。
在法律和标准尚未成熟之前,指引的紧张浸染是引起社会各方的重视,并明确哪些可以做、哪些该当做。
“虽然指引并不是逼迫哀求,但人工智能的安全发展不仅是一个业务合规问题,也涉及到企业的长远发展。
以是我认为,负任务的企业都会乐意参与进来。

文/南都人工智能伦理课题组研究员 冯群星