欧盟人工智能高等专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG)在2019年4月8日正式发布了“可信赖的人工智能伦理准则”。

可托赖的人工智能伦理准则_体系_人工智能 计算机

该准则的目标是为了促进可信赖的人工智能。
可信赖的人工智能该当在系统的全体生命周期都知足以下三点:

合法性:遵守所有适用的法律法规;道德行:遵守道德原则和代价不雅观;稳健性:从技能和社会的角度来看,它该当是健全的。
由于纵然良好的出发点也可能导存问外的侵害。

根据基本的权利和道德原则,该准则列出了AI系统该当知足的7点关键哀求,以便被认为是可信赖的。

1、人类代理和监督(Human agency and oversight)

AI不应该践踏人类的自主性。
人们不应该被AI系统所操纵或胁迫,该当能够干预或监督软件所做的每一个决定。

2、技能稳健性和安全性(Technical Robustness and safety)

AI该当是安全而准确的,它不应该轻易受到外部攻击的毁坏,并且该当是相称可靠的。

3、隐私和数据管理(Privacy and data governance)

AI系统网络的个人数据该当是安全的,并且能够保护个人隐私。
它不应该被任何人访问,也不应该轻易被盗。

4、透明度(Transparency)

用于创建AI系统的数据和算法该当是可访问的,软件所做的决定该当“为人类所理解和追踪”。
换句话说,操作者该当能够阐明他们的AI系统所做的决定。

5、多样性、无歧视、公正(Diversity, nondiscrimination and fairness)

AI应向所有人供应做事,不分年事、性别、种族或其他特色,AI系统不应在这些方面有偏见。

6、环境和社会福祉(Societal and environmental wellbeing)

AI系统该当是可持续的(即它们该当对生态卖力),并能“促进积极的社会变革”。

7、问责制(Accountability)

AI系统该当是可审计的,并由现有的企业密告者保护机制覆盖。
系统的负面影相应事先得到承认和报告。

参考链接:https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines/1