可托赖的人工智能伦理准则_体系_人工智能
欧盟人工智能高等专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG)在2019年4月8日正式发布了“可信赖的人工智能伦理准则”。
该准则的目标是为了促进可信赖的人工智能。可信赖的人工智能该当在系统的全体生命周期都知足以下三点:
合法性:遵守所有适用的法律法规;道德行:遵守道德原则和代价不雅观;稳健性:从技能和社会的角度来看,它该当是健全的。由于纵然良好的出发点也可能导存问外的侵害。根据基本的权利和道德原则,该准则列出了AI系统该当知足的7点关键哀求,以便被认为是可信赖的。
1、人类代理和监督(Human agency and oversight)
AI不应该践踏人类的自主性。人们不应该被AI系统所操纵或胁迫,该当能够干预或监督软件所做的每一个决定。
2、技能稳健性和安全性(Technical Robustness and safety)AI该当是安全而准确的,它不应该轻易受到外部攻击的毁坏,并且该当是相称可靠的。
3、隐私和数据管理(Privacy and data governance)AI系统网络的个人数据该当是安全的,并且能够保护个人隐私。它不应该被任何人访问,也不应该轻易被盗。
4、透明度(Transparency)用于创建AI系统的数据和算法该当是可访问的,软件所做的决定该当“为人类所理解和追踪”。换句话说,操作者该当能够阐明他们的AI系统所做的决定。
5、多样性、无歧视、公正(Diversity, nondiscrimination and fairness)AI应向所有人供应做事,不分年事、性别、种族或其他特色,AI系统不应在这些方面有偏见。
6、环境和社会福祉(Societal and environmental wellbeing)AI系统该当是可持续的(即它们该当对生态卖力),并能“促进积极的社会变革”。
7、问责制(Accountability)AI系统该当是可审计的,并由现有的企业密告者保护机制覆盖。系统的负面影相应事先得到承认和报告。
参考链接:https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines/1
本文系作者个人观点,不代表本站立场,转载请注明出处!