九个月前,我很荣幸当选为唯一的非欧洲专家,从加拿大和行业的角度,向欧盟委员会的人工智能专家组(AI HLEG)供应见地。
昨天,我们发布了值得相信的人工智能的终极道德准则。

一个值得信赖并且道德的人工智能框架_人工智能_相干 文字写作

在这些准则中,我们追求“以人为本的方法”,以肃静,自由,平等和正义等人权和基本权利为依据。
人工智能不受国界的限定,道德原则和哀求必须根植于促进所有人的内在代价的观点,无论其地理位置在哪儿。

AI HLEG由来自学术界、民间社会,研究和更多领域的52位学科专家组成。
我们在12月份发布了我们的初稿,我们的小组从收到的500多份提交的见地书中得到得的见地和见地受益。
反馈不仅来自国际人工智能实验室,也有民间社会的积极参与者。
您将看到我们的终极指南中反响的这种多样化的思想,我希望在其他地区将其作为人工智能政策的参考点时,能够连续得到运用。

值得相信的人工智能

昨天关于值得相信的人工智能的道德准则发布非常及时。

我们本日利用的大多数产品都有一定的利用担保和任务。
但是,人工智能在代价链上的表现是高度动态的。
该领域的问责制度很繁芜,对系统行为的掌握并不总是明确可归因的,并且须要更清晰地定义利益干系者(如研究职员,数据供应商,设计职员,用户和更广泛的***之间的期望。

如果对技能,开拓职员,政府框架亲睦处干系者之间缺少信赖,我们就有可能谢绝可以授予我们权力的技能风险。
作为一名企业主,我的职责之一是更加努力地调度预期,并为所有干系职员供应充分的阐明。

但普遍接管的基本规则也很主要。
问责制的阐明和会谈过程是巨大的交易本钱,而行业目前的自我监管终极受到自身利益的限定。
一套明确的游戏规则对付人们贯注灌注对技能的信赖并确保其用于最佳效果的影响至关主要。

准则

我很自满地说,我们的指南不仅仅是一系列的代价不雅观和抽象的原则来辅导人工智能。
它们因此“欧洲同盟基本权利宪章”(欧盟宪章)所载的国际人权和基本权利为根本,为实现值得相信的人工智能供应必要的核心代价不雅观和原则。
这种情境化很主要。
我们须要将值得相信和合乎道德的人工智能从观点层面转变为实际层面。

我们意识到,没有必要把人工智能与其他技能差异对待,也没有必要重新发明轮子。
对付我们来说,我们最初的过程是将自适应性的人工智能系统嵌入到已经建立起来的人权系统中,该系统将于繁芜的利益干系者代价链干系联。

从此根本上,我们转向关注当前最热门的辩论焦点并结束:如何将核心代价不雅观和原则嵌入到人工智能中?这类似于我们已经从各种面向技能的组织和中央(如IBM和Microsoft)中看到的框架。
在我们的指南中,我们重点关注来自人权的四项原则:

尊重人的自治预防危害公正可以阐明

接下来,我们确定了七个面向利益干系者的哀求,可通过技能和非技能方法(例如,测试和验证或标准化)可实现。

人类代理和监督是第一项哀求,其根本是坚持基本人权以及人工智能实现人类代理的必要性。
技能稳健性和安全性与人工智能系统的发展密切干系,并侧重于系统抵御外部攻击(例如,对抗性攻击)和内部故障(例如系统可靠性的缺点通信)的规复能力。
隐私和数据管理将系统开拓职员和支配职员之间架起了桥梁。
它办理了一些突出的问题,例如用于开拓人工智能系统所利用的数据质量和完全性,以及在全体系统生命周期内担保隐私的必要性。
透明度哀求可以理解和追踪技能与实行人类的决策。
多样性,非歧视和公恰是确保大家都可以访问人工智能系统的哀求。
这些包括例如:避免偏见、考虑通用设计原则和避免一刀切的方法社会和环境福利是最广泛的哀求,包括最大的利益干系者:我们的环球社会和环境。
它办理了对可持续和环境友好型的人工智能的需求,以及对民主进程的影响。
问责制补充了以前的所有哀求,由于它在AI系统的开拓和支配之前,期间和之后都是干系的。

这七个关键哀求和标准都是由政府监管的。

下一个合乎逻辑的步骤是将需求转化为实际的国际行业标准,但是一个完全的标准体系可能须要花费数年韶光。

这些辅导方针所依据的人权框架有助于确定现有的适用法律和政策,这些法律和政策是可以适用于人工智能快速发展的游戏规则。

“以人为本”的人工智能的环球标准

到目前环球的谈论取得了长足的进展。
关于受益人工智能的Asilomar会议是最早提出人工智能原则的会议之一,随后,从“ 蒙特利尔宣言”到IEEE 自主和智能系统伦理环球倡议等大型多利益干系方倡议的补充运动迅速增加。

这些“准则”通过谈论编织了人权的连接线,这是国际辩论的紧张方向。
你可以通过最近的倡议看到这一点,例如“多伦多宣言”或经合组织在其社会人工智能专家组及其人工智能政策不雅观察站开展的事情。

各国政府也正在发布更加风雅的人工智能计策,加拿大在2017年率先发布。
所有这些都是领先的行业标准,例如IEEE和国际标准化组织(ISO)(ISO乃至还有一个关于可信度的事情组)。
澳大利亚人权委员正在进行首创性的事情,从根本上连接我们的辅导方针,深入磋商人权与技能之间的关系。
我期待他们在2019年末发布的调查结果,并希望更多确当局可以效仿。
监管机构有必要就人工智能对人权和自由的影响进行多方干系者磋商以理解如何通过具有法律约束力、可实行的保护来补充准则。

下一步

现在是时候努力履行准则中列出的需求了。
这些哀求包括一份指示性评估清单,用于履行这些哀求,并为未来的行业标准创建第一个框架实例。
该清单将在2019年整年进行试点和修订。

反过来,各国政府该当将这些准则作作为制订和履行新的立法和监管机制的基准,以保障数字时期的人权和自由得到保护和促进。

《指南》和欧盟委员会关于建立对以人为本的人工智能信赖的沟通,鼓励利益干系方和欧盟成员国参与《指南》中的关键哀求,并利用这些哀求就以人为本的人工智能达成共识。
双方还提到与加拿大,日本和新加坡等志同道合的国际互助伙伴加强互助。

加拿大已在人工智能领域与欧盟的多在人工智能领域进行了多次互助,以及从政府角度出发,成立的法国和加拿大的国际人工智能小组。
鉴于该小组的任务是“ 促进以人为本的人工智能愿景”,在推动我们的辅导方针朝着国际标准迈进的背景下,我尤其感到愉快。

我们有辅导方针。
我们有国际平台。
现在,天下各国政府都该当履行和发展它们,利益干系者该当推动和支持它们,公民须要它们,组织该当采纳它们。

道德和值得相信的人工智能须要成为一种无可争辩的国际规范。

从作者的描述中可以创造,欧盟目前已经编写好了有关人工智能道德标准的白皮书,并已经敲定了终极稿并进行了发布,可以理解到欧盟对付人工智能道德标准的条件,从这些条件中可以看出欧盟对付未来人工智能发展的一些期望,同时全天下有关人工智能的标准都在风起云涌的进行着,可以预测到的是未来有关人工智能的岗位将会不断的增加,我们将在这场风波中处在什么位置将取决于我们现在对待人工智能的态度,不管未来人工智能对我们是一个好事还是一个坏事,我们在现在都该当积极的去应对它和理解它,以防未来被这股人工智能的浪潮掀翻在地。