来源 | CEPS

CEPS申报 | 欧盟《人工智能法案》若何与人工智能价值链相折衷_人工智能_体系 智能问答

欧盟委员会早在2021年4月提出了《欧盟人工智能法案》(AI Act,以下简称“《法案》”),其试图制订人工智能规则并减轻人工智能风险。
目前的法案文本基于人工智能代价链的“线性视图”对人工智能系统进行了规定。
但实际上,人工智能代价链可呈现多种配置。
有学者呼吁在全体人工智能“代价链”中平衡分配任务,常日的基本假设是人工智能“代价链”可以用标准化的办法来描述。
然而,欧盟立法者在起草《法案》时彷佛并未充分考虑到市场上已经涌现的多种人工智能代价链配置。

事实上,人工智能业务模型多样性的主要浸染对《法案》提出了寻衅。
为了帮助办理这些寻衅,本报告研究了人工智能供应链的特定配置,同时考虑了GPAI模型所呈现的繁芜性以及开拓职员的潜力。
本文节选自报告的第1-3部分,拟环绕人工智能代价链进行展开。

什么是人工智能代价链

《法案》在第一个详细目标(1.4.2-1)中提到了人工智能代价链:“为人工智能系统设定特定哀求和代价链参与者的责任,以确保投放市场和利用的人工智能系统是安全的、尊重基本权利和同盟代价不雅观的法律”。
不过,《法案》尚未明确地定义人工智能代价链。

CEPS将人工智能代价链定义为:开拓人工智能系统并投入利用的主体过程。
其功能是考虑哪些主体可以在人工智能代价链的哪些部分发挥浸染,以确定哪个主体最符合监管哀求,保障人工智能系统的安全性。
这种对主体过程的关注将人工智能代价链与算法开拓区分开来,算法开拓的关注点更狭窄地集中在构建人工智能系统的技能步骤上。

《法案》如何构想人工智能代价链

只管拟议的《法案》没有定义人工智能代价链,但可以从文本中推断出很多东西。
它设想了一个相对大略的线性代价链,关键实体被归类为人工智能系统的“供应者”或“用户”。

第3条第(2)款将供应者定义为“开拓人工智能系统,或开拓人工智能系统以将其投放市场,并以自己的名称或牌号供应做事的自然人、法人、公共机构或其他组织”,实质上是在发卖或利用之前开拓或将人工智能系统集成到产品或软件中的末了一个实体。

第3条第(4)款将用户定义为“在其授权下利用人工智能系统的自然人、法人、公共机构或其他组织,但在个人非专业活动过程中利用人工智能系统的情形除外”。

个中,当人工智能系统在被归类为高风险时,其供应者必须遵守《法案》规定的标准或透明度责任。
因此,确定哪些实体被归类为高风险人工智能系统的供应者(PHRAIS)尤为主要。

《法案》第3章详细解释了对PHRAIS和高风险人工智能系统用户的详细哀求,包括关于风险管理系统、数据管理、技能文档、记录保存、透明度哀求、准确性和稳健性的规定。
如果创造人工智能系统违反上述任何规定,PHRAIS必须采纳纠正方法。
末了,PHRAIS必须经由正式的事前合格评定程序,在欧盟范围内的数据库中注册高风险人工智能系统,建立监管机构联结点,并应监管机构的哀求证明其合规性。

与此比较,面向用户的规定相称有限。
高风险人工智能系统的用户必须按照PHRAIS供应者的指示利用,保留其功能的干系记录,并监控系统是否存在可能毁坏《法案》哀求的严重事宜或故障。
此外,当用户可以掌握人工智能系统的输入数据时,它必须确保数据“与预期目的干系”。

至关主要的是,根据《法案》第28条,如果用户、经销商或入口商以自己的名义在市场上投放预先存在的人工智能系统,改变人工智能系统的预期用场或对人工智能系统进行另一次“本色性修正”,那么他们自己将成为供应者,并因此受到供应者的监管哀求的约束,而原始PHRAIS将不再被视为《法案》下的供应者。

人工智能代价链的类型及其与《法案》的关系

如上一节所述,《法案》对供应者和用户之间作了相对明确的区分。
然而,在考虑不同人工智能商业模式时,对人工智能代价链的阐明可能会有所不同。
下面考虑的是具有一个实体(类型1)、两个实体(类型2-6)和两个以上实体(类型7)的场景。

类型1-内部人工智能开拓和支配

一家公司编写代码并全面演习人工智能模型,供同一公司职能部门内部利用。
例如,由仓库公司开拓和运营、用于管理和分配任务给仓库员工的人工智能系统。
在这种情形下,只存在一个实体,它既是供应者又是用户。
如果人工智能系统符合高风险条件,则供应商将是PHRAIS,因此必须通过合格评定流程并知足《法案》的其他哀求。

类型2-人工智能系统承包:一个实体为另一实体开拓人工智能系统

开拓实体作为另一个实体(如公司或政府,发包商)的承包商定制人工智能系统,开拓实体本身并不该用人工智能系统或将其投放市场。
例如,承包商可以开拓用于财务管理的人工智能系统,以识别银行软件中的敲诈行为。

在这种情形下,承包商不被视为《法案》下的供应者。
而从承包商处购买人工智能系统的实体如果将人工智能模型投入利用或投放市场,则它将被视为供应者;如果人工智能系统被归类为高风险,则同一实体将成为PHRAIS。

由于承包商没有被定义为供应者,这会勉励研发公司通过条约做事开拓人工智能系统,从而回避《法案》的规制。
最初的PHRAIS常日会通过合格评定流程以***其人工智能系统,因此结果可能是它们不受欧盟监管机构对这一特定高风险人工智能系统的上市后监督和验证。
客户将承担掌握和管理人工智能系统的任务。
须要确定的是,这种情形是否会促进两个实体加强互助和信息共享,以便PHRAIS能够完备知足《法案》的监管哀求。

类型3-受限人工智能系统访问权限:一个实体编写代码并演习系统,然后通过品牌运用程序或API***访问权限

在这种情形下,该公司许可他人访问人工智能系统,但只能通过闭源软件或API(Application Programming Interface,运用编程接口)访问,防止对模型进行任何变动。

类型1和类型3是对《法案》的大略阐明,由于该实体显然是供应者,它开拓了人工智能系统并将其投放市场。
如果人工智能系统具有高风险,则该公司将被视为PHRAIS。
该公司的客户只能访问输入和输出数据,显然是《法案》下规定的用户。
商业面部识别运用程序是这种商业模式的范例案例。
值得把稳的是,API背后GPAI模型的商业化将使这种情形繁芜化,由于客户可能会将GPAI模型运用于高风险场景。

类型4-AI代码软件:为人工智能系统编写代码,但不对其进行预演习或供应演习数据

在这种情形下,代码编写者开拓的软件包含客户输入演习数据的过程,之后软件代码会自动运行统计剖析并将结果呈现在软件中。
代码编写者发卖此软件并供应技能帮忙,采购者输入AI模型利用的所有数据进行利用。
在美国,用于设定大学学费的商业软件采取这种方法。
高校购买软件后自行添加数据,软件自动演习人工智能模型,进行统计剖析并呈现结果。

发卖带有AI代码软件的行为并不完备符合《法案》,哪个实体有资格作为供应者以及在何种情形下可能会发生变革尚不清晰。
对《法案》的文本解读表明,代码编写者便是供应者,由于他开拓了一种技能,一旦添加了数据,就可以知足人工智能系统的定义。
但是,有争议认为,由于代码编写者尚未创建人工智能系统,无法“天生输出”,直到采购实体添加演习数据,人工智能系统才能终极完成,因此代码编写者不是供应者。

另有假设认为代码编写者确实有资格成为供应者。
如果人工智能系统的预期目的使其成为《法案》下的高风险人工智能系统,那么该代码编写者将是PHRAIS。
但是,采购实体也有可能成为PHRAIS,这取决于将培训数据添加到软件中是否算作本色性修正,这由供应者在其合格评定中定义。

类型5-学习人工智能系统

学习人工智能系统,是指人工智能系统作为商业软件包或产品的一部分,可以在用户供应数据时更新其模型,也被称为在线学习。
例如,亚马逊Alexa中的语音识别人工智能系统可以适应来自特定人类声音的新数据,利用时能够连续网络数据并进行更新。

在这种情形下,采购实体可以供应足够的输入数据来改变软件或产品的功能。
这是否构成“重大修正”,将取决于原始供应商的预定标准。
基于此,未来关于人工智能系统任务的立法倡议可能会以“合理可预见的利用”为标准释明用户对人工智能系统“滥用”的定义。

类型6-人工智能系统微调:一个实体的初始开拓和另一个实体的微调

一个开拓职员演习了一个人工智能系统,然后将其***给另一开拓职员,第二个开拓职员对人工智能系统进行微调意味着他将利用额外的演习数据来改进人工智能系统的功能或使其适应更详细的环境或任务。
这与类型3、4和5不同,由于此种类型中第二个开拓职员可以直接访问人工智能系统并进行自由操作。

常日,用于演习第一个人工智能系统的数据集更大、更通用,而用于微调的数据集更小、更详细。
由第一个开拓职员演习的通用问答谈天机器人,在与第二个开拓职员干系的特定领域知识(例如保险信息)上重新演习并***给用户,便是这种商业模式的范例例子。

在这种情形下,一旦他们发卖或利用人工智能系统,则两个开拓者都是供应者。
但是,哪个开拓者是PHRAIS要取决于详细情形。
如果最初的人工智能系统风险不高,那么它的开拓者只是供应者,而不是PHRAIS。
如果第二个开拓者购买了该人工智能系统,然后针对高风险运用程序对其进行微调,从而改变其用场,那么该第二个开拓者便是唯一的PHRAIS。

然而,如果原始系统是高风险的,而第二个开拓职员为了相同或其他高风险的目的对模型进行微调,那么第一个开拓职员便是PHRAIS;第二个开拓职员也可以是PHRAIS,但这取决于其是否符合第一个开拓职员在合格评定中设定的本色性修正条款。
由于第二个开拓者可以直接访问人工智能系统并且评估和修正其功能,因此第二个开拓职员承担PHRAIS监管任务更为合理。

类型7-人工智能模型集成:一个实体将不同的人工智能系统集成到新的系统中

在这种情形下,可能存在很多开拓职员。
例如,一家公司可以将来自不同开拓职员用于打算机视觉、音频剖析和自然措辞处理的人工智能系统整合到一个软件中。
或者,模型集成中可能包括多个人工智能系统,以改进它们在某种特界说务(集成)上的集体功能。
在这一类型中还含有“苏格拉底模型”——一种通过演习而在给定的几个人工智能系统之间进行选择的新技能。
在学生参加考试时利用人工智能模型剖析***、音频、文本输入的商业监考软件即为此范例。

如果预先存在的人工智能系统风险不高,而集成开拓职员将其重新用于高风险系统投放市场,则集成开拓职员将是唯一的PHRAIS。
如果预先存在的人工智能系统具有高风险,那么第一批开拓职员将是PHRAIS;同时集成开拓职员也可能是PHRAIS,由于将人工智能系统组合到更广泛的软件中可能会构成本色性修正,并且符合《法案》第28条规定的预期目的改变。
和最初的开拓职员一样,集成公司必须对新的集成人工智能系统进行合格评定。

3.1 人工智能代价链类型的要点

上述的人工智能代价链的异质性,至少有七种不同的流程类型,揭示了《法案》未来运用的一些要点,包括:

1、在几种类型的人工智能代价链中,关于哪个实体常日是PHRAIS存在相称大的歧义。
对付第2类(人工智能系统承包)和第6类(人工智能系统微调)尤其如此,只管它也可能适用于第4类(带有人工智能代码的软件)、第5类(学习人工智能系统)和第7类(人工智能模型集成)。

2、在具有两个实体的人工智能代价链中,任何一个实体都不能完备有能力评估和改变人工智能系统,以知足PHRAIS的监管责任。
这对付带有AI代码的软件来说尤甚,由于任何单一实体都无法掌握代码和数据。

3、在现实情形下,PHRAIS将在实体之间转移。
《法案》第28条规定了详细的发生场景,即人工智能系统的预期目的已经改变,或者对该人工智能系统的变动符合“重大修正”的定义。

4、条约措辞将在多种类型的人工智能代价链中发挥关键浸染。
它可以确保两个实体在第2类(人工智能系统条约)和第4类(具有人工智能代码的软件)中就合格评定过程或特定人工智能哀求(如风险管理)进行互助。

CYBER RESEARCH INSTITUTE