人工智能时代的刑事立律例划_人工智能_刑法
人工智能时期的刑事立法规划
李振林∗
内容择要:人工智能刑事立法目的是保障人工智能康健有序发展、防控人工智能可能存在的风险ꎬ以及应对人工智能新事物对刑法适用的冲击ꎮ 基于这些目的ꎬ人工智能刑事立法应该遵照功利主义与人类利益优位、发展优位与风险管控、技能折衷与法律折衷等原则ꎮ 根据这些目的与原则ꎬ人工智能刑事立法可以从人工智能所涉及的利益出发探究干系犯罪的法益类型ꎬ并从人工智能的研发者、利用者等出发明确干系任务主体的把稳责任与过失落归责原则ꎻ在对人工智能刑事立法详细条文的修订和增设方面ꎬ应该修正侵害打算机信息系统类犯罪、交通闹事罪、危险驾驶罪等犯罪ꎬ增设人工智能重大安全事件罪ꎬ并在«刑法»分则第六章中增设第十节"妨害人工智能发展罪"时规定扰乱人工智能活动罪、造孽利用人工智能罪、造孽供应人工智能技能罪等犯罪ꎮ关键词:人工智能 聪慧社会 智能机器人 自动驾驶 刑事立法
人工智能正逐步改变着人们的生产生活办法ꎬ在信息、生命、材料、能源、环境等领域发挥了强有力的推动浸染ꎬ并孕育着堪比二十世纪互联网出身的重大科学打破ꎮ 随着人工智能技能的纵深发展ꎬ人工智能与其他科技的领悟创新与聚酿成长ꎬ人类社会正在日益逼近新一轮变革的临界点ꎬ社会形态将全面系统演进ꎬ数字天下和聪慧社会指日可待ꎮ 与此同时ꎬ形形色色的涉人工智能法律问题定会纷至沓来ꎮ 例如ꎬ人工智能创造物的知识产权归属、人工智能产品任务分配、涉人工智能犯罪的规制等ꎮ对此ꎬ学界目前也已经呈现出了一系列以人工智能为研究工具的法学研究成果ꎮ 然而ꎬ这些研究成果基本环绕着人工智能中的智能机器人的法律人格、民事归责、刑事归责等方面展开ꎬ较少从立法层面进行系统性研究ꎮ① 笔者认为ꎬ人工智能新时期已然到来ꎬ现行刑法显然难以妥善办理人工智能发展过程中所遭遇或可能遭遇的新问题ꎮ② 例如ꎬ自动驾驶在一定程度上影响了交通闹事罪的适用ꎬ无论是危害结果可否归因于驾驶员还是该罪的主体范围等均存在谈论空间ꎻ又如ꎬ针对人工智能的侵害活动尚未有相应的罪名可以进行规制ꎮ 应该看到ꎬ刑法阐明的尽头即是刑事立法ꎬ"凡是可以通过阐明使刑法条文适应社会生活事实的ꎬ就不应当主见修正刑法"ꎬ③但如果办理新问题早已超出了刑法阐明的能力所及ꎬ就必须启动刑事立法ꎮ 面对纷繁繁芜且不断凸显的涉人工智能犯罪问题ꎬ现行刑法及对其的阐明已经鞭长莫及、捉襟见肘ꎬ为保障人工智能康健、有序发展并有效防控干系风险ꎬ亟需进行前瞻性的人工智能刑事立法ꎮ 人工智能刑事立法乃至于人工智能法律框架构建一定是一个社会科学领域的主要新课题ꎬ就人工智能可能带来的风险、收益从刑事立法层面展开系统性、全面性、深入性的研究是非常必要的ꎮ 为此ꎬ本文将从人工智能刑事立法的目的出发ꎬ构建人工智能刑事立法的基本原则ꎬ并结合实际与可期待的未来提出切实可行的人工智能刑事立法构想ꎮ
一、人工智能刑事立法的目的与原则
人工智能刑事立法目的是保障人工智能康健有序发展、防控人工智能可能产生的风险ꎬ以及应对人工智能对刑法适用的冲击ꎮ① 基于这些目的ꎬ人工智能刑事立法应该遵照功利主义与人类利益优位、发展优位与风险管控、技能折衷与法律折衷等原则ꎮ
(一)人工智能刑事立法的目的法律在很大程度上是国家为了故意识地达到某一特定目的而制订的ꎮ② 立法活动应是在特定目
的的指引之下进行以贯彻国家意志与公民诉求ꎮ 人工智能刑事立法也不例外ꎮ 笔者认为ꎬ人工智能刑事立法的目的紧张在于以下三个方面ꎮ
第一ꎬ保障人工智能康健有序发展ꎮ 人工智能刑事立法的紧张目的在于保障人工智能康健有序发展ꎮ 虽然目前学界存在社会管理"过度刑法化"的批驳ꎬ③但不得不承认刑法对管理某些社会问题所发挥的巨大浸染ꎮ 刑法的保护性能哀求刑法在面对社会形势变革时ꎬ应积极发挥作为社会管理手段的浸染ꎮ 人工智能作为科技革命的主要产物、社会变革之"重器"ꎬ理应受到刑法保护ꎮ 2017 年国务院«新一代人工智能发展方案»将人工智能上升为国家计策的主要内容ꎬ如果不对妨碍或毁坏人工智能技能、产品的研发、利用活动和造孽利用人工智能等行为进行刑法规制ꎬ将会严重阻滞人工智能发展ꎬ毁坏国家计策的履行ꎮ 只有通过适当的刑法保护使得人工智能够在一个康健、有序的环境中发展、演进ꎬ才能确保我国能够在人工智能技能的浪潮中拔得先机ꎬ率先享受人工智能红利ꎬ推进社会发展与变革ꎮ
第二ꎬ防控人工智能可能存在的风险ꎮ 任何事物均具有两面性ꎬ人工智能也概莫能外ꎮ 人工智能在给我们带来诸多红利的同时ꎬ也蕴藏着巨大风险ꎮ 刑法不仅要保护人工智能发展ꎬ也要防控人工智能风险ꎮ 无论是从预防刑法还是风险刑法的角度来看ꎬ防控人工智能风险都是必不可少的ꎮ 风险实际上与红利成正比ꎮ 我们必须准确认识并把握到人工智能可能存在的各种风险并积极对其进行规制ꎮ 正如作为工业革命产物之一的汽车在提升了交通运输效率和供应生活便利的同时ꎬ也产生了各种危害人们生命、康健和财产安全的交通事件ꎬ为应对对此风险ꎬ刑法设立了交通闹事罪和危险驾驶罪等条文ꎮ 人工智能刑事立法也一定不能短缺风险防控的内容ꎬ以对失落控、滥用人工智能等风险加以防控ꎮ
第三ꎬ应对人工智能对刑法适用的冲击ꎮ 人工智能作为新事物一定会改变原有的社会事实与"大众认知ꎬ拓宽乃至完备改变了原有的社会观点与规则ꎬ基于原来的社会事实与公众年夜众认知所建立的法律法规或多或少会存在适用上的困难或冲击ꎬ个中对刑法适用的冲击尤甚ꎮ 对此ꎬ刑事立法必须予以回应ꎮ④ 只管有不雅观点认为ꎬ人工智能只要处于支配性工具地位ꎬ便可通过现行法及扩展阐明予以应对ꎬ⑤
但这显然是对刑法阐明过于自傲ꎬ忽略了刑事立法的主要性和独特性ꎮ 例如ꎬ人工智能创造物的权利归属问题导致的知识产权犯罪中人工智能的被害人地位、刑法归责等问题便不是刑法阐明所能办理的ꎮ 因此ꎬ补充刑法条文的漏洞、办理刑法适用的冲突ꎬ以妥善应对人工智能对刑法适用的冲击ꎬ也应是人工智能刑事立法的目的之一ꎮ
(二)人工智能刑事立法的原则人工智能刑事立法的原则是指人工智能干系问题刑事立法活动中所应遵遁的精神、规范与准则ꎮ
众所周知ꎬ刑法的基本原则包括罪刑法定、平等适用和罪刑均衡ꎮ 刑事立法活动该当遵照上述刑法基本原则ꎬ同时也应遵照立法活动的基本原则ꎬ如科学性、民主性、法治性和经济性①等ꎮ 人工智能刑事立法除了应遵照上述原则之外ꎬ还应遵照由发展人工智能的目的所引申出来属于人工智能刑事立法的特有原则ꎮ 立法的根本目的在于最大多数人的最大幸福ꎮ "从全面计量生活的幸福和灾害来讲ꎬ立法是一门技能ꎬ它勾引人们去享受最大限度的幸福ꎬ或者说最大限度地减少人们可能遭遇的不幸ꎮ"②人工智能刑事立法的目的决定了人工智能刑事立法应该遵照下三个详细原则ꎮ
1.功利主义与人类利益优位"功利便是一种外物给本事儿求福避祸的那种特性ꎮ"③从立法上看ꎬ功利主义的贯彻是指ꎬ"统统
举措都该当通过功利原则进行最大限度的考验ꎮ 详细说来ꎬ对付政府颁行的法令、政策乃至全体社会制度的评价标准ꎬ就在于看其是否指向了社会整体功利的最大化"ꎮ④ 功利主义无疑是人工智能刑事立法的主要辅导原则ꎮ 这是由于ꎬ人工智能技能的发展、人工智能产品的研发究竟做事于人类利益ꎮ任何技能研发、运用的目的都是为了使得人们能够享受更大的幸福ꎬ这正好符合了行为功利主义中的"最大幸福事理"ꎮ 分开了为人类利益做事这一目的ꎬ人工智能技能的发展将会失落去掌握ꎬ并且很可能导致奇点来临ꎬ甚至末了人类被人工智能所颠覆、灭亡ꎮ 应该看到ꎬ即便智能机器人往后得到法律主体地位ꎬ智能机器人的权利得到法律承认ꎬ其利益位阶也应低于人类利益ꎮ 正如学者所言ꎬ"承认机器人权利ꎬ此种承认具有功利主义色彩ꎬ实质上是为了更好地实现人类利益"ꎮ⑤ 因此ꎬ人工智能刑事立法活动中必须严守人类利益优位的底线ꎬ增设干系刑法条文时必须把人类利益摆在首位ꎬ一旦其他利益与人类利益产生冲突时应在立法上确定人类利益优位ꎮ⑥
2.发展优位与风险管控为充分实现人工智能发展目的ꎬ人工智能刑事立法还应该遵照和贯彻发展优位与风险管控原则ꎮ
发展人工智能是目前全天下的共识与潮流ꎬ在人工智能刑事立法中也应秉持这一态度ꎮ 任何一项技能都不可能不具有危险性ꎬ但法律的目的并非禁止而仅是让其在监管框架内有序发展ꎮ 但发展优于限定ꎬ保护胜于打击ꎬ对人工智能的刑法规制绝不能阻碍人工智能的发展或挤压人工智能发展的空间ꎬ而应该给予人工智能足够、合理的空间任其"成长"与"试错"ꎮ 一旦刑法参与某项新事物的力度过大、韶光过早ꎬ便会消耗之后可能的创新与发展ꎬ无法助力于社会发展ꎮ 以互联网金融为例ꎬ早期的互联网金融由于刑法参与较晚ꎬ力度较小ꎬ确实在很大程度上办理了一大批中小企业的融资困难ꎬ解放了资金的流动性ꎬ优化了资源配置ꎬ对促进我国金融发展与成本流动发挥了非常主要的浸染ꎮ⑦ 之后由于互联网金融的"野蛮成长"以及具备造孽性、敲诈性的造孽金融活动增多ꎬ于是国务院办公厅发布了«关于印发互联网金融风险专项整治事情履行方案的关照»、最高公民审查院颁布了«关于办理涉互联网金融犯罪案件有关问题漫谈会纪要»等文件ꎬ以规范性、系统性整治互联网金融风险ꎬ打击涉互联网金融犯罪行为ꎮ 笔者认为ꎬ人工智能刑事立法也应在一定程度上汲取涉互联网金融犯罪的惩处履历ꎬ在发展的前中期预留给人工智能相称的、合理的成长、发展、 "试错"空间ꎬ仅在涉及人类根本利益、国家利益、重大人身财产安全及公共安全领域设立底线ꎮ 随着人工智能的发展ꎬ到中后期阶段或风险初露端倪之时ꎬ便可结合实际适当增加刑法规制的力度和扩大刑法规制的范围等ꎬ以保护人类利益ꎬ推动社会康健发展ꎮ
基于人工智能的一体两面ꎬ我们在看重人工智能发展优位的同时ꎬ也不能忽略对人工智能的风险管控ꎮ 人工智能的风险可以分为以下三个方面ꎮ 一是人工智能滥用的风险ꎬ即滥用人工智能履行违法犯罪活动的风险ꎮ① 人工智能具有深度学习等能力ꎬ结合大数据后可在大多数领域内"所向披靡"ꎬ远超人类所能达到的极限ꎮ 正由于此ꎬ一旦将人工智能技能滥用于犯罪活动中ꎬ将会产生巨大的社会危害性ꎮ 例如ꎬ利用人工智能技能在证券、期货市场进行市场操纵ꎬ很大程度上能够通过学习能力规避监管方法ꎮ 又如ꎬ滥用人工智能与大数据进行个人信息犯罪与数据犯罪都会使得原有行为的社会危害性呈几何系数增长ꎮ 在国家安全、信息数据、网络通讯等领域内的人工智能一旦被滥用ꎬ将会产生弗成思议的巨大危害ꎬ有必要通过刑事立法进行风险防控ꎮ 二是人工智能失落控的风险ꎬ即人工智能意外失落去程序掌握进而履行违法犯罪行为的风险ꎮ 由于人工智能是通过程序掌握ꎬ一旦程序出错便会导致人工智能失落控ꎮ 以是ꎬ对付人工智能的研发者、利用者而言ꎬ必须在一定范围内承担相应的风险防控责任ꎮ 应该看到ꎬ对付不可预见的、外力所致的程序出错与人工智能失落控ꎬ显然不可归责于人工智能的研发者、利用者ꎮ 但是ꎬ如果是由于人工智能的研发者、利用者的轻忽过失落或过于自傲过失落导致的人工智能失落控ꎬ且发生重大事件的ꎬ则应予以归责ꎮ 此类立法可借鉴现行«刑法»关于重大任务事件罪的规定ꎮ 三是人工智能"自主"犯罪的风险ꎬ即人工智能产生"自主"犯罪意图进而履行违法犯罪行为的风险ꎮ 未来具备自主意识的超强人工智能一定会涌现ꎬ对此具有类人乃至超人的人工智能主动履行的违法犯罪行为ꎬ如何进行规制和惩罚ꎬ也是人工智能刑事立法必须要应对的问题ꎮ 四是人工智能被侵害的风险ꎬ即人工智能技能、产品遭受造孽限定、阻碍、毁坏的风险ꎮ 例如ꎬ行为人通过黑客技能滋扰人工智能系统的履行ꎬ以达到逃脱监管或法律制裁的不法目的ꎮ② 又如ꎬ其他势力通过病毒等办法侵害人工智能产品ꎬ或阻碍人工智能的研发、运用等ꎮ 人工智能的发展应受到刑法保护ꎬ可以通过刑事立法确认其独特的法益类型ꎬ并对侵害人工智能的行为进行刑法规制ꎮ
人工智能刑事立法贯彻风险管控原则应从源头管控开始ꎮ 在人工智能的研发阶段ꎬ应对人工智能的研发者设定相应的责任ꎬ防止研发者毁坏、滥用或者研发危险人工智能ꎮ 例如ꎬ美国 Google 企业员工联名哀求公司谢绝向美国政府供应人工智能技能用于军用攻击机器人的开拓ꎮ③ 除了对研发"杀人机器人"等危险人工智能的行为应予刑法规制外ꎬ还应对毁坏国家人工智能的研发、运用的行为予以规制ꎮ 此外ꎬ对付因研发过失落而导致人工智能程序出错ꎬ发生重大事件的ꎬ也可予以规制ꎮ 在人工智能的流利阶段ꎬ对人工智能的利用者、监管者、经手者均应授予相应的责任ꎬ禁止其将人工智能技能、产品供应给违法犯罪分子ꎮ
3.技能折衷与法律折衷不折衷的人工智能刑事立法将会对人工智能发展产生极大的阻碍ꎬ也会使得人工智能刑事法律
实践产生诸多争媾和困惑ꎮ 因此ꎬ笔者认为ꎬ人工智能刑事立法还应该遵照技能折衷与法律折衷原则ꎮ
第一ꎬ人工智能刑事立法应该与技能发展相折衷ꎮ 人工智能时期可以分为弱人工智能时期和强人工智能时期ꎮ 当今社会仍旧处于新工业时期迈向弱人工智能时期的过程中ꎮ 所谓强、弱人工智能时期ꎬ是指强、弱人工智能产品的运用遍及人类生产、生活的方方面面ꎮ 弱人工智能产品不具有辨认能力和掌握能力ꎬ仅能在设计和体例的程序范围内履行行为ꎬ实现人类设计和体例程序的目的ꎮ 强人工智能产品具有独立意志ꎬ能在设计和体例程序范围外履行行为ꎮ① 较为范例的弱人工智能产品如无人驾驶汽车ꎮ 例如ꎬ上海嘉定区建成海内首个无人驾驶示范区ꎬ自动驾驶车辆已经进入实验阶段ꎬ之后将进行量产ꎮ② 刑法必须敏感地应对时期变革ꎮ 人工智能刑事立法不能太超前于技能时期ꎬ也不能掉队于技能时期ꎮ 刑事立法应与所处时期可能涌现的技能风险、任务分配规则相适应ꎮ 在弱人工智能时期ꎬ对人工智能产品研发者、利用者应设定较高的把稳责任ꎬ可进行过失落归责ꎮ 但随着人工智能技能的发展ꎬ人工智能产品智能化水平提高ꎬ对人工智能产品研发者、利用者的把稳责任哀求应逐渐降落ꎬ转而由具有自主意识的人工智能机器人来承担相应任务ꎮ 直至强人工智能时期ꎬ任务分配从以人(人工智能研发者、利用者等)为主ꎬ转变为智能机器人为主ꎮ 刑事立法与技能相折衷还可以表现为ꎬ对刑法条文的风雅修正与创新式立法ꎮ 例如ꎬ无人驾驶汽车的遍及显然将对交通闹事罪、危险驾驶罪的适用产生冲击ꎬ应对条文进行风雅修正ꎮ 又如ꎬ随着强人工智能的涌现ꎬ应将智能机器人纳入刑事任务承担主体范围内ꎬ应对智能机器人犯罪进行规制ꎬ设立相应的刑罚制度ꎮ
第二ꎬ人工智能刑事立法应该与干系法律相折衷ꎮ 人工智能刑事立法与法律的折衷又紧张表示为以下两个方面ꎮ 一是人工智能刑事立法应与其他部门法折衷ꎮ 例如ꎬ人工智能创造物的权利归属现在仍处于争议中ꎬ有人认为作品应归属于人工智能所有者ꎬ③也有人认为应归属于人工智能本身ꎮ④
虽然这一争议未有定论ꎬ但如果«著作权法»做出了干系规定ꎬ在刑法适用上即应与其折衷ꎮ 与其他部门法折衷并不是指刑法条文的含义与适用必须遵照其他部门法已有的规定ꎬ而是指在没有更充分、更强力情由的情形下ꎬ为了法律体系的统一性与法的可预测性ꎬ原则上采取不会与部门法相冲突的阐明ꎮ 正如学者所言ꎬ"刑法中的绝大多数用语ꎬ如果在民法以及其他部门法中有规定的ꎬ两者的理解应该保持同等"ꎬ"如果刑法用语的含义与其他法律不相同等的ꎬ反而是刑法对此应该有明文规定"ꎮ⑤
如刑法中的信用卡与事实婚姻的观点原来与其他部门法的规定不相同等ꎬ而后则通过刑法立法阐明等将其阐明为与其他部门法相同等的观点ꎮ 同理此意ꎬ当其他部门法确立了智能机器人的法律主体地位或准法律主体地位时ꎬ刑事立法便应该考虑智能机器人的刑事任务与刑法保护问题ꎬ而不能将其仅作为工具对待ꎮ 二是人工智能刑事立法应与其他刑法条文折衷ꎮ 人工智能刑事立法不仅须要与外部其他部门法折衷ꎬ还应把稳刑法体系自身的折衷性ꎮ 由于立法者受到立法技能、措辞表达、认识能力的局限ꎬ新设立的条文或多或少会与原有的条文产生适用上的冲突ꎮ 对付人工智能刑事立法而言ꎬ更应只管即便避免冲突ꎬ能够与其他刑法条文的规定相折衷ꎮ 例如ꎬ一旦修正了交通闹事罪的条文ꎬ将无人驾驶汽车所有者所致的事件归责于所有者ꎬ那么为了达致刑法内部的折衷ꎬ对付危险驾驶罪的条文也应做出相应的修正ꎮ 超脱出交通安全领域ꎬ针对此类立法表象背后所展现的归责规则应贯彻于所有刑法条文ꎬ即人工智能所有者所致的人工智能出错并导致事件的行为可予归责的规则应该在其他刑法条文中予以贯彻ꎮ 除了规则建立型的折衷问题外ꎬ也会存在对刑法用语型的折衷问题ꎮ 例如ꎬ未来人工智能假肢被他人毁坏的ꎬ也可考虑构成故意侵害罪ꎮ 虽然假肢不属于传统意义上的肉体ꎬ但随着人工智能技能的发展ꎬ很可能日后代替肉体成为人的意识载体并具有人身性与依赖性ꎬ即成为人体的本色组成部分ꎮ 由此ꎬ毁坏假肢的行为即可能构成故意侵害罪而非故意毁坏财物罪了ꎮ 人工智能刑事立法应与其他刑法条文折衷还应把稳刑罚方面的折衷问题ꎮ 刑事立法有可能导致刑罚不屈衡ꎮ例如ꎬ"«刑法改动案(九)»降落了受贿罪的法定刑ꎬ但没有相应降落行贿罪的法定刑ꎬ形成了行贿罪的前两档法定刑高于受贿罪的不合理征象"ꎮ① 只管可以通过阐明来填补这一漏洞ꎬ但如果能从源头上、根本上避免这一征象则可不必费心于阐明以及遍及阐明结论ꎮ 因此ꎬ人工智能刑事立法中也必须着重考量刑罚设置的均衡问题ꎬ既要在横向上均衡即与其他同类型犯罪相均衡ꎬ也要在纵向上均衡即设置合理的刑罚坡度ꎬ轻重适当ꎮ
二、人工智能刑事立法的基本构想
根据人工智能刑事立法的目的与原则ꎬ笔者认为ꎬ人工智能刑事立法的基本构想可以从两个方面展开:一是从人工智能所涉及的利益出发探究其法益类型ꎬ只有明确了法益ꎬ才能有针对性地进行刑事立法ꎻ二是从人工智能的研发者、利用者等出发明确干系任务主体的把稳责任与过失落归责原则ꎮ
(一)人工智能的法益类型法益是指有益于公民个人的自由及其发展ꎬ或者是建立在此目标上的国家制度的运转所必要的
现实存在和目的设定ꎮ② "具有履历的实在性的法益观点ꎬ成为反省刑事立法事实的根本ꎮ"③人工智能的法益类型有的是旧法益类型的新形式ꎬ也有的是对原有法益类型的扩展ꎬ还有的是增加的新类型ꎮ 人工智能刑事立法有必要在明确人工智能法益类型的根本上进行ꎬ如此方可保障人工智能刑事立法的质量ꎮ
1.旧类型法益旧类型法益是指人工智能使得原有的法益类型涌现了新的表现形式ꎬ即"新瓶装旧酒"ꎬ但法益
本身没有发生质的改变ꎮ 这一类型的法益紧张涌现于新工业时期向弱人工智能时期的转型期及弱人工智能时期前期ꎮ 由于人工智能技能的运用还很不成熟ꎬ弱人工智能产品较少ꎬ用场也较为有限ꎬ以是每每不会产生新的值得法律保护的法益ꎮ 大多仅是旧类型法益的新形式ꎮ 例如ꎬ弱人工智能与打算机信息科技的结合并不会带来全新的法益ꎬ须要保护的仍旧只是打算机信息系统本身而已ꎮ 一样平常来说ꎬ利用弱人工智能进行犯罪的ꎬ即弱人工智能只是工具的场合下ꎬ都属于侵害旧类型法益的犯罪行为ꎮ④ 这一类型的法益一样平常依照现行刑法即可进行保护ꎬ可以在争议问题涌现时通过法律阐明或发布辅导性案例的办法予以办理ꎮ 值得把稳的是ꎬ虽然此类型法益一样平常依照现行刑法即可进行保护ꎬ但如果涉及新事物对刑法适用的冲击时ꎬ仍须要通过修订刑法予以办理ꎮ 当然ꎬ此时仅是为理解决现行刑法条文规制范围跟不上时期变革的问题ꎬ而不是办理法益保护不周延的问题ꎮ
2.扩展型法益扩展型法益是指人工智能扩展了原有法益的内涵ꎮ 在弱人工智能时期中后期、转型期以及强人
工智能时期ꎬ随着人工智能产品的自主意识逐渐凸显、增强并实现类人化ꎬ智能机器人的刑事任务主体地位可应时通过立法予以确立ꎮ 由此ꎬ«刑法»分则第四章陵犯公民人身权利、民主权利罪的法益内涵势必会得到扩展ꎮ 一旦智能机器人的刑事任务主体地位确立ꎬ其对应的权利责任也会被确立ꎮ在这过程中ꎬ传统的人身权利、民主权利法益势必会受到冲击并扩展ꎮ 智能机器人的"人身权利、民主权利"也将受到刑法保护ꎬ这显然扩展了原有的法益类型ꎮ 而且ꎬ这一扩展并不能通过刑法阐明完成ꎬ只能通过刑事立法予以确认ꎮ
3.增加型法益
增加型法益是指人工智能发展过程中所产生的独立保护的利益代价ꎬ与以往的所有法益类型均不相同ꎬ须要立法予以专门确立与保护ꎮ 笔者认为ꎬ人工智能的研发、设计、运用活动具有独立保护的代价ꎬ应作为新型法益予以确立ꎬ并在刑法分则中设立专节对毁坏人工智能的研发、设计、运用活动的行为予以规制ꎮ① 人工智能作为国家计策的主要内容ꎬ不仅关系到公民福祉与社会变革ꎬ更关系到国家综合实力的提升ꎮ 人工智能领域的竞争终将成为天下范围内紧张国家竞争的主沙场之一ꎮ 因此ꎬ人工智能的研发、设计、运用属于刑法尚未涉足的法益ꎬ可置于«刑法»分则第六章妨害社会管理秩序罪中ꎮ 综不雅观刑法分则条文ꎬ对付一样平常的妨害人工智能发展的活动更适宜置于妨害社会管理秩序罪一章中ꎮ 一方面ꎬ一样平常的妨害人工智能发展的活动尚未上升到国家安全的地步ꎬ而特殊的危害公共安全行为可再设立罪名予以规制ꎻ另一方面ꎬ这一专节的立法构想紧张是保护人工智能ꎬ而非针对利用人工智能进行犯罪的行为ꎮ 现有章节无法涵括新涌现的法益类型ꎬ而必须通过设立"妨害人工智能发展罪"专节进行规制ꎬ比如设立扰乱人工智能发展活动罪、造孽供应人工智能技能罪等ꎮ 对此ꎬ可在«刑法»分则第六章妨害社会管理秩序罪中增设第十节"妨害人工智能发展罪"ꎮ
(二)人工智能事件的主体归责人工智能运用于信息、生命、材料、能源、环境等各领域时也会伴随相应的风险ꎬ人工智能的研发
者、利用者对可能存在的风险ꎬ应负有一定的把稳责任ꎮ 因违反把稳责任所致的重大事件ꎬ可归责于人工智能研发者、利用者ꎮ 例如ꎬ无人驾驶汽车的设计者应对可预测的危险承担把稳责任ꎬ因设计毛病或程序偏差而导致事件的ꎬ存在归责空间ꎮ 过失落犯罪的成立取决于三点:一是违反把稳责任ꎻ二是对危害结果的预见可能性ꎻ三是危害结果发生ꎮ 结果回避可能性作为犯罪阻却事由ꎬ并非过失落犯罪的成立要件ꎮ 应该看到ꎬ在弱人工智能时期ꎬ前置性法律法规应进行构建与完善ꎬ这是把稳责任的主要乃至唯一来源ꎮ 我国现行刑法中存在类似的立律例ꎮ 例如ꎬ«刑法»第 131-139 条皆是违反前置性法律法规并导致重大伤亡事件可归责的立律例ꎮ 对人工智能设计者、利用者的归责立法也可比照此类立律例进行ꎮ 笔者认为ꎬ人工智能领域过失落犯罪的归责根本是危险掌握原则ꎮ 危险掌握原则ꎬ是指一个人如果其不能防止事情的发生ꎬ便是对事态不能掌握ꎻ如果事态是行为ꎬ其应该能不为该行为ꎻ如果是后果ꎬ其该当能防止后果发生ꎻ如果是意图ꎬ其该当能不具有这个意图等等ꎮ② "根据危险掌握原则ꎬ未能掌握危险的发生ꎬ是行为人归责的根本ꎮ 详细地说ꎬ掌握危险是行为人的责任ꎬ如果行为人有能力避免危险的发生ꎬ却未履行掌握的责任ꎬ甚至发生危险的ꎬ就应该对此承担刑事任务ꎮ"③因此ꎬ对付那些违反人工智能管理法规ꎬ有能力避免或掌握危险者ꎬ如果因没有掌握危险而导致危害后果发生的ꎬ应可就危害结果进行归责ꎮ
须要把稳的是ꎬ把稳责任和危害结果预见可能性仍须要详细化ꎮ 由于人工智能领域的把稳责任有其分外性ꎬ必须根据人工智能的特点进行对应设定ꎮ 第一ꎬ可参照人工智能的通畅行业标准ꎮ 虽然目前尚未有通畅行业标准ꎬ但可以预见的是ꎬ天下范围内的人工智能研究浪潮一定会天生天下公认的通畅行业标准或规则ꎬ类似于工业 ISO 标准等ꎬ这部分属于最范例的把稳责任来源ꎮ 第二ꎬ可参照人工智能的伦理设计规范与底线原则等来确定把稳责任ꎮ④ 显而易见ꎬ人工智能设计者如若抛弃伦理设计规范与底线原则ꎬ将会使得人工智能极易失落控并侵害人类ꎬ导致极大的危险ꎬ故而这是范例的犯罪行为ꎮ 例如ꎬ智能机器人不得侵害人类、不得参与军事打击活动等ꎬ均是基本的人工智能伦理设计规范与底线原则ꎮ 第三ꎬ人工智能详细运用行业的分外规范ꎮ 不同领域内的人工智能有着不同的设计哀求ꎮ 例如ꎬ医用机器人一定会面临医疗式侵害的难题ꎬ此时便不可能适用一样平常人工智能设计者、利用者的把稳责任ꎮ 应根据医疗行业进行分外的设计以钻营利益衡量结果的可接管性ꎮ
对危害结果的预见可能性的理解决定了人工智能设计者、利用者是否会被归责ꎮ 一样平常而言ꎬ刑法上过失落犯罪的预见可能性包含了对详细犯罪事实及因果关系的预见可能性ꎮ 有不雅观点认为ꎬ无法肯定人工智能设计者的预见可能性ꎬ且不能将预见可能性理解为"大概可能会对人造成危险"这样的抽象内容ꎬ否则会导致惩罚的漫无边际ꎮ① 笔者原则上赞许此不雅观点ꎬ但笔者认为ꎬ人工智能设计者的预见可能性完备可以转化为对前置性法律法规的违反结果预见可能性ꎮ 只要违反了前置性法律法规便可推定其具有对危害结果预见可能性ꎬ在危害结果发生的情形下ꎬ只要没有相反证据推翻即成立过失落犯罪ꎮ 如此ꎬ既不会导致惩罚漫无边际ꎬ也可使得人工智能设计者、利用者得就其违反把稳责任行为承担刑事任务ꎮ 例如ꎬ对付无人驾驶汽车所致的事件ꎬ若非"搭客"缘故原由所致ꎬ而是因运营企业、开拓企业存在违反把稳责任行为所致的ꎬ则应对运营企业、开拓企业予以归责ꎮ
当然ꎬ上述归责原则仅适用于强人工智能时期未至之时ꎬ一旦强人工智能时期到来ꎬ人工智能设计者、利用者的任务范围将会被极大压缩ꎮ② 一定程度上说ꎬ强人工智能因具备自主意识而可自行卖力ꎬ彼时ꎬ人工智能设计者、利用者则一样平常不卖力ꎮ
三、人工智能刑事立法的详细构筑
人工智能刑事立法的目的、原则与基本构想是人工智能刑事立法详细构筑的来源与根本ꎮ 抽象构想仍须要通过对详细条文的修正与设置来实现ꎮ 因此ꎬ基于上述内容ꎬ笔者紧张就弱人工智能时期的人工智能刑事立法提出以下详细构筑建议ꎮ
(一)修正侵害打算机信息系统类犯罪由于目前人工智能技能的实现仍须要以打算机信息系统作为媒介与根本ꎬ因此宜将«刑法»第
285、286 条规定的造孽侵入打算机信息系统罪ꎬ造孽获取打算机信息系统数据、造孽掌握打算机信息系统罪ꎬ供应侵入、造孽掌握打算机信息系统程序、工具罪ꎬ以及毁坏打算机信息系统罪等犯罪的工具从打算机信息系统扩大至打算机信息系统和人工智能系统ꎮ 人工智能系统虽然属于新时期的"打算机信息系统"ꎬ但将其在法条中予以明确ꎬ能够起到辅导法律实践、避免争议的效果ꎬ同时也能够较好地保护人工智能的发展ꎮ 无论是国家ꎬ还是个人、公司的人工智能系统均可通过对该类犯罪的修正得到充分保护ꎮ 当然ꎬ构成«刑法»第 285、286 条的犯罪均须要"违反国家规定"ꎬ因此两个刑法条文的修正须要一并修正或增加干系国家规定ꎮ 从国家规定层面来看ꎬ对人工智能国家规定的修正必须充分认识到应基于发展优位的态度ꎬ对付人工智能技能的前期管控不宜太严、太细ꎬ仅应对严重危害人工智能系统的行为设置深究刑事任务条款ꎮ
此外ꎬ须要指出的是ꎬ在不久将至的聪慧社会中ꎬ人工智能将会各处可见ꎬ人类与人工智能将会时候保持紧密联系与打仗ꎮ③ 由此ꎬ如果行为人造孽掌握人工智能系统履行危害公共安全的行为ꎬ将超出造孽掌握人工智能系统罪的范畴ꎬ而被纳入以危险方法危害公共安全罪中ꎮ 也即当扰乱公共秩序的造孽掌握人工智能行为达到了足以危害公共安全的程度时ꎬ便可定性为以危险方法危害公共安全罪ꎮ
(二)修正交通闹事罪对付弱人工智能时期的无人驾驶汽车ꎬ由于乘坐人的"司机"身份尚未转变为"搭客"ꎬ智能机器
人并不具有独立承担刑事任务的能力ꎬ因而交通闹事罪的主体尚限于一样平常自然人ꎮ 弱人工智能对交
通闹事罪适用上的冲击紧张表现为无人驾驶汽车因程序出错而导致的交通事件难以进行归责的情
形ꎬ个中紧张有以下两个问题须要通过修正交通闹事罪来办理ꎮ第一个问题是刑事任务承担主体的确定ꎮ 对付无人驾驶汽车因程序出错而导致的交通事件应由
谁来承担刑事任务的问题ꎬ学界紧张存在汽车制造商和软件供应商两种不雅观点ꎮ 第一种不雅观点认为ꎬ汽车制造商须要担保汽车能够进行安全、有效的行驶活动ꎬ否则将承担生产问题产品的罪过ꎮ① 第二种不雅观点认为ꎬ软件供应商被视为操作汽车的人而构成犯罪ꎮ② 这种情形下ꎬ每每存在缺点的编程或软件技能ꎮ 笔者认为ꎬ这里实在紧张是任务分配的问题ꎬ决定任务分配的并不是刑法ꎬ而是人工智能政策ꎮ简而言之ꎬ无人驾驶汽车的发展须要给予汽车制造商、软件供应商较多的法律空间去"试错"ꎬ暂且不宜将这两者作为交通闹事罪的主体ꎮ 首先ꎬ汽车制造商不可能预见到交通事件的发生而不进行汽车安全功能上的改进ꎬ人工智能汽车本身的"行为"也是取决于当时的环境和软件程序ꎬ并不是汽车制造商所能预见与决定的ꎮ 其次ꎬ软件供应商进行编程时只能进行假设与仿照ꎬ不可能穷尽所有交通事件类型ꎬ对付涌现的交通事件ꎬ软件供应商并没有实际参与操作与选择ꎬ没有承担任务的条件和根本ꎮ末了ꎬ"将大量本色的任务施加于自动技能和汽车的制造商是目光短浅的ꎬ由于它会阻碍自动汽车及时进入市场"ꎮ③ 况且ꎬ传统的交通闹事罪都不会将汽车制造商、软件供应商纳入刑事任务主体范围中ꎮ 因此ꎬ原则上应由无人驾驶汽车的利用者承担交通闹事罪的刑事任务ꎮ 待日后无人驾驶汽车家当成熟且干系交通安全管理规范制订之时ꎬ方可考虑将汽车制造商、软件供应商违反安全保障类把稳责任的行为定罪ꎮ 特殊是在无人驾驶汽车的利用者没有违反干系操作规范ꎬ而仅因汽车或软件出错所致事件的环境下ꎬ很大程度上就存在汽车制造商、软件供应商构成交通闹事罪的空间ꎮ
第二个问题是把稳责任的干系问题ꎮ 自动驾驶车辆犯罪的把稳责任详细包括三类:一样平常交通运输管理法规ꎻ有关自动驾驶车辆的特殊交通运输管理法规ꎻ任务主体对产品的承诺与规范ꎮ④ 针对无人驾驶汽车的利用者而言ꎬ违反有关自动驾驶车辆的特殊交通运输管理法规ꎬ造成交通事件的ꎬ可构成交通闹事罪ꎻ针对汽车制造商、软件供应商而言ꎬ违反对产品的承诺与规范ꎬ即违反安全保障责任的ꎬ可能构成交通闹事罪ꎮ 须要把稳的是ꎬ发明无人驾驶汽车的目的是为理解放人类的双手ꎬ以是不宜对利用者课以严苛的把稳责任ꎬ否则将本末倒置ꎮ 但是可以就汽车本身的保养、安全管理提出更高的哀求ꎬ以适应高精尖人工智能产品的独特性ꎮ 与此同理ꎬ汽车制造商、软件供应商也是在试错过程中不断完善汽车与软件程序ꎬ但如果就已经涌现过的同类型事件ꎬ却未在合理期间内进行安全保障方面完善ꎬ甚至再度发生同类型事件的ꎬ可认定为违反对产品的承诺与规范并构成交通闹事罪ꎮ
至于对交通闹事罪条文的修正办法ꎬ笔者认为ꎬ可以在«刑法»第 133 条中增设第二款:"汽车制造商、车载操作软件供应商违反交通运输产品管理法规ꎬ甚至发生重大事件的ꎬ依照前款规定定罪惩罚ꎮ"
(三)修正危险驾驶罪危险驾驶罪的修正一定紧随于交通闹事罪ꎮ 显而易见的是ꎬ本罪的干系理论内容可参照交通肇
事罪ꎮ 然而ꎬ笔者认为ꎬ汽车制造商、软件供应商不宜被纳入本罪的范围ꎮ 危险驾驶罪不同于交通闹事罪存在"违反交通运输管理法规"的规定ꎬ而是进行了列举式立法ꎮ 危险驾驶罪紧张是规制道路交通畅驶中的危险行为ꎮ 从无人驾驶的运行机制来看ꎬ这一危险行为来源于利用者而非汽车制造商与软件供应商ꎮ无人驾驶汽车利用者答允担积极安全保障责任与禁止危险责任ꎮ 上文所述的有关自动驾驶车辆
的特殊交通运输管理法规应增设无人驾驶汽车驾驶者的积极责任与禁止责任ꎮ 积极安全保障责任ꎬ是指驾驶者有责任就无人驾驶汽车的安全性能、人工智能系统进行定期的特殊掩护、保养与检修ꎮ 不同于普通汽车皆可由驾驶者掌握ꎬ无人驾驶汽车发生交通事件之时ꎬ利用者每每没有韶光做出任何反应ꎬ这时候就须要人工智能系统和汽车本身的反应与制动ꎮ 如果利用者明知无人驾驶汽车和人工智能系统未进行定期掩护、保养与检修ꎬ仍进行利用的ꎬ则可构成本罪ꎮ 当然ꎬ该积极责任须要由有关自动驾驶车辆的特殊交通运输管理法规进行规定ꎮ 禁止危险责任ꎬ是指汽车自动驾驶期间ꎬ禁止做出可能导致事件发生的危险行为ꎮ 例如ꎬ行为人溘然关闭人工智能系统ꎬ且不进行人工驾驶ꎮ 禁止危险责任的确立须要根据实践中多发情形进行履历总结与类型剖析ꎬ笔者在此不作赘述ꎮ
至于对危险驾驶罪条文的修正办法ꎬ笔者认为ꎬ可以在«刑法»第 133 条之一第 1 款中增设第五项:"(五)违反自动驾驶安全管理规定利用无人驾驶汽车ꎬ危及公共安全的ꎮ"
(四)增设人工智能重大安全事件犯人工智能运用于公共安全的各个领域时ꎬ存在失落控并导致事件发生的风险ꎮ 笔者认为ꎬ如果该事
故系因人工智能的设计者、利用者或干系职员未遵守人工智能管理法规所致ꎬ则可通过增设人工智能重大安全事件罪进行惩罚ꎮ
«刑法»第 131-139 条规定了各种事件犯罪ꎬ包括翱翔、铁路、交通、劳动、工程、教诲举动步伐、消防等ꎮ 这些均属于与公民重大人身财产安全紧密干系的领域ꎮ 应该看到ꎬ对付人工智能领域重大安全事件的发生ꎬ上述罪名并不能进行规制ꎮ 人工智能所致事件显然既不属于交通领域ꎬ也不属于工程、消防领域ꎮ 即便是重大任务事件罪ꎬ也很难原谅评价人工智能所致事件ꎮ 生产、作业一样平常是指工厂、矿山、林场、建筑等企业的日常经营活动ꎬ属于比较低级的工业活动ꎬ与人工智能研发、实验活动相去甚远ꎮ 在一个具有高度危险性领域进行的活动ꎬ却没有相应罪名进行规制ꎬ显然不甚妥当ꎮ 特殊是人工智能运用范围极广ꎬ切实关系到公共安全ꎮ 此外ꎬ对付将人工智能运用于原有的翱翔、铁路、交通、劳动、工程、教诲举动步伐、消防领域造成事件的ꎬ可以认为与人工智能重大安全事件罪形成竞合ꎬ从一重罪惩罚ꎮ
由于人工智能重大安全事件罪属于危害公共安全罪ꎬ因而构成本罪须以违反涉及公共安全的人工智能管理规定为条件ꎮ 人工智能重大安全事件一样平常包括运用于公共安全的人工智能事件ꎬ以及虽未运用于公共安全但因失落控而导致的公共安全事件ꎮ 此外ꎬ本罪属于行政犯ꎬ实质上是因行为人违反了人工智能安全管理责任所致ꎬ以是须要把稳刑事惩罚与行政惩罚的衔接ꎬ避免过度刑法化ꎬ甚至阻碍人工智能的发展ꎮ 人工智能管理规定属于前置性法律法规ꎬ应该由国务院进行制订ꎬ且须要规定"构成犯罪的ꎬ依法深究刑事任务"的内容ꎮ
对付人工智能重大安全事件罪ꎬ笔者认为ꎬ可以增设«刑法»第 139 条之二:"人工智能设计者、运营者、利用者违反人工智能管理规定ꎬ因而造成重大伤亡事件或造成其他严重后果的ꎬ处三年以下有期徒刑或者拘役ꎻ情节特殊恶劣的ꎬ处三年以上七年以下有期徒刑ꎮ"
(五)增设扰乱人工智能活动罪应该看到ꎬ人工智能的研发、运用等活动具有独立保护之必要ꎮ① 一方面ꎬ人工智能的研发、运用
等活动关系到我国新型社会变革的推进与发展ꎬ属于影响国家综合实力的主要科技ꎻ另一方面ꎬ人工智能的研发、运用等活动切实关系到公民重大人身、财产安全ꎮ 特殊是在人工智能愈发遍及的未来聪慧社会中ꎬ人工智能的研发、运用均切实关系到公民利益与社会发展ꎮ 此外ꎬ无论是涉国家秘密类罪名ꎬ抑或是打算机信息系统类罪名ꎬ均有其自身的局限性而无法对扰乱或毁坏此类技能研发、运用等活动的行为进行规制ꎮ 因此ꎬ独立设置扰乱人工智能活动罪具有正当性和必要性ꎮ扰乱不仅包含物理设备意义上的毁坏、滋扰ꎬ也包含了通过病毒等干涉人工智能的技能发展ꎮ 刑
法中的扰乱紧张是指抽象意义上的秩序被毁坏ꎬ例如扰乱法庭秩序罪、聚众扰乱社会秩序罪等ꎮ 扰乱人工智能活动罪实质上也是人工智能活动秩序被毁坏ꎬ尤其是涉及研发、运用的秩序ꎬ落实到详细行为上ꎬ既可以是物理设备意义上的毁坏、毁损ꎬ也可以是抽象、虚拟意义上的病毒植入、数据修正等毁坏活动ꎮ
对付扰乱人工智能活动罪ꎬ可以在«刑法»分则第六章中增设第十节"妨害人工智能发展罪"时规定一个条文:"违反国家规定ꎬ滋扰人工智能研发、运用等活动的正常进行ꎬ情节严重的ꎬ处三年以下有期徒刑或者拘役ꎻ情节特殊严重的ꎬ处三年以上七年以下有期徒刑ꎮ"
(六)增设造孽供应人工智能技能罪应该看到ꎬ人工智能技能一旦失落去管控ꎬ不仅可能被胆怯活动组织、黑社会性子组织等用于制造
大规模杀伤性机器人ꎬ更有可能导致人工智能本身失落控ꎬ造成奇点来临ꎮ 以是ꎬ有必要对造孽供应人工智能技能的行为进行刑法规制ꎬ以保障人工智能技能不会失落去管控甚至危及公共安全与秩序ꎮ 然而ꎬ«刑法»第 111 条规定的境外盗取、密查、收买、造孽供应国家秘密、情报罪无法规制造孽供应人工智能技能的行为ꎮ 第一ꎬ人工智能技能不一定都属于国家秘密ꎮ 如果行为人造孽供应、买卖不属于国家秘密的人工智能技能的ꎬ就难以被«刑法»第 111 条所原谅评价ꎮ 第二ꎬ«刑法»第 111 条仅针对将国家秘密供应给境外职员或组织的环境ꎬ对付供应给境内人员或组织的环境ꎬ该条款无法进行规制ꎮ因此ꎬ独立设立造孽供应人工智能技能罪实有必要ꎮ
对付造孽供应人工智能技能罪ꎬ同样可以在«刑法»分则第六章中增设第十节"妨害人工智能发展罪"时规定一个条文:"违反国家关于人工智能技能的管理规定ꎬ造孽将人工智能技能供应给他人或组织的ꎬ情节严重的ꎬ处三年以下有期徒刑或拘役ꎮ 情节特殊严重的ꎬ处三年以上七年以下有期徒刑ꎮ"
(七)增设造孽利用人工智能罪造孽利用人工智能进行犯罪的行为ꎬ系指利用人工智能为履行其他犯罪创造条件、环境ꎬ但又不
与其他犯罪构成共犯的行为ꎮ 应该看到ꎬ该类行为系人工智能时期犯罪的新手段、新形式ꎬ具有非常明显的犯罪放大、增益效应ꎬ其社会危害性之严重不言自明ꎬ故而须要通过增设造孽利用人工智能罪进行规制ꎮ 对此ꎬ可参照«刑法»第 287 条之一造孽利用信息网络罪进行设立ꎬ详细可在ꎬ可以在«刑法»分则第六章中增设第十节"妨害人工智能发展罪"时规定一个条文:
"利用人工智能履行违法犯罪ꎬ情节严重的ꎬ处三年以下有期徒刑或者拘役ꎬ并处或者单惩罚金ꎻ单位犯前款罪的ꎬ对单位判惩罚金ꎬ并对其直接卖力的主管职员和其他直接任务职员ꎬ依照第一
款的规定惩罚ꎮ有前两款行为ꎬ同时构成其他犯罪的ꎬ依照惩罚较重的规定定罪惩罚ꎮ"
本文系作者个人观点,不代表本站立场,转载请注明出处!