面对人工智能带来的风险有两种应对办法_人工智能_风险
对外经济贸易大学兼职教授邵长茂在《数字法治》撰文指出:
人工智能正在一点一点地当然也是迅速地颠覆着人类既有的社会构造、组织形式和生活状态。在这个过程中,一定会有大量的、意想不到的风险涌现。对付这些风险,有两种应对办法:一种是搭建法治轨道,另一种是划出法治边界。
搭建法治轨道,便是设定目的地,至少有明确的方向;严格的过程掌握,以及标准化的流程;对发展规律的全面把握,加上完备的制度体系。比如,正在制订的欧盟《人工智能法案》哀求在人工智能发展过程中进行前置方案和连续监督,以严格严密的规范体系勾引技能前行,这便是范例的轨道性立法。但是,对我国而言,人工智能立法宜采取法治边界模式而造孽治轨道模式。这是由于,人工智能还处于质变前夜,方向未明,标准的制式监管既不现实更不合时宜。实际上,欧盟法案也建立了监管沙盒机制,许可并不成熟的技能与社会直接打仗,通过监管上的极大松动和更加灵巧的机制为人工智能发展拓展空间。
划出法治边界,便是在法律上划出人工智能发展不能超出的红线,并列明详细的负面清单。详细来说,应基于家当发展、权利保护、伦理守卫三原则,分别从技能、社会和伦理的层面研究与应对风险。就技能层面而言,至少有三类风险:人工智能技能自身导致的不愿定风险,人工智能偏离设计运用的风险,人工智能技能被造孽利用、滥用的风险。就社会层面而言,至少有三类风险:算法歧视、深度假造、缺点信息等造成的混乱和失落序,个体失落业和社会失落常风险,经济上的过分不平等和权力过分集中风险。就伦理层面而言,至少有三类风险:反人类的风险,异化人类的风险,奴役人类的风险。
为了有效管控风险,可从三个维度建立类型化、立体式的监管体系,提升监管方法的区分度和颗粒度。一是区分运用处景。基于人工智能技能广泛运用于政务、金融、医疗、教诲、交通、零售、物流等领域的实际,区分不同的业务场景和行业场景制订监管政策。二是区分清单内外。在清单内的应该适用容许制,并进行全程监管;在清单外的,可适用备案制,并进行重点环节监管。三是区分风险程度。对不同种别以及不同程度的风险进行分类分级,适用不同的监管政策。类型化的处理办法是由人工智能的特性决定的,有效的人工智能技能无疑便是一种“邪术”,能够带来颠覆性变革,让生活更美好,当然也可能更糟糕。人工智能立法应基于不同的风险环境,明确完备禁止、部分禁止、有条件开放、完备开放的范围,明确事前容许、事前备案、事后备案、完备自主的环境,明确全程监管、重点环节监管、无需监管的条件。
本文系作者个人观点,不代表本站立场,转载请注明出处!