推动人工智能安然成长_人工智能_数据
夯实人工智能发展的安全根本
加快推动人工智能发展,需如何应对潜在风险、把握计策主动?
单志广(国家信息中央信息化和家当发展部主任、国家大数据发展专家咨询委员会秘书长):***大报告提出,推进国家安全体系和能力当代化,武断掩护国家安全和社会稳定。人工智能是引领新一轮科技革命和家当变革的计策性技能,同时也具有明显的“双刃剑”特色。一方面,人工智能赋能网络攻防、开源情报等国家安全干系领域,是筑牢国家安全樊篱的有力抓手;另一方面,人工智能因其薄弱性、不稳定性、不可阐明性等特点,在与经济社会深度领悟运用的过程中,极易引发国家、社会、企业和个人等层面的安全风险。在席卷环球的人工智能浪潮中,如何应对人工智能风险、把握发展计策主动、有效掩护和保障国家安全,是国家管理的主要议题。
近年来,国家高度重视人工智能安全发展,逐步完善干系政策法规。***印发《新一代人工智能发展方案》提出面向2030年我国新一代人工智能发展的辅导思想、计策目标、重点任务和保障方法,支配构筑人工智能发展的先发上风,加快培植创新型国家和天下科技强国。面向算法管理,出台《关于加强互联网信息做事算法综合管理的辅导见地》《互联网信息做事算法推举管理规定》等。面向人工智能合成技能的快速打破,出台《互联网信息做事深度合成管理规定》《天生式人工智能做事管理暂行办法》等。在环球数字经济激烈竞争格局下,科学把握风险戒备的尺度至关主要。2023年7月24日中共中心政治局会议强调“促进人工智能安全发展”,表示了坚持统筹发展和安全、坚持发展和安全并重的理念,开释了以人工智能技能引发数实领悟新动能、打造高质量发展新引擎的积极旗子暗记。
推动人工智能家当快速发展,要把保障数据安全放在突出位置。
第一,数据是数字经济时期的关键生产要素,保障数据安全是促进人工智能安全发展的主要根本。我国2022年数字经济规模逾50万亿元,总量稳居天下第二,占GDP比重41.5%,数据量呈爆发式增长态势。随着数据要素规模不断扩大,以人工智能为代表的数字技能将实现知识与数据双轮驱动,数据代价得到进一步开释,生产资源配置、生产运营逻辑以及生产、分配、流利和消费关系等得以重塑,生产办法和生产关系发生变革,赋能传统家当转型升级,助力数字经济快速发展。同时,也伴随着数据透露、虚假信息、算法歧视等数据安全新问题。只有筑牢数字安全樊篱,才能为人工智能发展保驾护航。
第二,人工智能家当快速发展过程中显现出数据安全领域的风险寻衅。当前,人工智能进入快速发展期,应高度关注并有效应对随之而来的问题。例如,神经网络具有“黑盒”特点,导致人工智能存在不可阐明性;深度学习对演习样本过度依赖,导致学习结果的不可剖断性;神经网络前向推进的不可逆,导致结果的不可推论性。此外,漏洞、后门等引发的问题交织叠加,使得人工智能运用系统的数据安全问题变得更加繁芜。针对IT行业领导者进行的一项关于ChatGPT等大模型的调查显示,安全性是受访者最关心的问题,71%的受访者认为天生式人工智能会给企业的数据安全带来新的风险。为了防止敏感数据外流,微软、亚马逊等科技公司已相继限定或禁止其员工利用天生式人工智能工具。可见,全面加强人工智能数据安全保障体系和能力培植已成为应对新形势新寻衅的一定之举。
人工智能时期的数字安全威胁到底有多大?一方面,人工智能系统自身面临多维度安全风险。技能内生风险和系统衍生风险交织叠加,使得人工智能时期的安全问题非常繁芜。数据安全风险方面,人工智能依托海量数据发展,有敏感信息透露风险,且人工智能平台网络的原始数据与衍生数据的归属权、掌握权和利用权目前在法律上尚难界定;算法模型安全方面,安全风险贯穿数据采集、预处理、模型演习、模型微调、模型支配运用等人工智能模型构建的全生命周期;外部攻击安全方面,数据投毒、模型后门、对抗样本、数据透露、模型盗取、软件漏洞等安全隐患习认为常。
另一方面,人工智能技能滥用带来数字安全威胁。当前,天生式人工智能的发展标志着人工智能正在从专用智能迈向通用智能,进入了全新发展阶段。大部分传统人工智能模型的安全风险仍旧存在,同时天生式人工智能也有一些特有的问题:技能软肋难以避免,易造就假信息“温床”;利用办法大略便捷,易形成失落泄密“陷阱”;新兴技能尚难监管,易成为信息战“武器”。
因此,亟需加强人工智能发展的潜在风险研判和戒备,确保人工智能安全、可靠、可控。
完善数据安全监管体系
我国在创新人工智能技能手段及完善数据安全监管方面取得哪些成效?
陈凤仙(中国电信研究院高等剖析师):党中心高度重视人工智能安全发展问题,环绕家当发展、科技伦理、算法管理及行业运用安全等方面,加快人工智能安全技能创新,逐步形成一套较为完善的发展政策和法规体系,确保掩护国家安全和社会公共利益。据统计,我国人工智能核心家当规模达5000亿元,算力总规模位居环球第二。
在规范人工智能科技伦理方面,陆续发布《新一代人工智能管理原则——发展负任务的人工智能》《新一代人工智能伦理规范》等,积极勾引全社会负任务地开展人工智能研发和运用。2023年5月,工信部科技伦理委员会、工信领域科技伦理专家委员会正式成立,进一步加强科技伦理审查和监管。
在强化人工智能算法管理方面,我国在规制天生式人工智能领域率先推出多项有力举措。国家互联网信息办公室等部门2022年11月联合发布《互联网信息做事深度合成管理规定》,明确天生式人工智能运用做事供应者、技能支持者和做事利用者等各方法定义务;2023年7月联合发布《天生式人工智能做事管理暂行办法》,鼓励天生式人工智能创新发展,对天生式人工智能做事实施原谅谨严和分类分级监管。
在人工智能环球管理互助方面,我国积极参与、多方实践,取得主要进展。2022年11月,我国向联合国《特定常规武器公约》缔约国大会提交《中国关于加强人工智能伦理管理的态度文件》,提出人工智能管理要坚持伦理先行、加强自我约束、强化任务担当、鼓励国际互助等多项主见,表明了推动各方共商共建共享、加强环球管理、积极构建人类命运共同体的中国态度。2023年4月,我国向联合国提交《中国关于环球数字管理有关问题的态度》,明确表示各国应在普遍参与的根本上,通过对话与互助,推动形成具有广泛共识的人工智能国际管理框架和标准规范。
与此同时,我国将数据安全放在保障人工智能安全发展的突出位置,大力推动数据资源培植,强化安全防护技能手段迭代升级,完善数据安全监管体系,取得明显成效。
稳步推进数据根本制度构建、数据资源供给和流利利用。在国家层面,逐步完善数据资源培植顶层设计,对加快造就统一的技能和数据市场及经营主体、构建数据根本制度等提出明确哀求。2023年10月,国家数据局挂牌成立,推动数据实现从自然资源到经济资产的超过。在地方层面,多地加快造就规范数据交易市场。2022年1月,北京国际大数据交易所率先在全国建立数字经济中介家当体系。截至2023年9月,全国注册成立的数据交易机构已有60家。2023年以来,北京、上海、广东、江西、湖北、贵州等密集发布政策文件,深化数据要素市场改革和创新。为助力大模型运用落地,一些地方积极探索政产学研联合构建高质量数据集。例如,北京启动履行通用人工智能家当创新伙伴操持,发布“北京市人工智能大模型高质量数据集”。国家互联网信息办公室发布《数字中国发展报告(2022年)》显示,2022年我国数据产量达8.1ZB,同比增长22.7%,环球占比10.5%,位居天下第二。
大幅提升依赖技能办理安全风险问题的能力。一方面,网络安全技能创新运用生动。近年来,干系机构持续强化网络安全技能布局及运用,加快推动重点领域和细分环节技能打破、专利布局和标准转化。另一方面,网络安全、数据安全家当快速发展。2022年,我国网络安全家当规模增速约为13.9%。北京、长沙、成渝三大国家网络安全家当园区相继成立,汇聚网络安全企业超500家,10个网络安全创新运用示范区加速培植。2023年1月,工信部等部门印发《关于促进数据安全家当发展的辅导见地》,提出到2025年数据安全家当规模超1500亿元,年复合增长率超30%,推动数据安全家当驶入快车道。
加快推进立法进程,标准体系培植取得阶段性成效。一方面,完善数据安全监管法律依据,推动主要数据和个人信息保护合规水平进一步提升。建立应对数据透露等事件的应急相应机制,及时启动应急预案并妥善处置。另一方面,抓紧研制数据质量、数据安全、算法精确性等技能规范和标准。2023年8月,我国发布人工智能安全根本标准《信息安全技能机器学习算法安全评估规范》。同时,在生物特色识别、智能汽车等人工智能关键运用领域发布多项国家标准,支撑人工智能安全发展。
强化天生式人工智能安全戒备
天生式人工智能引发新一轮智能化浪潮,筑牢数字安全樊篱需采纳哪些新举措?
武虹(中国科协创新计策研究院研究员):天生式人工智能作为大模型、大数据、大算力的产物,在强大算力支持下,借助大型措辞模型将网络到的海量信息进行处理并回运用户的个性化需求,近乎无成本地天生针对特定提问内容编写的答案,是人工智能领域一次出色的集成创新。
也应看到,天生式人工智能并不公开其网络和整理的海量互联网语料、模型架构及演习内容,加之其深度学习算法基于统计事理之上,仅对客不雅观规律进行揭示却无法给予阐明,已构成事实上的数据及技能黑箱,势必会对数据安全模式带来新的扰动。因此,有必要采纳新的应对方法。
一是强化数据全生命周期监督管理。天生式人工智能语料库的大规模集聚将带来包含数据采集、处理加工、存储及输出等覆盖数据全生命周期的安全问题。数据采集输入阶段,可能会有未经审核的虚假信息入库进而影响语料库质量;数据处理加工阶段,语料库的标注过程可能故意识形态和代价不雅观影响风险,同时算法也可能会有相称程度的方向性勾引,其运算结果又会被潜移默化地注入后续数据处理;数据输出阶段,更是存在非真实天下批量自动产生的海量数据被当作新的语料库,产生后续迭代风险。因此,建议进行数据全生命周期的安全体系构建。例如,针对个人隐私及知识产权等数据,通过隐私打算及区块链等强化数据安全戒备力度;针对医疗、金融、电商等重点行业,通过访问掌握、安全可信打算环境等技能手段加强防护。
二是提升对攻击性人工智能的戒备意识。攻击性人工智能常日分为两种形式,即“利用人工智能的攻击”和“攻击人工智能”。随着天生式人工智能技能快速提升,网络攻击者编写恶意代码以及履行数据攻击的技能门槛大大降落。同时,大模型也面临被注入特定勾引词以勾引其输出假造数据乃至违法答案等间接数据安全风险。传统的本钱高昂的攻击手腕,向分布式、智能化、自动化方向演进。建议推动以企业为主体、基于人工智能的新一代数据安全防护等专项研究;鼓励干系行业的科技领军企业发布横向课题,联合高校及科研院所开展协同攻关;通过风险投资勾引初创公司将成果运用于数据安全对抗业务,促进以企业运用为导向的天生式人工智能对抗模型产学研一体化创新体系构建。
三是完善国家层面的数据安全计策方案及顶层设计。天生式人工智能在进行人类对话、推理和翻译写作时,给人类的信息掌控及自主决策能力等带来寻衅。同时,天生式人工智能也极大促进了交互式数据的迭代输出与自动传输,增加了危及国家数据主权、信息与网络空间安全的潜在风险。面对天生式人工智能引发的不愿定性,需提前研判可能的安全风险,建立健全政府、企业与社会等沟通互换机制,探索推动多方互助的管理模式,加速构建国家层面数据安全计策方案和大模型监管运用法律支撑,通过夯实自主可控新基培植施、加快行业自治规范与国家逼迫性法律法规等协同体系构建,以及发起或加入单边及多边协议或同盟等办法,巩固国家数据安全防线。
从国际上看,在天生式人工智能安全戒备方面,一些国家的履历做法值得借鉴。例如,欧盟2021年提出《人工智能法案》草案,旨在基于风险识别剖析方法为人工智能制订统一的法律监管框架和规制体系。2023年12月,欧洲议会、欧盟委员会和27个成员国会谈代表就该法案达成协议,针对ChatGPT等天生式人工智能工具的透明度问题做出相应规定,个中包括由人工智能天生的内容需供应受版权保护的演习数据集择要等,还对人工智能风险级别进行了划分,并给出对应的监管哀求。美国白宫2022年发布《人工智能权利法案蓝图》,将公正和隐私保护视为法案的核心宗旨。2023年1月,美国国家标准技能研究院发布人工智能风险管理框架,供应系统化评估路径,将人工智能的风险管理分为管理、映射、丈量和管理4个模块。个中,管理模块紧张针对人工智能系统全生命周期实施有效风险管理机制;映射模块紧张用于明确特定场景与其对应的人工智能风险办理方案;丈量模块紧张采取定量、定性或稠浊工具,对人工智能系统风险和潜在影响进行剖析、评估、测试和掌握;管理模块紧张针对系统风险进行剖断、排序和相应,明确风险相应步骤,定期监控记录并完善风险相应和规复机制。
可见,天生式人工智能更要兼顾发展与安全,重视戒备风险与原谅谨严平衡,从而更好推动经济高质量发展。
来源: 经济日报
本文系作者个人观点,不代表本站立场,转载请注明出处!