2024世界人工智能大年夜会|多位专家共话AI的成长、安然与治理_全球_人工智能
在当天上午举办的大会全体会议上,清华大学苏世民书院院长、清华大学人工智能国际管理研究院院长薛澜的开场演讲引人瞩目。薛澜指出,AI的发展也面临着根本举动步伐、数字素养以及技能本身不屈衡发展等多重寻衅,这些寻衅被形象地称为“鸿沟”,对环球管理的统一性和效率构成威胁。
薛澜剖析,环球范围内的AI发展不平衡征象日益凸显。一方面,部分地区由于根本举动步伐掉队,无法充分开释AI技能的潜力;另一方面,数字素养的差距也在加剧,导致社会群体间的数字鸿沟日益扩大。此外,AI技能发展的不屈衡,也引发了环球范围内的智力资源不均等问题。“这些寻衅并非局限于单一国家或地区,而是具有环球性的普遍影响。在环球化的本日,一个国家的风险每每能迅速转化为环球性的风险。因此,国际社会须要共同应对这些寻衅,推动环球AI的均衡、康健发展。”
薛澜建议,首先,国际社会在推动AI发展的同时,应高度重视安全问题,将安全与发展置于同等主要的地位。各国政府和企业应共同加强网络安全防护,确保AI技能的安全可控。其次,加强国际互换与互助。通过多边对话机制,加强政府间的互换与互助,分享履历、传播知识,共同应对环球性的AI寻衅。同时,鼓励国际科技力量参与环球AI管理,推动环球AI的均衡发展。
此外,发挥科学共同体的浸染。薛澜表示,应借助科学界的力量,推动国际机制的完善与改进,为AI的康健发展供应有力保障。同时,加强科研互助,共同占领AI领域的技能难题。“政府、企业以及科研机构应携手互助,共同推动AI技能的创新与运用。通过加强国际互助,冲破技能壁垒,推动环球AI家当的繁荣发展。”
上海人工智能实验室主任、首席科学家,清华大学惠妍讲席教授周伯文谈到AI潜在风险,包括数据风险、恶意利用风险、伦理风险、社会系统性风险、可能的未来风险等5大风险,比如数据透露、数据滥用、隐私陵犯、版权争议、偏见歧视、代价不雅观偏差、信息茧房、就业变革、资源花费、智能鸿沟、深度假造、虚假信息、网络攻击、网络敲诈等,因此他主见探索人工智能45°平衡律,即AI安全优先,又能担保AI性能长期发展的技能体系。
周伯文先容,实现人工智能45°平衡律大概有多种技能路径。上海AI实验室最近在探索一条以因果为核心的路径,取名为:可信AGI的“因果之梯”,可信AGI的“因果之梯”将可信AGI的发展分为三个递进阶段:泛对齐、可干预、能反思。“泛对齐”紧张包含当前最前沿的人类偏好对齐技能;“可干预”紧张包含通过对AI系统进行干预,探究其因果机制的安全技能;“能反思”则哀求AI系统不仅追求高效实行任务,还能核阅自身行为的影响和潜在风险,从而在追求性能的同时,确保安全和道德边界不被打破。
“目前,AI安全和性能技能发展紧张勾留第一阶段,部分在考试测验第二阶段,但要真正实现AI的安全与性能平衡,我们必须完善第二阶段并勇于攀登第三阶段。沿着可信AGI的‘因果之梯’拾级而上,我们相信可以构建真正可信AGI,实现人工智能的安全与卓越性能的完美平衡,并通过深入理解AI的内在机理和因果过程,从而安全且有效地开拓和利用这项革命性技能。”周伯文表示。
在环球管理图灵圆桌环节上,原微软实行副总裁、美国国家工程院外籍院士沈向洋作为话题引领人,与姚期智、罗杰·瑞迪、曼纽尔·布卢姆等三位图灵奖得主,共同以《共论共享共治:管理协同创新探索》为主题,环绕人工智能的发展、风险以及政府管理等话题进行了磋商。
姚期智认为AI风险确实存在,在人工智能时期,网络数据管理将更困难,人类社会构造也可能将在短韶光内被毁坏,面临更危险的生存寻衅。“事实上,是我们自己创造了一种强大的新‘物种’,如果我们什么都不做,那一定会被淘汰,无论是由于打算机的内在机理还是恶意行为者操纵。因此,我们须要精准把握管理和利用AI的精确办法,而这也是科学家们必须面临的深刻问题。”
罗杰·瑞迪表示虽然很高兴大家关注到人工智能所带来的风险,但他更希望外界将目光投向人工智能为人类社会创造的便利及代价。“不要恐怖AI的发展,AI归根结底只是增强人类能力的工具,如何利用这些工具提高效率更值得我们思考。未来,或许由于AI的助力,天下上每个人的生产效率都将上涨10倍。”同时,他提到人才培养对付应对人工智能未来发展的主要代价,并认为当前的教诲体系在一定程度上显得有些跟不上步伐,未能与人工智能的迅猛发展实现同步对接,为此他倡导对现有教诲制度进行改造和完善,以培养出更多能够适应AI时期需求的人才。
文/广州日报新花城:李晓璐、陈庆辉、张露、文静
图/广州日报新花城:李晓璐、陈庆辉、张露、文静
广州日报新花城编辑:李晓璐
本文系作者个人观点,不代表本站立场,转载请注明出处!