全球首个!英美就人工智能安然杀青双边协议_人工智能_美国
此前,联合国大会在3月21日通过了首个关于人工智能的环球决议,呼吁推动开拓“安全、可靠和值得相信的”人工智能系统,以促进可持续发展。欧洲议会也在3月通过了《人工智能法案》。
清华大学打算机系长聘教授,清华大学人工智能研究院视觉智能研究中央主任邓志东见告第一财经,要加大AI领域重大方向性的环球安全监管力度,特殊是对AGI的安全风险进行分级管控。
赶不才一代模型问世之前互助
去年11月,英国新成立了人工智能安全研究所(AISI),美国也在同期表示要设立同类机构,以评估前沿人工智能模型的风险,目前美国已经表示要同200家公司和实体互助。
这次英美的人工智能互助协议将使英美在未来可以相互借调研究职员互换专业知识。两家机构还将共同研究如何独立评估由OpenAI和谷歌等公司建立的私人人工智能模型。据悉双方的互助关系因此英国情报机构英国政府通信总部(GCHQ)和美国国家安全局在情报和安全干系事务上的互助为原本的。
英国科学、创新与技能内阁大臣唐兰(Michelle Donelan)和美国商务部长雷蒙多(GinaRaimondo)在华盛顿共同签署了上述协议。唐兰表示:\公众美国作为人工智能强国,与英国签署这项协议,充分解释了我们在人工智能安全方面的领先地位。”她补充道,由于许多最前辈的人工智能公司目前都在美国,美国政府的专业知识对付理解人工智能的风险和哀求公司履行承诺至关主要。
唐兰并说:\"大众明年是我们真正须要迅速采纳行动的时候,由于下一代(人工智能)模型即将问世,它们可能会彻底改变游戏规则,而我们还不知道它们将供应的全部能力。”
不过,唐兰坚持认为,只管英国对人工智能的安全性进行了研究,并确保设置了防护栏,但由于该技能的发展速率太快,英国并不打算在短期内对其进行更广泛的监管。
唐兰和雷蒙多均表示,须要紧急采纳联合行动来应对人工智能风险。
雷蒙多则表示:”人工智能是我们这一代的决定性技能,拜登政府操持很快宣告其人工智能团队新成员,美方目前正在动用政府全部资源(匆匆成此事)。我们的互助关系表明,我们不是在躲避这些问题,而是在应对它们。由于我们的互助,我们的研究所将对人工智能系统有更好理解,并对人工智能进行更有力评估,发布更严格辅导。”
据悉,英国政府支持的AISI由科技投资人和企业家霍加斯(IanHogarth)担当主席,已经聘请了谷歌DeepMind和牛津大学的精英研究职员,开始测试现有的和未发布的人工智能模型。
OpenAI、谷歌DeepMind、微软和Meta等科技企业则签署了志愿承诺书,将开放其最新的天生式人工智能模型供英国人工智能研究所(AISI)审查。
多纳兰还表示,她和雷蒙多操持谈论共同面临的寻衅,如人工智能对今年即将举行的选举的影响、人工智能打算根本举动步伐的需求等,\"大众分享我们的技能组合,以及我们如何在总体上深化互助,为"大众年夜众谋福利\"大众。
罗兰贝格环球管理委员会联席总裁戴璞(DenisDepoux)接管第一财经采访时表示:“美国虽然没有相应的联邦法律,但一些州已经履行了自己的规定。这凸显了监管机构重视保护消费者隐私、防止技能滥用的趋势。”戴璞说,这种监管转变是积极的,不仅为消费者供应保护,也通过保护数据为公司自身供应了安全,AI领域也将如此。
联大通过环球人工智能监管协议
如前所述,除了英美两国的人工智能互助协议之外,美国也在联合国积极推进该领域规则设立。
联合国大会在3月21日通过的首个关于人工智能的环球决议,是该组织首次就监管人工智能这一新兴领域通过决议。决议草案由美国提交,同时还有120多个会员国成为“共同提案国”或表示支持。
大会强调,就该决议而言,“安全、可靠和值得相信的人工智能系统”是指非军事领域的人工智能系统,必须在其全体生命周期内“尊重、保护和匆匆进人权和基本自由”。
决议同样提出“人们在线下享有的权利也必须在线上得到保护,包括在人工智能系统的全体生命周期内”。
决议表示,各国还认识到,“目前存在人工智能和其他数字方面的鸿沟,国家之间和国家内部的技能发展水平参差不齐,发展中国家在跟上这一迅速加速的步伐方面面临独特寻衅,这对可持续发展造成障碍”。
大会因此“决心弥合国家之间和国家内部的人工智能鸿沟和其他数字鸿沟”,同时“匆匆请会员国并约请其他利益攸关方采纳行动,与发展中国家互助并向其供应声援,以实现原谅和公正地得到数字化转型以及安全、可靠和值得相信的人工智能系统所带来的惠益”。
不过,意大利经济发展部前副部长杰拉奇(Michele Geraci)对第一财经表示,他对环球AI管理并不乐不雅观。“实现创新与监管之间的平衡是一项重大寻衅,尤其是欧盟常常被认为随意马虎过度监管。目前试图通过立法办理问题的方法可能不是最有效的策略。人工智能未来五年的影响和发展轨迹在很大程度上仍无法预测,因此很难设想其潜在运用。这种不愿定性使制订法律来管理一项仍在发展的技能的任务变得更加繁芜。对尚未完备实现的事物进行监管,有可能进入不断修订法律的循环,从而无意中阻碍进步。”杰拉奇说。
邓志东对表示,既不要妨碍AI的探索与创新活力,以期其发达发展加快匆匆进人类福祉,但也必须考虑人类的整体安全利益,处理好各个发展阶段的安全优先级别,在实践中把握好最佳AI风险管控机遇。
(本文来自第一财经)
本文系作者个人观点,不代表本站立场,转载请注明出处!