姚期智等数十名中外专家签署北京AI安然国际共识禁止AI自行复制_人工智能_技巧
IT之家整理四部分内容大致如下:
人工智能的“自主复制、改进”:强调人在该过程的浸染,哀求任何人工智能系统都不应在人类没有明确批准和帮忙的情形下复制或改进自身,包括制作自身的精确副本、创造具有相似或更高能力的新人工智能系统。
“权力寻求”:明确哀求任何 AI 系统不能采纳不当增加自身权力、影响力的行动。
“帮忙不良行为者”:所有 AI 系统都不应赞助提升其利用者的能力,使之可达设计大规模杀伤性武器、违反生物或化学武器公约,或实行导致严重财务丢失或同等侵害的网络攻击领域专家的水平。
“欺骗”:哀求任何 AI 系统都不可拥有持续勾引其设计者或监管者误解其僭越任何前述红线的可能性。
据先容,该共识呼吁行业在进行 AI 技能研发时,限定其获取通过“越狱”“勾引开拓者”的形式得到超常规权限,并限定 AI 在未经监管的情形下进行自身复制与改进,为 AI 的发展套上“紧箍咒”。
共识还强调,确保上述红线不被僭越可以实现的条件,是行业共同努力,建立并改进管理机制,同时研发更多安全的技能。关于 AI 的发展路线,则涉及“管理”“丈量与评估”“技能互助”三部分。大致如下:
管理:建议针对超过特定打算或能力阈值的人工智能模型和演习行为,立即履行国家层面的注册。
丈量与评估:在本色性风险涌现之前开拓全面的方法和技能,使红线详细化、戒备事情可操作化,并建议组建由人类监督下的红队测试和自动化模型评估,且开拓者应该为人工智能的安全性卖力。
技能互助:建立更强的环球技能网络,呼吁 AI 开拓者和政府帮助者将超过 1/3 的预算投入到安全领域。
本文系作者个人观点,不代表本站立场,转载请注明出处!