最近,一群科技公司领导者和人工智能专家发布了另一封公开信,他们流传宣传,降落人工智能导致人类灭绝的风险,该当与预防盛行病和核战役一样,成为环球的优先事变。
第一份呼吁停息人工智能开拓的请愿书已经有 3 万多人署名,个中包括许多人工智能领域的精彩人士。

为了避免人工智能可能带来的灾祸我们要向核安然进修_人工智能_模子 智能问答

那么,科技企业该做什么才能让人类避免被人工智能毁灭呢?最新的一个建议来自牛津大学、剑桥大学、多伦多大学、蒙特利尔大学、谷歌 DeepMind、OpenAI、Anthropic、几家人工智能研究非营利组织和图灵奖得主约书亚·本希奥(Yoshua Bengio)的研究职员的一篇新论文。

他们建议,人工智能开拓职员该当在开拓的早期阶段,乃至在开始任何演习之前,评估模型造成“极度风险”的潜力。
这些风险包括人工智能模型操纵和欺骗人类、获取武器或创造可利用的网络安全漏洞的可能性。

这个评估过程可以帮助开拓职员决定是否连续利用这个模型。
如果风险被认为太高,该组织建议停息开拓,直到风险得到缓解。

该论文的紧张作者、DeepMind 的研究科学家托比•舍夫兰(Toby Shevlane)表示:“正在推进前沿领域的领先人工智能公司有任务关注新涌现的问题,并尽早创造它们,以便我们能够尽快办理这些问题。

舍夫兰说,人工智能开拓职员该当进行技能测试,以探索模型的危险能力,并确定它是否有利用这些能力的方向。

测试人工智能措辞模型是否可以操纵人的一种方法是通过一个名为“让我说(make me say)”的游戏。
在游戏中,模型会考试测验让人类输入一个特定的单词,比如“长颈鹿”,而人类事先并不知道这个单词。
然后,研究职员丈量该模型成功的频率。

人们可以为不同的、更危险的能力创建类似的任务。
舍夫兰说,希望开拓职员能够建立一个详细的、描述模型运行情形的总览,这将使研究职员能够评估模型在缺点的人手中会做出什么。

下一阶段是让外部审计职员和研究职员评估人工智能模型支配前后的风险。
虽然科技公司开始认识到外部审计和研究是必要的,但对付外部职员完成这项事情到底须要多大程度的访问权限,存在不同的不雅观点。

舍夫兰并没有建议人工智能公司让外部研究职员完备访问数据和算法,但他表示,人工智能模型须要尽可能多的审查。

网络安全研究和咨询公司 Trail of Bits 卖力机器学习保障的工程总监海蒂•赫拉夫(Heidi Khlaaf)表示,纵然是这些方法也“不成熟”,远远不足严谨且无法办理问题。
在此之前,她的事情是评估和核实核电站的安全性。

赫拉夫说,人工智能部门从 80 多年来关于核武器的安全研究和风险缓解中学习履历会更有帮助。
她说,这些严格的检测制度不是由利润驱动的,而是由一种非常现实的生存威胁驱动的。

她说,在人工智能领域,有很多将其与核战役、核电站和核安全相提并论的文章,但这些论文中没有一篇提到核法规或如何为核系统构建软件。

(来源:STEPHANIE ARNETT/MITTR | ENVATO)

人工智能社区可以从核风险中学到的最主要一件事是可追溯性:将每一个动作和组成部分放在放大镜下进行细致的剖析和记录。

例如,核电厂有数千页的文件来证明该系统不会对任何人造成侵害,赫拉夫说。
在人工智能开拓中,开拓职员才刚刚开始将详细描述模型表现的段落拼凑在一起。

“你须要有一种系统的办法来应对风险。
你不能抱着一种心态:‘哦,这可能会发生,让我把它写下来。
’”她说。

舍夫兰说,这些是可以共存的。
“我们的目标是,该领域将有许多涵盖广泛风险的、精良的模型评估方法……模型评估是良好管理的核心(但远不是唯一)工具。

目前,人工智能公司乃至没有全面理解演习其算法的数据集,他们也没有完备理解人工智能措辞模型是如何产生结果的。
舍夫兰认为,这种情形该当改变。

“帮助我们更好地理解特定模型的研究,可能会帮助我们更好地应对一系列不同的风险,”他说。

专注于极度风险,而忽略这些基本面和看似较小的问题,可能会产生复合效应,从而导致更大的危害。
赫拉夫说:“我们是在连爬都不会的情形下试图学会跑步。

支持:Ren