“AI教父”背书13位OpenAI、谷歌现任及前任员工联名警告:AI失落控或导致人类灭绝_人工智能_风险
当地韶光4日,13位来自OpenAI和Google的现任及前任员工联合发布了一封公开信,引发广泛关注。这些员工在信中表达了对人工智能技能潜在风险的严重担忧,并呼吁干系公司采纳更加透明和负任务的方法来应对这些风险。
13位OpenAI、谷歌现任及前任员工发联名信
这封公开信由多位有名人士联名背书,包括被誉为“人工智能教父”的杰弗里•辛顿(Geoffrey Hinton)、因首创性AI研究得到图灵奖的约书亚•本吉奥(Yoshua Bengio)以及AI安全领域的学者斯图尔特•罗素(Stuart Russell)。
图片来源:Right To Warn AI
信中指出,只管人工智能技能可能会给人类带来巨大益处,但其带来的风险同样不容忽略。这些风险包括加剧社会不平等、操纵和虚假信息传播,以及自主AI系统失落控可能导致的人类灭绝。信中强调,这些风险不仅得到了人工智能公司本身的确认,也得到了天下各国政府和其他AI专家的认可。
公开信签署者们表示,他们希望在科学界、政策制订者和公众的辅导下,能够充分缓解这些风险。然而,他们担心,人工智能公司由于强烈的经济动机,可能会避免接管有效的监督。他们认为,仅靠现有的公司管理构造不敷以办理这一问题。
信中还提到,人工智能公司节制着大量关于其系统能力和局限性、保护方法的充分性以及各种风险水平的非公开信息。然而,这些公司目前对与政府分享信息的责任很弱,且完备没有责任与"大众年夜众分享。签署者们认为,不能完备依赖这些公司志愿分享信息。
信中提到,由于严格的保密协议,员工们在表达对AI风险的担忧时,面临着各类限定。而目前对付举报人的保护方法尚存在不敷,一些员工担心因提出批评而遭受报复。
联名信呼吁人工智能公司承诺员工对公司提出风险干系的批评时,不对其进行打击报复,建立匿名举报机制,支持开放批评的文化,并保护员工公开分享风险干系信息的权利。
图片来源:X
OpenAI前员工丹尼尔•科泰洛 (Daniel Kokotajlo)是这次联名信公开署名职员中的一位。他在社交平台上连发15条表示:“我们中一些最近从OpenAI辞职的人聚拢在一起,哀求实验室对透明度作出更广泛的承诺。”
丹尼尔提到,他今年四月辞职,是由于对该公司在构建通用人工智能方面是否会采纳负任务的行为失落去了信心。他指出,只管他希望公司在AI功能越来越强大的同时,能在安全研究方面投入更多资金,但OpenAI并未做出相应调度,导致多名员工相继辞职。
他强调,OpenAI等实验室构建的系统有能力给人类社会带来巨大的好处,但如果不谨慎处理,长期来看,可能是灾害性的。他还提到,当前AI技能险些未收监管,紧张是公司在进行自我监管,而这种办法存在巨大的风险。
丹尼尔透露,离职时他被哀求签署一份“封口协议”,个中包含一项不贬损条款,禁止他揭橥任何批评公司的话,否则将失落去已归属的股权。然而,他在寻思熟虑后,依旧决定放弃签署协议。
图片来源:Dwarkesh Podcast
此外,6月4日,OpenAI前超级对齐部门成员利奥波德•阿申布伦纳(Leopold Aschenbrenner)也在播客节目Dwarkesh Podcast中透露他被开除的真实缘故原由:他给几位董事会成员分享了一份OpenAI安全备忘录,结果导致OpenAI管理层不满。
利奥波德在社交平台表示,到2027年实现AGI是极其有可能的,须要更严格的监管和更透明的机制,确保人工智能的安全发展。
图片来源:X
OpenAI安全主管辞职、“超级对齐团队”终结
此前,OpenAI原首席科学家伊利亚•苏茨克维(Ilya Sutskever)和前安全主管、超级对齐团队卖力人杨•莱克(Jan Leike)相继离职。
莱克在离职后,公开批评了OpenAI的管理层,责怪其追求华而不实的产品,忽略了AGI(通用人工智能)的安全问题。他称OpenAI领导层关于公司核心优先事变的意见一贯不合,超级对齐团队过去几个月一贯在逆风航行,在提升模型安全性的道路上受到公司内部的重重阻碍,“(OpenAI)安全文化和安全流程已经让位给闪亮的产品”。
图片来源:X
逐日经济***综合公开
逐日经济***
本文系作者个人观点,不代表本站立场,转载请注明出处!