称为“人工智能教父”的打算机科学家Geoffrey Hinton表示,如果人类欠妥心的话,人工智能增强的机器“可能会接管统统”。

人工智能可能经由进程重写自己的代码“逃脱控制”_人工智能_人类 智能问答

75岁的Hinton在接管哥伦比亚广播公司《60分钟》节目采访时说,快速发展的人工智能技能可能在“五年内”得到比人类更聪明的能力。

他补充说,如果这种情形发生,人工智能可能会进化到人类无法掌握的程度。

Hinton说:“这些系统可能逃脱掌握的方法之一是编写自己的打算机代码来修正自己。
”“这是我们须要负责担心的事情。

Hinton因其数十年来在人工智能和深度学习方面的首创性事情而得到2018年图灵奖。
2023年5月,在谷歌事情了10年之后,他辞去了副总裁兼工程研究员的职位,这样他就可以自由地评论辩论人工智能带来的风险。

Hinton说,人类,包括像他这样帮助构建当今人工智能系统的科学家,仍旧没有完备理解这项技能是如何事情和发展的。
许多人工智能研究职员坦率地承认缺少理解:2023年4月,谷歌首席实行官Sundar Pichai将其称为人工智能的“黑匣子”问题。

正如Hinton所描述的,科学家为人工智能系统设打算法,从数据集中提取信息,比如互联网。
他说:“当这种学习算法与数据交互时,它会产生善于干事的繁芜神经网络。
”“但我们并不真正理解它们是如何做到这些的。

Pichai和其他人工智能专家彷佛并不像Hinton那样担心人类失落去掌握。
另一位图灵奖得主、也被认为是“人工智能教父”的Yann LeCun称,任何有关人工智能可能取代人类的警告都是“荒谬可笑的”——由于人类总是可以阻挡任何变得过于危险的技能。

Hinton强调,最坏的情形并不愿定,医疗保健等行业已经从人工智能中受益匪浅。

Hinton还指出,人工智能增强的缺点信息、假照片和***在网上传播。
他呼吁进行更多的研究来理解人工智能,政府法规来掌握这项技能,并在环球范围内禁止人工智能军用机器人。

在2023年10月的国会会议上,Pichai、Elon Musk、OpenAI的Sam Altman和Meta的Mark Zuckerberg等议员和科技高管在谈论平衡监管与创新友好型政府政策的必要性时,提出了类似的想法。

Hinton说,无论人工智能护栏是由科技公司还是在美国联邦政府的逼迫哀求下履行的,都须要尽快履行。

Hinton说,人类可能正处于“某种迁移转变点”,并补充说,科技和政府领导人必须决定“是否进一步发展这些东西,以及如果他们(这样做)该如何保护自己。

Hinton说:“我想我要传达的紧张信息是,接下来会发生什么存在巨大的不愿定性。

本文转载自 人工智能可能通过重写自己的代码“逃脱掌握”- 雪兽软件

更多精彩推举请访问 雪兽软件