英国著名理论物理学家斯蒂芬·霍金(Stephen Hawking)在去世前,曾多次揭橥关于人工智能(AI)可能对人类造成灾害性影响的不雅观点。
如今,我们看到 AI 的迅速发展和广泛运用,霍金的预言是否正在应验?我们如何发展 AI,才能避免潜在的灾害呢?

霍金临终前预言成真?人工智能真是人类末日?AI真的会摧毁人类?_霍金_人类 科技快讯

霍金在2014年接管BBC采访时曾表示:“全面的人工智能的发展可能意味着人类的末日。
”他认为,只管基本形式的 AI 为人类带来了强大的能力,但创造与人类智能相反抗或超越的系统可能会对人类带来灾害。

霍金阐明说:

“它会自主发展,以越来越快的速率重新设计自己。

“受到缓慢生物进化限定的人类无法与之竞争,将被取而代之。

在霍金去世前一年的2017年,他在葡萄牙Web峰会科技大会上的演讲中说,“成功地创造有效的AI可能成为我们文明历史上最伟大的事宜,或者最糟糕的,我们还不知道。
以是,我们无法知道我们是否会因AI的帮助而获益无穷,还是被AI忽略并被排挤,乃至有可能被AI摧毁。

霍金去世后几个月,他的末了一本书《霍金大见地》出版,里面认为,打算机可能在100年内超越人类智能,“我们可能面临智能爆炸,终极导致机器的智能超过我们,就像我们的智能超过蜗牛一样。

不负责对待与人工智能干系的风险可能是“我们有史以来犯下的最严重缺点”。

“人们很随意马虎把高度智能的机器当作科幻小说来对待,但这将是一个缺点——也可能是我们有史以来犯下的最严重缺点。

在这方面,霍金的担忧并非空穴来风。
随着 AI 技能的飞速发展,我们确实面临着诸多寻衅。
比如,人工智能可能会导致大规模失落业,引发伦理和隐私问题,以及使得网络安全风险加剧。
更为恐怖的是,如果 AI 与现实天下的决策和掌握相结合,就可能会带来意想不到的后果。

不过值得把稳的是,霍金并非一味反对 AI 的发展。
事实上,他本人在生活中就利用了基本形式的 AI 技能。

由于患有渐冻症(ALS),霍金的肌肉逐渐衰弱,他无法正常说话,并且须要轮椅出行。
他依赖英特尔(Intel)供应的语音天生设备进行沟通,通过面部动作来选择单词或字母,这些单词和字母经由合成后天生语音。

这表明,如果我们能够精确勾引 AI 的发展方向,它将有巨大的潜力为人类带来益处。
那么,我们该当如何在发展 AI 的同时,规避潜在的灾害呢?

首先,我们须要加强 AI 领域的伦理和法律监管。
这意味着,我们须要建立相应的法规和政策,确保 AI 系统的设计和运用遵照伦理原则,保护用户隐私,并且考虑到社会公正和原谅性。
这将有助于降落 AI 带来的负面影响,为人类带来更多实际利益。

其次,我们该当加强 AI 技能的透明度和可阐明性。
这意味着,研究职员和开拓者须要努力提高 AI 系统的可阐明性,让人们更随意马虎理解 AI 是如何做出决策的。
通过提高透明度,我们可以更好地预测和掌握 AI 系统的行为,从而降落潜在的风险。

再次,人类须要主动适应 AI 时期的寻衅。
这包括重新设计教诲体系,培养具备创新思维和跨学科能力的人才,以应对 AI 带来的就业市场变革。
同时,政府和企业也应加大对职业培训和再教诲的投入,帮助劳动力适应新的事情环境。

此外,我们还该当关注 AI 技能在环球范围内的遍及和公正分配。
这意味着,国际社会须要共同努力,确保发展中国家也能充分利用 AI 带来的机遇,避免数字鸿沟的进一步扩大。

其余,跨学科互助也至关主要。
AI 的发展不仅仅是技能问题,它同样涉及到伦理、哲学、社会学等多个领域。
通过跨学科互助,我们可以更全面地核阅 AI 技能所带来的机遇与寻衅,制订更有效的应对策略。

只管霍金的预言可能令人担忧,乃至引发惶恐和害怕,但我们不能因此而否定 AI 的巨大潜力。
通过加强监管、提高透明度、主动适应寻衅、关注环球公正和跨学科互助,我们有望勾引 AI 朝着有益于人类的方向发展。
在这个过程中,霍金的警示将成为我们前行的主要参考,提醒我们不断核阅和调度 AI 发展的道路。