英国《经济学人》周刊9月7日发布的题为《人工智能与战役》的文章称,天下大国之间的竞争涉及很多方面,最令人担忧、但人们最不理解的一个方面是,利用人工智能的战役。

比核武器更难控制!英媒:AI技能军事化让世界加倍危险_人工智能_的是 智能写作

大首都在对军事化的人工智能投入巨资,从自动化机器人到在战役白热化时为将领们供应快速战术建议的软件,任何一方都不肯望落在后面。
正如五角大楼人工智能事务卖力人上个月所说:“我不肯望看到的是,未来我们潜在的对手拥有一支完备实现人工智能的部队,而我们却没有。

文章认为,具备人工智能的武器可以供应超人的速率和精确度,但它们也有可能冲破力量平衡。
为了得到军事上风,军队不仅将利用它们推举决策,而且还让它们能够下达命令。
这可能会产生令人担忧的后果。
能够以比人类更快的速率思考的人工智能指挥系统可能会匆匆使导弹以没有韶光进行外交活动的节奏对航母和空军基地进行打击,而且其办法不会完备被操作职员所理解。
最主要的是,人工智能系统可能会被黑客入侵,并被数据操纵。

在20世纪,天下终极找到了掌握军事技能办法转变——即核弹的涌现——的方法。
环球灾害是通过三种办法的并用才得以避免的:威慑、武备掌握和安全方法。
许多人正在为人工智能探求这样一个模板。
不幸的是,它的用场有限——而且不仅仅是由于这项技能是新技能。

未来人工智能技能军事化运用示意图(美国国防部网站

威慑的根本是一种共识,即如果动用核弹,将对双方构成灾害性风险。
但人工智能构成的威胁不那么恐怖,也不那么清晰。
它可能会帮助突袭或挫败它们,去世亡人数可能从零到数百万不等。
同样,冷战期间的武备掌握依赖于透明度,也便是有一定信心地知道对方到底在干什么的能力。
与导弹发射井不同,不能通过卫星来监控软件。
仇敌可以探察到核弹头,但它们的威力不会被削弱。
不过,向外界展示一种算法却可能毁坏软件的有效性。
双方可能会尽力误导对方。
领导美国与苏联冷战期间军控努力的亨利·基辛格说:“对手对人工智能开拓配置的无知将成为计策上风。

这就剩下末了的掌握——安全方法。
核武库涉及繁芜的系统,发生事件的风险很高。
已经制订了一些协议,以确保武器在未经授权的情形下是无法利用的,比如自动防护装置,这意味着炸弹如果被过早投放,就不会引爆。
须要更多思考类似的方法如何适用于人工智能系统,尤其是那些受托在混乱和前景不明朗的沙场上指挥军队的人。

英媒评论称,这些规则必须表示的原则是刀切斧砍的。
人工智能必须反响人类代价不雅观,比如公正,并且能够灵巧应对诱敌之计。
至关主要的是,要想确保安全,人工智能武器必须尽可能清晰明了,这样人类才能明白它们是如何决策的。
在世界大国之间的对抗中,诱惑将是为了暂时的利益而走捷径。
到目前为止,险些没有迹象表明这些危险得到了足够重视——只管五角大楼的人工智能中央正在雇用一名伦理学家。
把战役留给打算机将使天下变得更加危险。