AI武器:未来战役的周全进级_无人机_兵器
美国的MQ-9无人机。图/IC
AI武器:未来战役的全面升级
文/张田勘
9月14日,沙特国家石油公司,即阿美石油公司的布盖格炼油厂及胡赖斯油田两处石油举动步伐遭到无人机和导弹打击,导致沙特每天大约570万桶的原油产量停息供应,这占到了沙特产能的50%,也相称于环球5%的石油日花费量。无人机打击的一个直接后果,是国际油价应声而涨,16日一度飙升近20%。
9月18日,沙特国防部公布石油举动步伐受攻击的详情。在这次打击中,攻击方利用了18架无人机和7枚导弹。
此前,中东地区的无人机大战已经在各派之间频频展开。无人机(UAV)是利用无线电遥控设备和自备的程序掌握装置操纵的不载人飞机,或者由车载打算机完备或间歇自主地操作的翱翔器和武器,因此它是AI产品。大概,无人机的加入战役和进一步改进,将与核武器的攻击力旗鼓相当,乃至更厉害。
无人机加入战役意味着,AI深度加入战役的时期已经来临,且将导致重大的侵害和全面的战役升级,AI不参与军事或战役的承诺已沦为笑话,潘多拉的魔盒已经被打开。
无人机加入战役是对人类已经意识到并乐意遵照的伦理的违背。人类在20世纪的核武器研发与运用曾一度是无意识的。提出了曼哈顿操持的爱因斯坦后来曾说,如果知道原子弹能造成如此大的侵害,是决不会写信给美国总统罗斯福建议研发原子弹的。
当今,环球最大的一些科技公司都提出了关于AI的伦理原则,其共同点便是不用于军事和战役。2017年,116名环球人工智能和机器人领域的专家揭橥联名公开信,呼吁联合国采纳行动禁止“自主***机器”(胆怯武器或智能武器)。此后,美国太空探索技能公司(SpaceX)CEO马斯克与环球2400名机器人研发职员在斯德哥尔摩宣誓称,“绝不参与致命性自主武器系统的开拓、研制事情。”微软员工也提出,反对参与美军项目,由于这不符合公司AI伦理原则。
2018年4月,3000多名谷歌员工向谷歌首席实行官桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能Project Maven项目。这个项目是利用机器人深度学习和人工智能剖析、运用打算机视觉技能,帮助美国国防部从图像和***中提取识别重点工具目标。由于员工的反对,谷歌被迫做出决定,在Project Maven条约2019年到期后,不再与五角大楼续签。
然而,仅仅一些人和一些公司遵守“AI不加入军事不用于战役不***”的伦理准则是不足的,现在无机人机频频参与战役,打击人类住所与重大经济目标,已经解释当今AI的伦理是非常薄弱的。2019年4月7日,谷歌新成立的AI伦理委员会只存活了不到10天即发布终结,缘故原由之一是,无人机公司首席实行官吉布斯(Dyan Gibbens)加入伦理委员会后,重组了自己公司的旧部门,试图将AI用于军事领域。这一行为遭到了谷歌员工的反对,这解释,由公司发起的伦理委员会根本无法阻挡这一势头。
军事职员与一些科研职员支持AI武器的情由是,AI参与战役是为了避免大规模伤及无辜,如像核武器不分是非黑白地杀去世平民和常规武器地毯式轰炸滥杀无辜。以是,如果真是为了和平,就用精确制导武器消灭仇敌来制止战役。因此,AI武器的涌现和加入战役,是战役的第三次革命。
然而,实际上,无人机加入战役只会更肆无忌惮地打击军事目标以外的民用和经济目标,现在,沙特两处石油举动步伐遭无人机攻击已是最好的证明。只管这次打击未造成职员伤亡,但对沙特经济和环球石油供应的影响是持续而深远的,这也向众人公开展示,要想取得军事胜利与实现政治目标,利用更新更好的AI武器是首选。
无人机会加剧未来战役的残酷程度。2017年11月12日,一部由美国加州大学伯克利分校的教授斯图尔特·拉塞尔与生命未来研究所互助拍摄的一部虚构影片开始在网络上传播。影片里,一种手掌大小的无人机***武器(Slaughterbots)配备了面部识别技能并携带炸药,先由一架或几架无人机炸开围墙,后面的无人机进入大学和国会,通过面部识别,对准锁定的目标大学生与国会议员进行爆头屠杀。
虽然这只是虚拟场景,但在不远的未来,小型无人机都可以配备人脸识别系统及聚能炸药,在程序输入后,可根据命令单独作战,或集群作战,探求和杀灭已知的个体或类似具有统一特色的人群,让每个人无法逃脱大屠杀。这样的AI武器比起原子弹来乃至更为厉害——至少原子弹爆炸时人们还有地下掩体可以保护,但在未来,任何人都无法逃脱AI武器的精准追杀。
Slaughterbots:无人机***武器观点机。
依赖人脸识别技能追***的无人机,也还属于低级的人工智能武器。根据对人工智能的分类,目前的AI武器可以分为三类。一类是完备由人类决定并由人远程操作的无人机,现在美国的MQ-1“捕食者”侦察机便是代表。
第二类是机器人可以自己做一定的判断,但在实行任务期间,人类可以中断或取消无人机的任务,如以色列的“哈比”自尽式无人机就属于这一类。加州大学的拉塞尔教授所演示的无人机炸弹也属于这一类。上述两类武器都已经用于实战。
第三类,是人类完备不参与决策过程的自主型杀手无人机或机器人。这类机器实质上还是要由人来决定,即由人编程并在一定程度上让无人机自己决策,但是,这类无人机的最大隐患在于,可能涌现程序缺点而导致误伤,自主判断做出人类意想不到或不会让其进行的行动,如扩大打击范围和强度。其余,如果这类武器扩散到胆怯分子手中,会造成更大灾害。
AI武器的这三种分类也来源于人工智能的三种分类:弱人工智能,只能完成某一项特界说务或者办理某一特定问题的人工智能;强人工智能或通用人工智能,可以像人一样胜任任何智力性任务的智能机器;超人工智能或超级智能,可以像人类实现智能上的生物进化,对自身进行重编程和改进,即“递归自我改进功能”。
9月18日,沙特国防部举行会,展示了在打击现场网络的导弹和无人机残骸。图/IC
目前,在技能上,用超人工智能来打造***武器尚难以实现,但现有的两类人工智能武器已经显示了比常规武器更大的杀伤力,而且,由于可能涌现程序缺点,谁也不能担保无人机和机器人武器不会滥杀无辜。现在已经到了正视AI武器的危害并制订禁止AI武器规定的时候了!
迄今为止,联合国已经有《禁止核武器条约》《不扩散核武器条约》《关于禁止发展、生产、储存和利用化学武器及销毁此种武器的公约》《禁止细菌(生物)及毒素武器的发展、生产及储存以及销毁这类武器的公约》等条约,唯独没有禁止AI武器的国际法。
美军曾明确表示不会禁止利用无人自动化武器,包括无人机、无人船舰等。他们提出的一个相称有力的情由是,当人们尚未完备理解AI武器时就哀求禁止利用它,此举无异于杞人忧天。实际上,美军非但不会禁止,还会大力推广AI武器的利用。
在这样的背景下,即便国际社会乐意磋商掌握与禁止AI武器,可能也不会得到广泛支持和达成共识。人们还担心,制订了禁止AI武器的国际公约,可能也无法阻挡有人研发AI武器和利用AI武器。AI武器对未来人类战役的影响目前还无法计算,但必将是重大而深远的。
本文系作者个人观点,不代表本站立场,转载请注明出处!