当沙场上出现人工智能“装有魔鬼的魔瓶被打开了”_人工智能_乌克兰
军事专家警告称,人工智能也会犯缺点,在军事冲突中,这些缺点可能导致大规模平民伤亡。国际组织呼吁,在武装冲突中利用人工智能具有重大的人性、法律、道德和安全影响,各国必须保持人类对机器的有效掌握。
军事人工智能犯错可能导致大规模平民伤亡
一名以色列高等国防官员在2月初表示,以色列国防军在加沙支配了由人工智能驱动的新型装备。包括由以色列“智能射手”公司开拓的人工智能瞄准镜,它可以安装在步枪、机枪等武器上,“可以让每一名普通士兵成为偷袭手”,该官员说。
以军在加沙还支配了由人工智能驱动的无人机。这些无人机被用于探测和绘制加沙弘大的隧道网络,同时可以检测在地下活动的人。加沙的隧道网络据称总长超过500公里,自以军在加沙开展地面行动以来,这些隧道网络一贯因此军行动的重点目标。
以军在军事行动中投入的人工智能不止于沙场上的装备。据以色列媒体去年年底宣布,以色列国防军在指挥系统中支配了人工智能来帮助其选定在加沙空袭的目标。
一位不愿透露姓名的以色列前情报官员说,以军利用一种名为“Habsora”(在希伯来语中意为“福音”)的人工智能算法帮助挑选空袭目标。这个算法大幅提升了以军挑选空袭目标的效率,把以色列空军转变成了高效率的“大规模暗杀工厂”。
当地韶光2024年2月23日,加沙地带中部城市代尔拜拉赫,以色列军队空袭一处住宅,造成至少22人去世亡、数十人受伤。图/IC photo
据宣布,军事专家表示,有情由对以军在沙场上运用人工智能技能感到担心。专家认为,人工智能是由人类创造和演习的,演习它们的人犯下的缺点,会在人工智能上再现;不过,人工智能会以一种速率更快、规模更大的办法重复这些缺点。
澳大利亚空中力量智库的剖析师卡洛·科普表示,依赖人工智能选择空袭目标,比较由人类在空袭提高行综合剖析并选择目标,可能会造成更大的平民伤亡。在最坏的情形下,由人工智能决策的空袭会造成大规模平民去世亡。
巴勒斯坦加沙地带卫生部门当地韶光2月29日揭橥声明说,悛改一轮巴以冲突爆发以来,以色列军队在加沙地带军事行动造成的去世亡人数超过3万,个中,超过70%是妇女和儿童。此前,有以色列媒体指出,以军利用的人工智能算法至少对加沙的平民去世亡人数负有部分任务。
俄乌双方均利用人工智能指挥无人机作战
据外媒宣布,在俄乌冲突中,双方都支配了运用人工智能识别和瞄准目标的小型无人机。
今年2月的一篇宣布称,俄乌双方各自支配的无人翱翔器数量均达数百万架,用于对敌方阵地进行侦察和攻击,双方都依赖人工智能来指挥无人机作战。个中,部分无人机是由民用无人机改造而成,另一些则是前辈的军用无人机。
去年11月揭橥的另一篇宣布称,俄军在沙场上利用最有效的无人机之一是“柳叶刀”-3型自尽式无人机。该型号无人机体积小、机动性强、难以被探测或击落。一架“柳叶刀”-3型无人机的本钱约合3.5万美元,但可以破坏或摧毁代价数百万美元的主战坦克和其他装甲战车。
据宣布,过去,无人机作战的成效每每取决于操作员的技能,但俄罗斯正在把更多的人工智能技能融入无人机,使无人机能够自主运行。例如,由人工智能支持的目标探测技能许可无人机在翱翔中对地面车辆的形状进行识别。一旦人工智能确认某个车辆的形状具有乌克兰武器系统的特色,无人机即可攻击该物体。人工智能乃至可以掌握攻击角度,以造成最大侵害。
在这场实战中的人工智能竞赛中,乌克兰也不落下风。一位乌克兰高等军事官员在去年年底向法国议会代表团讲述,乌克兰军队如何将人工智能系统融入法国制造的凯撒自行火炮。
该军官阐明说,人工智能将加快识别目标的过程,然后决定针对目标利用何种弹药。这个中节约的韶光对付前哨士兵来说可能死活攸关。此外,这种人工智能技能的运用还可以节省大量弹药,据乌克兰军方估计,人工智能可以节省30%的弹药利用量。
当地韶光2024年2月6日,顿涅茨克地区,俄乌冲突持续,乌克兰武装部队第92独立突击旅士兵操作无人机。图/IC photo
“人工智能军火商”将乌克兰变成了战役实验室
许多美国和欧洲科技公司在沙场内外与乌克兰方面进行互助,包括微软、亚马逊、谷歌、SpaceX等公司。
个中,就有两家颇具争议的美国科技公司——帕兰提尔技能公司(Palantir Technologies)和“明视”人工智能公司(Clearview AI)。
根据帕兰提尔技能公司首席实行官亚历克斯·卡普的公开辞吐,该公司为乌克兰供应的软件利用人工智能剖析卫星图像、开源数据、无人机拍摄画面和地面情报等,为指挥官供应军事决策赞助。他说,“乌克兰军事打击的大部分目标定位过程用到了该软件。”
乌克兰军事官员接管了利用帕兰提尔技能公司软件的培训,他们能够在人工智能的帮忙下把攻击目标的位置传达给前哨指挥官。卡普称,这是一套数字化“杀伤链”。
帕兰提尔技能公司总部位于美国科罗拉多州丹佛市,它自成立以来就争议不断。该公司的部分业务由美国中心情报局(CIA)的风险投资部门投资成立,该公司为美国移民和海关司法局(ICE)、联邦调查局(FBI)、国防部以及许多国家的情报机构供应数据剖析软件。国际人权组织责怪帕兰提尔公司忽略人权,该公司的产品帮助美国政府机构跟踪和识别移民和寻求庇护者。
“明视”人工智能公司则向18个乌克兰政府机构的1500多名官员供应了该公司开拓的人脸识别工具。据称,乌克兰政府已利用该工具识别了超过23万名俄罗斯士兵和军官。
“我们每天都能识别出数百名带着武器来到乌克兰的俄罗斯人。”一位乌克兰高等官员说,他每上传一张俄罗斯士兵的照片,人脸识别软件就会显示出该士兵的姓名、家乡和社交媒体简介等信息。
乌克兰政府还利用人脸识别工具识别乌克兰的亲俄民兵和其他亲俄职员。据“明视”人工智能公司表露,乌克兰方面在20个月内对“明视”数据库进行了至少35万次检索。
此前,“明视”人工智能公司因从互联网上抓取数十亿张公开照片来网络数据而受到批评。批评者鞭笞“明视”人工智能公司的行为“令人不寒而栗”。该公司受到了一系列诉讼、罚款和法庭签发停滞令等打击。该公司在奥地利、法国、希腊、意大利和英国等地被视为造孽。人权组织和隐私倡导者还警告说,纵然在冲突结束后,乌克兰政府可能也难以断绝对“明视”人脸识别工具的利用。
帕兰提尔技能公司和“明视”人工智能公司都流传宣传免费向乌克兰供应软件。但批评者责怪这些公司试取利用冲突来展示其技能,从而达到自我宣扬的目的。
“他们是21世纪的人工智能军火商。”美国国家安全专家雅各布·赫尔伯格说。据美国媒体宣布,这些“人工智能军火商”将乌克兰变成了一个人工智能战役实验室。卡普承认,在沙场上,他们可以做一些在一样平常环境中做不到的事情。
一些专家还称,这些节制军事人工智能技能的私营公司令人不安。“这是有史以来第一次,在一场战役中,大多数关键创新技能不是来自政府帮助的实验室,而是来自私营公司。”斯坦福大学“戈尔迪之结国家安全创新中央”的联合创始人史蒂夫·布兰克对媒体说,“装有妖怪的魔瓶被打开了。”
国际组织呼吁,必须保持人类对机器的有效掌握
人工智能等新技能在冲突中的运用引发了环球对人权的关注和担忧。
2023年12月,150多个国家和地区支持了一项联合国决议,该决议明确了新军事技能带来的“严重寻衅和问题”,个中就包括“武器系统中的人工智能和自主性”。
“我们本日看到的最糟糕的伤亡和苦难中,有一部分是由新技能带来的。”一家国际组织的武器研究专家玛丽·韦勒姆说,近期发生的冲突中不断上升的平民去世亡人数表明,新军事技能的利用须要受到更大力度的监督。
人工智能是否该当被用于选择空袭目标?机器能否决定何时以及向哪个目标开火?这些关于人工智能在军事冲突中运用的话题引发了激烈的辩论。
2022年2月,《原子科学家公报》曾刊发一篇题为“让人工智能掌握核武器:可能会出什么问题?”的文章。作者给出的回答是:“如果人工智能掌握了核武器,人类可能会灭亡。”作者称,风险在于人工智能可能会由于其编程或其设计的毛病而犯下恐怖的缺点。
在美国军方的人工智能实验中,就有无数出错的例子,人工智能系统会把农人误认为是潜入的胆怯分子;有人在路边停车改换轮胎,人工智能却误认为有人在路边埋放炸弹;人工智能还在不雅观察一场婚礼时得出这是胆怯分子聚会的缺点结论。
红十字国际委员会此前发文呼吁称,在武装冲突中利用人工智能具有重大的人性、法律、道德和安全影响。随着人工智能迅速融入军事系统,各国必须明确并办理这个中的风险。
红十字国际委员会的文章称,各国在利用人工智能实行可能对人类生命产生严重后果的任务或决策时,必须保持人类对机器的有效掌握,“战役中的法律责任和道德任务绝不能‘外包’给机器和软件。”
新京报 陈奕凯
编辑 张磊 校正 张彦君
本文系作者个人观点,不代表本站立场,转载请注明出处!