为什么我们都应该支持“无趣”的人工智能?_人工智能_战斗
战役和军队正在越来越多地利用人工智能工具,环绕由此带来的繁芜而奇妙的伦理问题,我的同事亚瑟·霍兰德·米歇尔(Arthur Holland Michel)进行了出色的宣布。人工智能有无数种可能导致灾害性失落败或在冲突中被滥用的办法,而且彷佛还没有任何真正的规则来约束它。米歇尔的故事展示了,当事情出错时,深究人们的任务是多么的困难重重。
2022 年,我宣布了乌克兰战役如何开启了国防人工智能创业公司的新热潮。最近的人工智能炒作只会加剧这种情形,由于公司和军方都在竞相将天生式人工智能嵌入到产品和做事中。
本月早些时候,美国国防部宣告将成立一个天生式人工智能事情组,旨在“剖析和整合”全体国防部的人工智能工具,如大型措辞模型。
该部门看中了人工智能工具在改进“情报、操作操持、行政和业务流程”方面的巨大潜力。
但是米歇尔的研究指出,为什么前两个用例可能是糟糕的主张。天生式人工智能工具,如措辞模型,是有问题和不可预测的,它们会编造一些东西。它们也有大量的安全漏洞、隐私问题和根深蒂固的偏见。
在高风险的环境中运用这些技能可能会导致致命的事件,我们乃至不清楚谁该为此卖力,乃至不清楚问题发生的缘故原由。每个人都赞许人类该当作为终极的决定者,但由于技能的不可预测性,尤其是在快速发展的冲突场合排场中,这一点变得有为困难。
有些人担心,当事情出错时,层级最低的人将付出最高的代价:“在事件发生时,不管是人错了,是打算机错了,还是他们都错了,做出‘决定’的人将承担任务,并保护指挥链上的其他人免受承担任务的负面影响,”米歇尔写道。
当人工智能在战役中失落效或带来负面影响时,彷佛唯一不会面临后果的是供应这项技能的公司。
当美国为管理战役中的人工智能制订的规则仅仅是建议,而不是法律时,这显然帮助了企业。这使得深究任何企业的任务变得非常困难。就连欧盟即将出台的,针对高风险人工智能系统的全面监管法案《人工智能法案》(AI Act)也将军事用场打消在外,而军事用场可以说是所有运用中风险最高的。
虽然每个人都在为天生 AI 探求令人愉快的新用场,但我个人却迫不及待地想让它变得无聊。
有早期迹象表明,人们开始对这项技能失落去兴趣,公司可能会创造,这类工具更适宜于日常、低风险的运用,而不是用来办理死活存亡这种人类所面临的最大的问题。
例如,将人工智能运用于 Excel、电子邮件或笔墨处理等生产力软件,可能听起来很无聊,但与战役比较,这是一个风险很低的运用,而且足够大略,有可能像公司宣扬的那样真正发挥浸染,创造代价。它可以帮助我们更快更好地完成繁琐的事情。
无趣的人工智能运用不太可能轻易崩溃,最主要的是,它不会杀去世任何人。希望很快我们就会忘却我们是在与人工智能互动:不久之前,机器翻译还是人工智能领域一个令人愉快的新事物,而现在,大多数人乃至不会意识到它在驱动谷歌翻译方面所起的浸染。
(来源:AI 天生)
这便是为什么我更有信心,像国防和军方这样的组织将成功地在行政和业务流程中运用天生式人工智能。
无趣的人工智能并不随意马虎陷入道德困境。虽然它听起来缺少一种魔力,但它是有效的。
作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深,她着重宣布人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》事情,并曾担当***主播。
支持:Ren
本文系作者个人观点,不代表本站立场,转载请注明出处!