***分析|当心人工智能时代的“智能体风险”_智能_雷恩
图为2023年11月2日,在英国布莱奇利园,一名参会者经由首届人工智能安全峰会的宣扬展板。(新华社李颖摄)
智能体进入批量化生产时期
智能体是人工智能(AI)领域中的一个主要观点,是指能够自主感知环境、做出决策并实行行动的智能实体,它可以是一个程序、一个别系或是一个机器人。
智能体的核心是人工智能算法,包括机器学习、深度学习、强化学习、神经网络等技能。通过这些算法,智能体可以从大量数据中学习并改进自身的性能,不断优化自己的决策和行为。智能体还可根据环境变革做出灵巧的调度,适应不同的场景和任务。
学界认为,智能体一样平常具有以下三大特质:
第一,可根据目标独立采纳行动,即自主决策。智能体可以被授予一个高等别乃至模糊的目标,并独立采纳行动实现该目标。
第二,可与外部天下互动,自若地利用不同的软件工具。比如基于GPT-4的智能体AutoGPT,可以自主地在网络上搜索干系信息,并根据用户的需求自动编写代码和管理业务。
第三,可无限期地运行。美国哈佛大学法学院教授乔纳森·齐特雷恩近期在美国《大泰西》杂志揭橥的《是时候掌握AI智能体》一文指出,智能体许可儿类操作员“设置后便不再操心”。还有专家认为,智能体具备可进化性,能够在事情进程中通过反馈逐步自我优化,比如学习新技能和优化技能组合。
以GPT为代表的大措辞模型(LLM)的涌现,标志着智能体进入批量化生产时期。此前,智能体需靠专业的打算机科学职员历经多轮研发测试,现在依赖大措辞模型就可迅速将特定目标转化为程序代码,天生各式各样的智能体。而兼具笔墨、图片、***天生和理解能力的多模态大模型,也为智能体的发展创造了有利条件,使它们可以利用打算机视觉“瞥见”虚拟或现实的三维天下,这对付人工智能非玩家角色和机器人研发都尤为主要。
风险值得当心
智能体可以自主决策,又能通过与环境交互施加对物理天下影响,一旦失落控将给人类社会带来极大威胁。哈佛大学齐特雷恩认为,这种不仅能与人交谈,还能在现实天下中行动的AI的常规化,是“数字与仿照、比特与原子之间超过血脑樊篱的一步”,应该引起警觉。
智能体的运行逻辑可能使其在实现特定目标过程中涌现有害偏差。齐特雷恩认为,在一些情形下,智能体可能只捕捉到目标的字面意思,没有理解目标的本色意思,从而在相应某些勉励或优化某些目标时涌现非常行为。比如,一个让机器人“帮助我搪塞无聊的课”的学生可能无意中天生了一个炸弹威胁电话,由于AI试图增长一些刺激。AI大措辞模型本身具备的“黑箱”和“幻觉”问题也会增加涌现非常的频率。
智能体还可指挥人在真实天下中的行动。美国加利福尼亚大学伯克利分校、加拿大蒙特利尔大学等机构专家近期在美国《科学》杂志揭橥《管理高等人工智能体》一文称,限定强大智能体对其环境施加的影响是极其困难的。例如,智能体可以说服或付钱给不知情的人类参与者,让他们代表自己实行主要行动。齐特雷恩也认为,一个智能体可能会通过在社交网站上发布有偿招募令来领导一个人参与现实中的敲诈案,这种操作还可在数百或数千个城镇中同时履行。
由于目前并无有效的智能体退出机制,一些智能体被创造出后可能无法被关闭。这些无法被停用的智能体,终极可能会在一个与最初启动它们时完备不同的环境中运行,彻底背离其最初用场。智能体也可能会以不可预见的办法相互浸染,造成意外事件。
已有“狡猾”的智能体成功规避了现有的安全方法。干系专家指出,如果一个智能体足够前辈,它就能够识别出自己正在接管测试。目前已创造一些智能体能够识别安全测试并停息不当行为,这将导致识别对人类危险算法的测试系统失落效。
专家认为,人类目前需尽快从智能体开拓生产到运用支配后的持续监管等全链条动手,规范智能体行为,并改进现有互联网标准,从而更好地预防智能体失落控。应根据智能体的功能用场、潜在风险和利用时限进行分类管理。识别出高风险智能体,对其进行更加严格和谨严的监管。还可参考察监管,对生产具有危险能力的智能体所需的资源进行掌握,如超过一定打算阈值的AI模型、芯片或数据中央。此外,由于智能体的风险是环球性的,开展干系监管国际互助也尤为主要。
来源: 新华社
本文系作者个人观点,不代表本站立场,转载请注明出处!