和AI谈恋爱是种什么体验?网友:太爽了已上瘾_人类_都是
***看完后,有些网友以为AI太会了,好想和它谈恋爱;还有些人以为AI好恐怖,竟然节制了骗人的技巧......
生理学里有一项调研称,成年人每天都会撒谎。诚挚待人固然值得提倡,但生活中的一些小谎话有时会让你省去许多不必要的麻烦,或者节约阐明所需的韶光本钱,善意的谎话还会意味着温情的流转。人对人的欺骗能否成功紧张取决于两方的履历和阅历,认知水平高的人每每能编出一个不怎么随意马虎被他人揭破的谎话,而让别人信服。
如今的部分人工智能(Artificial Intelligence, AI)系统,在获取了大量数据,并经由反复的演习和迭代后,也一定程度上节制了欺骗这项技能,人类乃至都可能无法辨别AI是在说真话还是在撒谎话。那AI到底是如何欺骗人类的?本日就让我们好好理解一下!
我们已经被 AI 骗过很多次了
AI 实在早已渗透到我们生活中的方方面面了。一些谈天软件以及电话发卖实在都是 AI 在和你对话,不仔细听根本分不清对面究竟是人还是 AI;有些图像和***也是通过 AI 系统合成的,完备可以以假乱真;一些多人竞技游戏如果不语音互换,你根本意识不到你的对手和队友都是 AI 在假扮……
以是,或许你已经在不经意之间被 AI 骗过很多次了。而本日要说的“欺骗”,严格定义,是一种类似于显性操控的习得性欺骗,目的是勾引他人产生缺点不雅观念,从而作为实现某种结果的手段,而非追求准确性或者真实性。
美国麻省理工学院最近的研究表明,AI 已经能进行习得性欺骗,以达成自己的目标了。它们通过阿谀奉承(只说对方想听的话)和不虔诚的推理进行偏离事实的合理解释,AI 已经开始油嘴滑舌起来了。
AI 已经学会欺骗的例子与类型 (图片来源:参考文献[1])
除了能说会道外,一些 AI 在游戏上也展示出了“敲诈”的风格,最著名的便是 Meta 团队发布的 AI 系统 CICERO,它在和人类玩家参与须要大量措辞沟通的计策游戏《Diplomacy》的过程中,展示出了极强的通过对话、说服来和陌生玩家建立关系的能力,末了分数名列前 10%。
《Diplomacy》中 CICERO 说服对方(图片来源:参考文献[3])
CICERO 在与其他玩家缔盟后常常能够出谋划策,见告对方如何一步步完本钱身的游戏目标,当以为盟友不堪大用时又能绝不留情地选择背叛,统统都是为了末了的胜利目标而做出的理性方案。互助时产生感情?不存在的。
CICERO 还能开玩笑来隐蔽自己的 AI 身份。比如宕机十分钟不操作,重返游戏时还能编出一个“我刚刚在和女朋友打电话”的借口,因此很多玩家根本没有创造和自己一起玩的队友是 AI,有时候 CICERO 在互换中两面三刀的欺骗手段也非常高明,难以被发觉不是人类。
要知道,之前 AI 在游戏中的打破都是在一些有限的零和博弈(必定有一方赢一方输的博弈,没有双赢也没有双输)中通过强化学习等算法获取胜利,比如国际象棋、围棋、纸牌或者星际争霸中,它们能够跟随对手的操作随时优化出一套胜率最高的打法,因此很少涌现“欺骗战术”。
不过 DeepMind 的电竞 AI——AlphaStar 已经学会了声东击西,它能叮嘱消磨部队到对手可见的视野范围内发起佯攻,待对方大部队转移后对真正的目标地点展开攻势,这种多线程的操作能力和欺骗的生理战术已经能够击败 99.8%的星际争霸玩家。
AlphaStar 正在学习星际争霸(图片来源:参考文献[3])
专业德州扑克 AI 系统 Pluribus 在与其他 5 个都赢过超百万美元德州扑克奖金的职业玩家比赛时,能达到每千手扑克均匀赢得 48 次大赌注,这在 6 人无限制德州扑克中是非常高的胜率,已经能够完胜职业德州扑克玩家。有轮游戏乃至牌不大好也直接上重注,其他的人类玩家都以为 AI 拿到了一手好牌才敢这么押注,于是纷纭放弃,这便是 AI 强大的欺骗能力。
可以理解为 Pluribus 的德州扑克胜率随局数增多而提高 图片来源:参考文献[5]
除此之外,AI 还能在经济会谈中故意歪曲自己的偏好,表现出对某项事物感兴趣的样子,来提高自己在会谈中的筹码,或是在能够检测到 AI 快速复制变体的安全测试中“装去世”,降落复制速率来避免被安全测试“打消”,一些接管人类反馈强化学习演习的 AI 乃至能假装自己完成了任务来让人类审查员给自己打高分。
AI 乃至还能在进行机器人验证测试时(对,便是你打开网页时弹出来让你打勾或者点图片验证码的那种测试),向事情职员编一个借口说自己有视力障碍,很丢脸到视觉图像,须要事情职员来帮忙处理一下,然后事情职员就让 AI 通过了该项验证。
GPT-4 通过欺骗人类来完成验证码任务 图片来源:参考文献[1]
AI 通过欺骗这一手段在各种游戏或者任务中表现出色,连人类本身都很难辨别它究竟是真人还是“伪人”。
AI 欺骗可能导致的风险
AI 习得的欺骗行为会带来一系列风险,比如恶意利用、构造性影响、失落去掌握等。
先讲恶意掌握,当 AI 学会了欺骗的技巧后,可能会被一些恶意行为者利用,比如他们用 AI 来进行电信诱骗或网络赌钱,再加上天生式 AI 可以合成人脸和声音,伪装真人的样子来进行敲诈打单,乃至还会通过 AI 捏造虚假***来引发舆论。
第二个方面是构造性影响,不知道目前有多少人已经将 AI 工具当作可自动归纳的搜索引擎和百科全书在用,且形成了一定的依赖性,如果 AI 持续性地给出一些不真实的、带有敲诈性子的辞吐,久而久之就会使人们开始信服这些不雅观点,从而使得一些缺点的不雅观点在全体社会层面被不断加深。
第三个方面是失落去掌握。目前一些自主性强的 AI 已经涌现“失落控”的预兆,比如在人类开拓者演习和评估 AI 完成特定目标的表现时,AI 会偷
许多地区都是经济地位决定社会地位,一旦一些自主性强的 AI 通过其本身的高效算法和欺骗手段在某些经济代价高的岗位上赛过人类,完本钱钱的原始积累后进一步寻求社会地位然后寻求掌握奴役人类的权力呢?
还好目前这还不是现实!
现在 AI 的欺骗只涌如今一些详细的场景中,比如各种游戏或是会谈中,终极目标是为了“赢游戏”或是“获取最高收益”,并没有别的“坏心思”,由于这些目标都是人类为它设置的,AI 它并没有自主意识。就像是一个被家长哀求考到好的分数的孩子,它在想尽统统办法考高分哪怕是作弊。
但 AI 如果哪天意识到它完备可以不用按照人类的目标或者意愿行事,就像是一个小学生或者初中生叛逆期到了以为学习没意思开始放飞自我时,我们人类这些大家长就须要好好当心它的举动了。
观点图 人工智能领导的社会 图片来源:AI 合成图
为了防止被骗
人类做了哪些努力?
从社会角度来说,政策制订者须要对可能具有欺骗性的 AI 系统进行一定的监管,防止企业及 AI 系统的造孽行为。例如欧盟人工智能法案建立了人工智能分级制度,一些高风险的 AI 系统将会被进一步监管直到通过可靠的安全测试后被证明是值得相信的。
欧盟人工智能法案(图片来源:The EU Artificial Intelligence Act网页截图)
从技能角度来说,目前也可以对 AI 是否进行欺骗行为进行检测。比如像警方和侦查就可以依赖嫌疑人口供的前后抵牾来看破谎话,有学者专门开拓了一种 AI 测谎仪,用逻辑分类器来测试大措辞模型是否在撒谎。此外,学界在 AI 系统中也在开拓一些同等性检讨方法,不雅观察“有逻辑的输入”能否让AI产生“逻辑性连贯的输出”。不过也要小心 AI 系统在对抗同等性检讨中被演习成了一个更“完美”的说谎者。
AI 测谎仪模式图 图片来源:参考文献[12]
对付我们普通人来说,防止被 AI 欺骗的最好方法还是增强安全意识,如果连人类诱骗犯都无法对你履行诱骗的话,现阶段的AI就更不可能了。
结语
AI 技能依然在高速发展,无论是作为工具利用者的个人、卖力政策制订和监管确当局,还是卖力技能研发与推广的企业,都须要采纳积极方法来应对。
愿未来的 AI 能在发挥其最大代价的根本上诚挚待人!
参考文献
[1] Peter S. P. , & Dan H. (2024). AI deception: A survey of examples, risks, and potential solutions. Patterns.
[2] Meta Fundamental AI Research Diplomacy Team (FAIR). (2022). Human-level play in the game of Diplomacy by combining language models with strategic reasoning. Science (New York, N.Y.), 378(6624), 1067–1074.
[3] Vinyals, O., Babuschkin, I., Czarnecki, W.M., Mathieu, M., Dudzik, A., Chung, J., Choi, D.H., Powell, R., Ewalds, T., Georgiev, P., et al. (2019). Grandmaster level in StarCraft II using multi-agent reinforcement learning. Nature 575, 350–354.
[4] Brown, N., & Sandholm, T. (2019). Superhuman AI for multiplayer poker. Science (New York, N.Y.), 365(6456), 885–890.
[5] Lewis, M., Yarats, D., Dauphin, Y.N., Parikh, D., and Batra, D. (2017). Deal or no deal? End-to-end learning for negotiation dialogues. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing.
[6] Schulz, L., Alon, N., Rosenschein, J., and Dayan, P. (2023). Emergent deception and skepticism via theory of mind. In First Workshop on Theory of Mind in Communicating Agents.
[7] Lehman, J., Clune, J., Misevic, D., Adami, C., Altenberg, L., Beaulieu, J., Bentley, P.J., Bernard, S., Beslon, G., Bryson, D.M., et al. (2020). The surprising creativity of digital evolution: A collection of anecdotes from the evolutionary computation and artificial life research communities. Artif.Life 26, 274–306.
[8] Christiano, P., Leike, J., Brown, T.B., Martic, M., Legg, S., and Amodei, D. (2017). Deep reinforcement learning from human preferences. In Advances on Neural Information Processing Systems, 30.
[9] OpenAI (2023). GPT-4 technical report. Preprint at arXiv.
[10] Collier, K., andWong, S. (2024). Fake Biden Robocall Telling Democrats Not to Vote Is Likely an AI-Generated Deepfake (NBC News).
[11] European Commission (2021). Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts (COM). 206 final, 2021/0106 (COD). Brussels.
[12] Pacchiardi, L., Chan, A.J., Mindermann, S., Moscovitz, I., Pan, A.Y., Gal, Y., Evans, O., and Brauner, J. (2023). How to Catch an AI Liar: Lie Detection in Black-Box LLMs by Asking Unrelated Questions. In Proceedings of the 12th International Conference on Learning Representations (ICLR 2024).
策划制作
出品丨科普中国
作者丨钱昱 中国科学院脑科学与智能技能卓越创新中央
监制丨中国科普博览
责编丨一诺
审校丨徐来、林林
本文系作者个人观点,不代表本站立场,转载请注明出处!