人工智能谈天机器人说的话要小心,由于显然黑客很随意马虎窥伺到这些对话。

专家创造:黑客几乎可以经由进程任何人工智能监视你的聊天记录_人工智能_揣摸 AI快讯

“目前,任何人都可以读取从ChatGPT和其他做事发送的私人谈天记录,”以色列本-古里安大学攻击性人工智能研究实验室卖力人伊斯罗尔·米尔斯基(Yisroel Mirsky)在一封电子邮件中见告Ars Technica。
“这包括与客户端在同一Wi-Fi或LAN上的恶意行为者(例如,同一家咖啡店),乃至是互联网上的恶意行为者——任何可以不雅观察流量的人。

正如报告所阐明的那样,这些类型的黑客攻击被称为“侧通道攻击”,涉及第三方被动地利用元数据或其他间接暴露来推断数据,而不是打破安全防火墙。
只管这种攻击可能发生在任何类型的技能上,但人工智能彷佛特殊随意马虎受到攻击,由于它的加密事情不一定达到标准。

“攻击是被动的,可以在OpenAI或其客户不知情的情形下发生,”研究职员透露。
“OpenAI对他们的通信进行加密,以防止这类窃听攻击,但我们的研究表明,OpenAI利用加密的办法是有缺陷的,因此信息的内容被暴露了。

只管侧通道攻击的侵入性不如其他形式的黑客,但正如Ars宣布的那样,它们可以以55%的准确率大致推断出给定的谈天机器人提示,这使得人们可能向人工智能提出的任何敏感问题都很随意马虎被创造。

报告指出,虽然本-古里安的研究职员紧张关注OpenAI中的加密缺点,但目前市场上的大多数谈天机器人——不管出于什么缘故原由,谷歌的Gemini除外——都可以以这种办法被利用。

这个问题源于谈天机器人利用被称为“令牌”的编码数据块,这有助于大型措辞模型(llm)翻译输入并迅速供应清晰的相应。
这些信息常日发送得非常快,这样用户与谈天机器人的“对话”就会很自然地进行,就像有人键入回答一样,而不是一次涌现全体段落的长度。

虽然交付过程常日是加密的,但代币本身会产生一个研究职员以前没故意识到的侧通道。
正如本-古里安研究职员在一篇新论文中阐明的那样,任何得到这些实时数据的人都可以根据他们访问的令牌推断出你的提示,有点像推断出门或墙的另一边听到的安静对话的主题。

为了记录这一漏洞,Mirsky和他在Ben-Gurion的团队将通过意外的侧通道得到的原始数据通过第二个LLM进行测试,以识别关键字,正如他们在尚未正式揭橥的论文中所阐明的那样。
正如他们创造的那样,LLM在推断一样平常提示方面大约有50%的机会,并且能够在高达29%的韶光内险些完美地预测它们。

微软在一份声明中见告Ars,该漏洞也会影响其Copilot人工智能,但不会透露个人信息。

微软的一位发言人见告该网站说:“名字等详细细节不太可能预测到。
”“我们致力于保护我们的客户免受这些潜在的攻击,并将通过更新来办理这个问题。

这些创造是不祥之兆——在堕胎或LGBTQ问题等令人担忧的话题的情形下,它可能被用来侵害或惩罚那些仅仅是寻求信息的人。
在我们说话的时候,这些问题在美首都被定为犯罪。