人工智能算法是否可以“偷听”你的信息?对付这样的疑问,许多人恐怕还半信半疑,难以给出确定答案。
但剑桥大学的一项最新研究却表明:这是很有可能的。

人工智能算法能“偷听”拿什么拴住这头“灰犀牛”_技巧_剑桥年夜学 AI简讯

“偷听”的事理是:当人们小扣手机和平板电脑的屏幕时会产生声波。
这些声波通过设备的内置麦克风网络、规复,从而就可“听到”敲击屏幕的声音。
结合人工智能算法,听到的声音与键盘位置关联,就可实现“偷听”用户信息。
开展这项研究的剑桥大学打算机实验室用其自己开拓的算法模型进行了实验,结果表明,对付四位数密码而言,该模型在10次考试测验后可以准确规复54%的密码;20次考试测验后可以规复150个密码中的91个,识别准确率为61%。

该项研究的论文于3月26日揭橥,题目就叫《听到你的触摸:智好手机上的新声学侧通道》。

对付已经基本离不开智好手机的我们来说,这项研究结果无疑是当头一棒。
就在前不久,某些手机APP“偷听”用户信息的,在很短韶光内刷爆朋友圈,引发了巨大质疑。
干系平台迅速出面辟谣,而许多针对性的测试也一时拿不出确切证据。

坦率地说,我们不相信干系平台便是在故意地“偷听”,而更方向于认为,这是大数据在自动天生“用户画像”。
只是画像的精准度,也其实让人害怕。

但从另一个角度来看,疑惑“偷听”不啻为一声响亮的警钟,它再次对我们发出警示:在人工智能和大数据时期,公民个人信息权柄的保护,相较于技能发展更加薄弱,必须尽快找到可行的应对之道。

同时,对以“进步”为名的技能发展,我们也必须保持高度当心和疑惑,并时候从人类肃静和技能伦理的高度详加核阅。
这是必要的谨严,绝不是螳臂当车的守旧,由于墨菲定律早就说得非常清楚——如果事情有变坏的可能,不管这种可能性有多小,它总会发生,并造成最大可能的毁坏。

“偷听”有可能发生吗?剑桥大学的研究已经表明:肯定会的。
虽然囿于技能的局限,目前尚无法偷听得那样精确。
但假以时日,人工智能算法装备的智好手机等设备,肯定会把人“偷”得赤条条。
而以技能发展在当今的迅猛之势,这个时日实在并不多么迢遥。

我们已清楚地看到“灰犀牛”就在那里,它正在向我们冲来。
可是出于无数的利益打算和犹疑,人类便是找不到切实的预防、应对之策。

这正是我们当前面临的恼人困惑。
对付公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧竹篱,同时加大惩办力度。
但这种办法,受制于差异极大的文化环境和司法力度,常常很难从纸面上真正落地。

而更加薄弱的是,技能伦理明显还未受到应有的重视,更缺少现实的贯注灌注造就。
很多科技者仅仅醉心于技能打破,由于和远真个技能运用者以及被影响者相隔着明显间隔,他们险些不可能感想熏染到技能发展可能带来的麻烦与痛楚。
对付“偷听”的疑惑,实在正好反证了技能伦理的缺位可能带来的问题。

人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻挡它们提高的步伐。
我们认可并且也乐意享受这样的进步,但条件条件是,它们应是为人类做事,而不是羞辱、奴役人类。

□徐冰(新京报聪慧城市研究院研究员)

编辑:李冰冰 校正:陆爱英