换脸App背后的惊骇:我的脸什么时刻会被假造又该若何辨别?_视频_技巧
这种以假乱真的换脸视频技能,实在已经不是什么新鲜事了。但一贯以来,它还只是名人们的“烦恼”,例如担心自己成为色情片的主角。而如今ZAO的火爆却证明,换脸对凡人的吸引力到底有多大。上热搜,登顶运用商店,一度被挤爆做事器,这款大略的换脸APP得到了惊人的流量。
然而在火爆之后,质疑声也纷至沓来。很多人开始针对ZAO的用户协议提出批评,直指你的脸有可能被恶意利用,乃至在涌现侵权问题时也可能是你来背锅。
在受到争议后,ZAO修正的最新用户协议 | ZAO用户协议截图
让AI技能触及大众本来是件好事,那换脸视频到底出了什么问题呢?
换脸变得越来越随意马虎
要理解这种换脸视频是如何实现的,Deepfake技能是绕不开的话题。
2017年,一位叫做“Deepfakes”的Reddit网友上传了几个色情视频,引起轰动。令人意外的是,这些视频里的演员都是名人,比如“神奇女侠”盖尔·加朵和“赫敏”艾玛·沃森。当然这些视频并不是真的,而是借由AI技能假造,这种技能因此得名Deepfake。
“我只是找到了一个聪明的方法来换脸。”Deepfakes在接管Vice采访时说, “有了数百张面部图像,我就能轻松天生数百万变形的图像来演习神经网络。然后,当我向网络输入某人的脸部图像时,网络只会认为这是另一张变形图像,从而考试测验让它看起来像是演习时所用的脸。”
动起来的玛丽莲梦露、爱因斯坦和蒙娜丽莎 | Egor Zakharov/YouTube
这便是被称为“天生对抗网络”(GAN)的一种深度学习技能。大略来说,要假造视频,我们首先须要两个神经网络来参与。网络A会天生一个假的视频片段,然后问网络B这个视频是否为真,网络B的反馈能够加强网络A所天生图像的可信度。前者被称作天生网络,后者则为判别网络。
就这样,两个神经网络在不断对抗中学习,直至Deepfake天生以假乱真的视频。
★
2017年12月
Reddit网友“Deepfakes”在社区r / deepfakes发布假造的名人色情视频,个中包括演员斯嘉丽·约翰逊、歌手泰勒·斯威夫特和凯蒂·佩里等人。Deepfakes声称自己所利用的是多个深度学习的开源库,例如Google 的人工智能框架TensorFlow。
2018年1月
能够换脸的软件FakeApp推出,该软件同样基于TensorFlow开拓。
2018年2月
Reddit禁止用户在r / deepfakes分享深度学习假造的非志愿色情内容,Twitter和成人视频网站Pornhub也在随后做出类似举动。
2018年9月
Google在禁止列表里添加了“非志愿合成色情图像”,许可任何人要求搜索引擎封锁有关自己的虚假色情内容。
2018年12月
斯嘉丽·约翰逊在《华盛顿邮报》公开评论辩论Deepfake事宜:“任何人都会成为目标,这只是韶光问题”。
2019年2月
26日,一段杨幂的换脸视频蹿红网络。名为“换脸哥”的B站Up主通过Deepfake修正了94版《射雕英雄传》的视频片段,将朱茵的脸换成杨幂的脸。2月27日,“换脸哥”发布微博称“及时下架了干系视频”,并指出“大家应尊重版权与肖像权,专注于技能本身”。
2019年6月
DeepNude的Windows和Linux程序公开下载,该程序能够将图像中女性的衣物删除。6月27日,DeepNude的开拓者关闭该程序。
不但是隐私问题
如今,Deepfake让“眼见不一定为实”有了新的诠释。“无图无原形”的时期早已过去,换脸、换头乃至换声音的技能让原形变得更加扑朔迷离。
在国外媒体BuzzFeed通过FakeApp制作的一段视频中,你可以看到电影制作人乔丹·皮尔(Jordan Peele)充当奥巴马所揭橥的讲话。
BuzzFeed视频片段 | BuzzFeedNews
“这是一个危险的时期。我们在互联网所相信的东西,我们对此该当更加当心。”皮尔假扮的“奥巴马”说。
值得把稳的是,像Deepfake和FakeApp这样的技能和程序已经有很多了。由德国研究职员开拓的Face2Face,能实时捕捉人的面部图像,并将其移植到另一个视频中。人的神态和动作也能被轻易模拟,通过斯坦福大学的研究职员开拓的“深度视频肖像”( Deep Video Portraits)技能,你能像操控牵线木偶一样平常天生假视频——实现转头、做出表情、注目和眨眼等动作。
与此同时,声音也能被假造了。早在2016年,Adobe就展示了自己的Voco软件(至今仍未发布),该软件只须要20分钟的目标语音,就能天生听起来十分相似的语音。创业公司Lyrebird的产品声称,只用一分钟的音频就能模拟任何人说话。而百度推出的Deep Voice算法,乃至将天生假音频所需的音频韶光减少到3.7秒。
DeepNude官方推特的声明 | deepnudeapp/Twitter
在这些技能的加持下,轻易就能假造却难以辨伪的内容,可能让社会面临各类威胁,而色情视频只是个中一个缩影。评论者们指出,任何人都将无法保护自己的隐私权和肖像权,假新闻更随意马虎专横獗,政客乃至可以用其攻击竞争对手,别有用心的人可能借此影响股市等。个人信息的安全也更难担保,合成的语音或视频将欺骗生物验证,例如须要真人才能验证的语音和面部识别。
但更令人担忧的问题在于,FakeApp和ZAO这样的AI程序正在变得唾手可得。更多人能够打仗到这类AI技能,意味着其被滥用的可能性也相应增加了。
如何戳穿原形?
面对Deepfake的泛滥,一个很自然的办理方法是,技能引发的问题交给技能来办理。
从技能上来说,Deepfake会在修改视频上留下可预测的假造痕迹,而深度学习算法能够检测到它们。这些算法是公开的,也有像罗切斯特理工学院的马特·怀特(Matt Wright)这样的研究者,正在考试测验搭建能够探测假视频的网站,用户可以在韶光轴上看到视频可能被修改的位置。而对付Facebook这样的大平台来说,他们也会用自己开拓的算法来过滤假视频。
美国国防部高等研究操持局(DARPA)已经专门成立“媒体取证”项目(The Media Forensics)来办理Deepfake带来的问题,并帮助研究者探索自动检测Deepfake的最佳方法。个中一个受到帮助的研究团队创造,可以通过剖析视频中的眨眼来辨别Deepfake,由于名人眨眼的照片并不多。
视频片段,盖尔·加朵的脸被放在了色情电影演员的身上 | vice.com
在推进假音频检测的过程中,Google在2019年的ASVspoof寻衅中为开拓职员供应了合针言音的数据集,帮其开拓更安全的自动语音验证系统。除此之外,乃至还有更为硬核的研究:检测Deepfake音频的不再是AI本身,而是小鼠。
在最近的一项研究中,俄勒冈大学的研究职员成功演习老鼠来检测假的语音。通过让小鼠辨别辅音,例如不同语境中“buh”和“guh”的差异,小鼠能够以80%的准确度辨别真假语音。研究职员表示,用小鼠模型来研究繁芜声音处理是很有前景的,“研究哺乳动物的听觉系统检测音频的打算机制,有助于研究下一代的欺骗检测通用算法”。
除技能之外,我们还有办法应对Deepfake的横行吗?目前的Deepfake还无法做到非常逼真,因此有些细微瑕疵还是能够通过肉眼识别。为此,Buzzfeed总结了一些辨别方法:
1.不要妄下结论;
2.考虑内容的来源;
3.验证这些内容都涌如今哪些地方;
4.检讨人物的嘴部动作;
5.放慢视频,仔细不雅观察。
然而在这个“后原形”的时期,我们很难奢求所有人都花心思去辨别一个视频的真伪。而在全民“ZAO”脸的狂欢下,已经轻易将自己的肖像拱手相让的我们,会有心思去辨别什么是真,什么是假吗?
参考文献:
[1]https://www.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn
[2]https://www.washingtonpost.com/technology/2018/12/31/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image
[3]https://www.law.com/legaltechnews/2019/03/19/harvard-and-mit-fund-deepfake-detection-government-transparency-ai-tools/?slreturn=20190801224307
[4]https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/experts-bet-on-first-deepfakes-political-scandal
[5]https://www.axios.com/the-coming-deepfakes-threat-to-businesses-308432e8-f1d8-465e-b628-07498a7c1e2a.html
[6]https://www.axios.com/deepfake-audio-ai-impersonators-f736a8fc-162e-47f0-a582-e5eb8b8262ff.html
[7]https://www.theverge.com/2019/3/5/18251736/deepfake-propaganda-misinformation-troll-video-hoax
[8]https://www.alienvault.com/blogs/security-essentials/deepfakes-are-a-problem-whats-the-solution
[9]https://www.buzzfeed.com/craigsilverman/obama-jordan-peele-deepfake-video-debunk-buzzfeed
[10]https://web.stanford.edu/~zollhoef/papers/CVPR2016_Face2Face/page.html
vice.com/en_us/article/d3wd3k/gfycat-fighting-ai-porn-deepfakes-fake-news
[11]https://www.pcmag.com/news/370040/how-lab-mice-are-helping-detect-deepfakes
[12]https://www.governmentciomedia.com/darpa-tackles-deepfakes-ai
[13]https://www.buzzfeednews.com/article/davidmack/obama-fake-news-jordan-peele-psa-video-buzzfeed#.gcxNolpGL
作者:EON
编辑:八云
一个AI
AI不坏,但要看你怎么用。
本文来自果壳,未经授权不得转载.
如有须要请联系sns@guokr.com
欢迎转发到朋友圈~
果壳
ID:Guokr42
靠谱科普
就看果壳
对付在一夜之间刷爆朋友圈的ZAO,你怎么看?有玩过的朋友吗?
AI和同事们等你来玩哦~
本文系作者个人观点,不代表本站立场,转载请注明出处!