刘*连出诊时间和医院 https://wapjbk.39.net/yiyuanfengcai/ys_bjzkbdfyy/793/?ivk_sa=1024320u 原创文摘菌大数据文摘
大数据文摘出品
俄罗斯和乌克兰冲突尚未结束,网络中也还硝烟弥漫。
近日,一条乌克兰总统弗拉基米尔泽连斯基(VolodymyrZelensky)的“视频”被广泛传播,在视频中,泽连斯基呼吁乌克兰士兵放下武器。
从视频来看,泽连斯基的脸显得很不自然,文摘的老读者应该很快能辨认出来,这明明又是一款用Deepfake做的换头“视频”。
这条视频周三被黑客放到乌克兰一家被黑的新闻网站上,随后被揭穿和删除。
只不过,因为这条视频在推特上传播的也很广,观看人数超过25万,泽连斯基本人也在推特发文辟谣。
乌克兰国防情报预测:就是俄罗斯干的
在这份大概一分钟长的伪造视频中,乌克兰总统泽连斯基似乎在告诉士兵们放下武器,放弃对俄战斗。
尽管还没人宣称为此事负责,但是在乌克兰国防情报眼中,俄罗斯的嫌疑最大。
这个月初,乌克兰国防情报还专门在推特向大家科普什么是Deepfake,在科普视频中,包括美国现任总统拜登等多国*要都以Fake形象出镜。
乌克兰国防情报在推特中写道,
你们可能都听说过Deepfake技术,它是深度学习和欺诈的组合,一种基于人工智能合成人类图像的技术。俄罗斯联邦的挑衅正在准备中。
这似乎预示了这次泽连斯基Deepfake的出现。
不过,泽连斯基这个Deepfake的视频似乎活干的比较粗糙。虽然视频中的对口型还过得去,但观众很快就指出,泽连斯基的口音不对,仔细观察他的头部和声音并不真实。
随后,Facebook、YouTube和Twitter的官员表示,这段视频因违反*策而被从他们的平台上删除。
这个视频作为战争状态下第一个针对一国元首的Deepfake视频,预示着一种新的舆论战形式。
加州大学伯克利分校(UniversityofCalifornia,Berkeley)教授、数字媒体取证专家哈尼法里德(HanyFarid)说,“这是我们看到的第一个真正站稳脚跟的案例,但我怀疑这只是冰山一角。”
之后,泽连斯基在他的Telegram频道发布的一段视频中回应这段假视频说:“我们正在保卫我们的土地,我们的孩子,我们的家庭。所以我们不打算放下武器。直到我们的胜利。”
Deepfake的作用不容小觑
乌克兰国家电视台“乌克兰24”(Ukraine24)证实,黑客设法通过电视直播发送了虚假的泽连斯基消息,这条滚动文本新闻被称为Theticker,该视频在该电视台的网站上短暂出现。这是“敌方黑客”所为,该电台称。
黑客们在乌克兰24小时广播的信息敦促乌克兰人停止战斗,放弃武器。大西洋理事会的欧亚研究员RomanOsadchuk表示,他们还声称泽连斯基逃离了基辅,这些信息在VKontakte上广为传播,VKontakte是俄罗斯第一大社交媒体。
研究人员表示,尽管Deepfake不是特别复杂,但它仍应被视为危险。
Deepfake是一种使用AI深度学习,能够将一张图片中人的脸换到其他人的图片上的技术。通过这种技术,我们可以创建一个非常逼真的“假”视频或图片,“换脸”因此得名。
研究人员使用自动编码器神经结构,使这一想法成为现实。基本思路非常简单:对于每张脸,我们都训练一套编码器和相应的解码神经网络。编码时,使用的是第一个人的图片。而解码时,却是使用第二个人解码器。
对于训练部分,需要搜集每个人几百张不同姿势的图片,图片不足时,还可以从现有视频中提取。在神经网络训练并学习了关于每个人面部的特征之后,它自己就能预测想出这个人还没摆出来的姿势。
Deepfake从娱乐圈走向*治圈
刚出来的时候,Deepfake更多只是作为一种玩具,用来整蛊朋友或者调侃明星。
后来,Deepfake逐渐开始“走向*坛”。
年,美国众议院议长NancyPelosi的一段深度伪造的谈话视频出现在社交媒体上,这段视频经由特朗普总统分享,在Facebook上获得了超过万次的浏览量。
早些的时候,奥巴马的脸被“借用”来攻击特朗普,该视频在网站上也获得万的浏览量。
特朗普本人也难逃一劫,西雅图电视网曾播放过一段Deepfake的特朗普演讲视频,视频中特朗普满脸通红,还不时做一些滑稽的表情。由于Deepfake技术可以运用在包括总统在内的任何官员身上,美国两*开始担心该技术将成为针对美国和其他西方国家发起虚假信息战争的最新武器。
年6月13日,美国众议院情报委员会召开关于人工智能Deepfake的听证会,公开谈论了Deepfake技术对国家、社会和个人的风险及防范和应对措施。
去年,包括拉脱维亚议会外交事务委员会主席RihardsKols,以及来自爱沙尼亚和立陶宛的议员,英国外交事务特别委员会主席TomTugendhat在内的一众*治家都被一个Deepfake黑客骗了,他们收到了一些“俄罗斯反对派人物”的视频会议邀请,还煞有其事地讨论了克里米亚问题之类的*治事务,结果发现在这些所谓的“俄罗斯反对派人物”都是别人用Deepfake换脸假冒的。
能够打败魔法的只有魔法?
尽管许多国家都发布了监管Deepfake相关技术的法规,但是像这种在战争中发生的伪造事件,显然没有法律能管,即使甄别真假公布于众,才是被伪造一方的当务之急。
人眼如果无法分辨,能不能用技术手段检测Deepfake呢?
答案是可以的,能够打败魔法的也许还是魔法。
就在Deepfake开源不久,Facebook首席技术官MikeSchroepfer就发布博客宣布,公司正和微软联合来自麻省理工、牛津等大学的研究者,通过置办“Deepfakes鉴别挑战赛”,探索如何通过数据集和基准测试检测Deepfake换脸视频。
美国国防部也研究了一项名为Forensic的图像鉴定技术。他们的思路是寻找图片和视频中的不一致性,例如不一致的灯光、阴影和相机噪音。
加州大学河滨分校的学者也提出了检测Deepfake伪造图像的新算法。同样的,算法的一个组成部分是各种“递归神经网络”,它能将有问题的图像分割成小块,然后逐像素观察这些小块。神经网络经过训练可以检测出数千幅Deepfake图像,它找到了赝品在单像素水平上的一些特质。
孵化自清华大学人工智能研究院的RealAI团队也宣称,由于Deepfake生成的造假视频画面会有不“自然”的纹理存在,他们通过海量视频训练神经网络,让其学习正常情况中的纹理特征,再以此检测造假视频中不一致的纹理。利用该技术,可以对造假视频实现逐帧检测,准确率高达90%以上。
原标题:《Deepfake首次参与战争!乌克兰总统被伪造投降视频,无奈推特辟谣》