眼见不一定为实:高科技骗局之 Deepfake 深度伪造视频

  • A+
所属分类:deepfakes资讯

不知道大家有没有看过脑洞剧《黑镜》第一集,大致是疯狂艺术家绑架了公主并威胁英国首相直播日猪。这可能对于所有民众来说只是一场闹剧,可对于政府来讲,这是一场危机。

眼见不一定为实:高科技骗局之 Deepfake 深度伪造视频

而现实生活中,互联网新科技让任何人都有机会制作视频,让真实人物有机会来说他们从未说过的话。

下面是一张用面部贴图和人工智能制作的美国前总统巴拉克·奥巴马(Barack Obama)的视频截图:

眼见不一定为实:高科技骗局之 Deepfake 深度伪造视频

因此,立法者和情报官员越来越担心有人会利用新技术制作看似真实的视频来影响政治运动或危害国家安全。

深度视频肖像

Deep Video portrait

SIGGRAPH 2018计算机图形和设计大会将在8月12日至16日于温哥华举行,其中有一门技术被称为 “深度视频肖像” (Deep Video Portrait),指的是一种能复制动作、面部表情和演讲动作的图像学习技术。由斯坦福大学、慕尼黑技术大学、巴斯大学、Technicolor 和其他机构的科学家共同开发,新方法是使用输入视频来创建肖像视频,然后真实再现动画。

这门技术不仅仅是面部表情的模仿改造,它还允许一系列的运动,包括完整的3D头部位置,头部旋转,眼睛凝视和眨眼。

眼见不一定为实:高科技骗局之 Deepfake 深度伪造视频

新系统以生成神经网络的形式使用人工智能来完成这个任务,从信号模型中获取数据,并计算或预测给定目标参与者的真实感帧。

令人印象深刻的是,动画师不必改变现有演员的体毛,目标演员的身体,或背景的图形。

“不可抗拒”的技术

目前而言,DVP已经被别有用心的人滥用于涂抹名人或噱头,比如使用 FakeApp将星球大战的女演员 Daisy Ridley 的脸部叠加到女优的身上。

眼见不一定为实:高科技骗局之 Deepfake 深度伪造视频

修改后的视频仍然存在一些瑕疵如眨眼不自然,这使得大多数伪造品易于被发现。但是,加州斯坦福大学国际安全与合作中心的国际安全研究员Andrew Grotto说:“在一两年内,一个人真的很难区分真实视频和假视频。”

近几年,互联网时代信息量爆炸,假新闻泛滥更是带来大规模恐慌,加剧了社会的不信任感。而AI技术的进步更使得造假成本进一步降低,并且造假的方式越来越多样。但这同时也会催生出更有正面意义技术,如专业的打假查证技术Truepic。

个人认为,大家应该意识到现代技术在视频生成和编辑方面的能力,对每天消费的视频内容进行更批判性的思考,尤其是在没有来源证明的情况下。

Source: CBC NEWS: I never said that! High-tech deception of 'deepfake' videos

weinxin
我的微信
这是我的微信扫一扫
广告也精彩

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: