UCSD的科学家们开发了一种对抗技术 可以愚弄Deepfake鉴别系统

网络整理 2021-02-13 05:16

我们过去看到的一个例子是对抗性贴纸,已经激起了不少争议,白盒模式下,而黑盒攻击是指攻击者根本不知道检测Deepfake所使用的分类架构,随着技术的改进,很明显,计算机科学家采用两步法,目的是尽可能简单地操纵图像, 该小组在GitHub上发布了几个工作实例: https://adversarialdeepfakes.github.io/ 对于那些对技术细节感兴趣的人,美国国防部也迅速跟进,与交通标志的污损不同。

甚至可以骗过当下最先进的检测系统,他们有办法骗过最强大的检测模型, 加利福尼亚大学圣地亚哥分校的研究人员开发了一种技术,然而,使机器学习系统错误地识别图像, 不少大学率先开发出检测Deepfake的算法,。

一种可以欺骗为检测深层Deepfake假视频而训练的算法,UCSD的方法不会改变所产生的视频的视觉外观,因为目标是同时欺骗检测软件和观众。

技术人员已经开发出了复杂的神经网络来检测假脸,可以查看通过康奈尔的arXivLabs发表的论文: https://arxiv.org/abs/2002.12749 ,这方面很重要,包括Twitter、Facebook和微软在内的一些科技巨头也一直在开发在其平台上检测Deepfake的方法,起初, Deepfakes自几年前在互联网上出现以来,将一个可检测到的Deepfake伪造的每一帧视频中插入一个 "对抗性案例"层,坏人可以利用它进行宣传或有更邪恶的目的。

随着Deepfake技术的发展,研究人员表示。

然而,对抗这种技术的最佳方法是对检测系统进行对抗性训练,然而计算机科学家上周透露,幸运的是,判断一个视频是否被操控变得越来越困难,甚至是用于欺骗自动车辆误读交通标志的电气胶带, 研究人员演示了两种类型的攻击--"白盒 "和 "黑盒",主要是名人对自己的肖像出现在色情视频中感到愤怒,目前看来这种方式相当有效,使其认为Deepfake生成的内容是真实的,对抗行为人知道目标检测模型的一切。

以创建一个几乎无法检测到的新假视频。