< Return to Video

真人的假视频以及如何识别他们

  • 0:01 - 0:02
    看看这些图像。
  • 0:02 - 0:05
    现在,告诉我哪个是真的奥马巴。
  • 0:05 - 0:08
    巴拉克·奥巴马:帮助家庭对他们的房屋重做贷款,
  • 0:08 - 0:10
    投资高科技制造业,
  • 0:10 - 0:11
    清洁能源
  • 0:11 - 0:14
    和带来良好就业机会的基础设施。
  • 0:15 - 0:16
    有人知道吗?
  • 0:16 - 0:18
    答案是:都不是。
  • 0:18 - 0:19
    (笑声)
  • 0:19 - 0:21
    这些都不是真的。
  • 0:21 - 0:23
    那让我来告诉你们是怎么回事。
  • 0:24 - 0:26
    我这个工作的灵感来自于
  • 0:26 - 0:31
    一个试图保存我们从幸存者那里
    了解到的关于大屠杀
  • 0:31 - 0:33
    的项目。
  • 0:33 - 0:35
    这个项目叫做证词新维度
    (New Dimensions in Testimony),
  • 0:35 - 0:39
    它可以让你与真实大屠杀幸存者的全息图
  • 0:39 - 0:41
    进行互动对话。
  • 0:42 - 0:44
    你是怎么在大屠杀中幸存下来的?
  • 0:44 - 0:45
    我怎么幸存下来?
  • 0:46 - 0:48
    我幸存下来,
  • 0:48 - 0:50
    我相信,
  • 0:50 - 0:53
    是因为上帝眷顾我。
  • 0:54 - 0:57
    原来这些答案是预先在工作室录制的。
  • 0:57 - 1:00
    但效果令人吃惊。
  • 1:00 - 1:03
    你会对他的故事,
    他这个人感同身受。
  • 1:04 - 1:07
    我想人类互动的特别之处
  • 1:07 - 1:10
    让它比图书,演讲或电影
  • 1:10 - 1:12
    告诉我们的
  • 1:12 - 1:16
    要更加深刻和真实。
  • 1:16 - 1:19
    所以我就开始想,
  • 1:19 - 1:22
    我们能不能为每个人做个模型?
  • 1:22 - 1:25
    这个模型的样子,
    谈话和举止就跟真人无异。
  • 1:26 - 1:28
    于是我开始探索这个能不能搞定,
  • 1:28 - 1:30
    并最终找到了一个新的解决方案,
  • 1:30 - 1:33
    只需使用下面这些东西就能构建人的模型:
  • 1:34 - 1:36
    个人现存的照片和视频。
  • 1:37 - 1:39
    如果你能利用这种被动信息,
  • 1:39 - 1:41
    只需公开的照片和视频,
  • 1:41 - 1:43
    这是扩展到其他人的关键。
  • 1:44 - 1:46
    顺便说一句,这是理查德·费曼,
  • 1:46 - 1:49
    他除了是诺贝尔物理学奖得主
  • 1:49 - 1:52
    也是位传奇教师。
  • 1:53 - 1:55
    这岂不是很棒?
    如果能够把他带回来
  • 1:55 - 1:59
    讲课并激励成千上万的小孩,
  • 1:59 - 2:02
    用英语或者其他任何语言?
  • 2:02 - 2:07
    或者你也可以征求祖父母的意见,
    听听那些让人宽慰的言语,
  • 2:07 - 2:09
    即便他们已经离开我们了。
  • 2:10 - 2:13
    或者使用这个工具,图书的作者,
    不管是活着的还是去世的,
  • 2:13 - 2:16
    可以为任何有兴趣的人朗读他们的书本。
  • 2:17 - 2:20
    这里的创意可能是无限的,
  • 2:20 - 2:21
    对我而言,这非常让人兴奋。
  • 2:23 - 2:25
    这是目前它的工作原理。
  • 2:25 - 2:26
    首先我们引入一种新的技术
  • 2:26 - 2:31
    可以从任何图像中
    重建一个高细节的3D人脸模型,
  • 2:31 - 2:33
    而且无需经对真人进行3D扫描。
  • 2:34 - 2:37
    这是不同视角下的同一输出模型。
  • 2:38 - 2:39
    这也可以应用于视频,
  • 2:39 - 2:42
    通过对每一幅视频
    使用同样的算法
  • 2:42 - 2:45
    产生移动的3D模型。
  • 2:46 - 2:48
    这是不同视角下的同一输出模型。
  • 2:50 - 2:52
    这些问题富有挑战性,
  • 2:52 - 2:55
    但关键技巧在于我们需要提前
  • 2:55 - 2:58
    分析一个人的大量照片集。
  • 2:59 - 3:01
    对乔治·沃克·布什,
    我们只需要搜索谷歌,
  • 3:02 - 3:05
    这样,我们就能建立一个平均模型,
  • 3:05 - 3:08
    一个迭代,精炼的模型来恢复表达的细节,
  • 3:08 - 3:10
    比如折痕和皱纹。
  • 3:11 - 3:13
    迷人的是
  • 3:13 - 3:16
    照片集可以来自你的特定照片。
  • 3:16 - 3:19
    你做何表情或者你在哪里拍照
  • 3:19 - 3:21
    并不那么关键。
  • 3:21 - 3:23
    关键的是数量要足够多。
  • 3:23 - 3:25
    这里我们仍然缺少肤色,
  • 3:25 - 3:27
    所以下一步,
    我们开发了一种新的混合技术
  • 3:27 - 3:30
    改善了平均模型,

  • 3:30 - 3:33
    并产生尖锐的面部纹理和肤色。
  • 3:34 - 3:37
    这可以用于做任何表情。
  • 3:37 - 3:40
    现在我们可以
    对一个人的模型进行控制,
  • 3:40 - 3:44
    它现在被控制的方式是
    一系列静态的照片。
  • 3:44 - 3:47
    注意皱纹是如何产生和消失的,
    这取决于你的表情。
  • 3:48 - 3:51
    我们也可以使用视频来驱动模型。
  • 3:51 - 3:54
    丹尼尔·克雷格:没错,但不管怎样,
  • 3:54 - 3:57
    我们能够吸引到更多优秀的人才。
  • 3:58 - 4:00
    这是另一个有趣的演示。
  • 4:00 - 4:02
    所以你们看到的是
    我使用人们的互联网图像
  • 4:02 - 4:04
    建立的个人控制模型。
  • 4:04 - 4:07
    现在,如果你从视频中传递表情动作,
  • 4:07 - 4:10
    我们可以让整个派对动起来。
  • 4:10 - 4:12
    布什:这是个难以通过的法案,
  • 4:12 - 4:14
    因为有太多可供商榷的部分,
  • 4:14 - 4:19
    立法过程可能让人奔溃。
  • 4:19 - 4:21
    (鼓掌)
  • 4:21 - 4:23
    那么回到正题,
  • 4:23 - 4:26
    我们的最终目标,
    不如说,是捕捉他们的言谈举止,
  • 4:26 - 4:29
    或者每一个人交谈或微笑的独特之处。
  • 4:29 - 4:31
    所以这样,
    我们能不能只向电脑展示这个人的录像
  • 4:31 - 4:34
    就能教会电脑
  • 4:34 - 4:36
    去模仿人们谈话的方式?
  • 4:37 - 4:40
    而我做的事情是,我让电脑
  • 4:40 - 4:43
    看了14个小时的奥巴马演讲。
  • 4:43 - 4:47
    这是我们只通过他的音频生产出来的内容。
  • 4:47 - 4:49
    结果非常明显。
  • 4:49 - 4:53
    在过去75个月中,美国企业已经创造了
  • 4:53 - 4:56
    1450万新的工作机会。
  • 4:56 - 4:59
    所以这里合成的只是嘴巴部分,
  • 4:59 - 5:00
    这是我们做的方法。
  • 5:01 - 5:03
    我们的处理系统使用神经网络
  • 5:03 - 5:06
    来转换和输入音频到这些嘴巴的位置。
  • 5:07 - 5:11
    我们通过我们的工作或者医疗保险
    或补助来实现这一目标。
  • 5:11 - 5:14
    然后我们合成纹理,
    增强细节和牙齿,
  • 5:14 - 5:17
    并将其与源视频中的
    头部和背景混合在一起。
  • 5:17 - 5:19
    女性可以获得免费的检查,
  • 5:19 - 5:22
    你不会因为是女性而需要支付更高的费用。
  • 5:23 - 5:26
    年轻人可以在父母计划中呆到26岁。
  • 5:27 - 5:30
    我觉得这些结果看起来非常真实和有趣,
  • 5:30 - 5:33
    但同时,也让我担忧,即便是我。
  • 5:33 - 5:37
    我们的目标是构建人的精准模型,
    而非歪曲他们。
  • 5:38 - 5:41
    但让我担忧的是它被错误使用的可能。
  • 5:42 - 5:45
    人们思考这个问题很长时间了,
  • 5:45 - 5:47
    从Photoshop进入市场那天就开始了。
  • 5:48 - 5:52
    作为一名研究人员,
    我也在研究对抗技术,
  • 5:52 - 5:55
    我是人工智能基金会持续努力的一份子,
  • 5:55 - 5:58
    它结合了机器学习和人工模型
  • 5:58 - 6:00
    来识别假图像和视频,
  • 6:00 - 6:02
    与我们自己的工作做斗争。
  • 6:03 - 6:06
    我们打算发布的一个工具叫做真相卫士,
  • 6:06 - 6:10
    是个浏览器插件
    可以用来自动标记潜在假内容,
  • 6:10 - 6:13
    在浏览器中就可以使用。
  • 6:13 - 6:17
    (掌声)
  • 6:17 - 6:18
    此外,
  • 6:18 - 6:20
    假视频可以带来很大危害,
  • 6:20 - 6:23
    甚至在人们有机会验证它之前,
  • 6:23 - 6:26
    所以让大家意识到这可能是什么
  • 6:26 - 6:28
    非常重要,
  • 6:28 - 6:32
    这样我们才能得到正确的推断,
    并对看到的保持谨慎。
  • 6:32 - 6:37
    在个人完全建模
    以及确保技术的安全性方面,
  • 6:37 - 6:40
    仍有很长的路要走。
  • 6:41 - 6:43
    但我兴奋且充满希望,
  • 6:43 - 6:46
    因为如果我们正确地使用它,
  • 6:46 - 6:51
    这个工具可以让
    每个人对世界积极的影响
  • 6:51 - 6:53
    得到大规模的普及
  • 6:53 - 6:56
    并真正帮助塑造我们想要的未来。
  • 6:56 - 6:57
    谢谢。
  • 6:57 - 7:02
    (掌声)
Title:
真人的假视频以及如何识别他们
Speaker:
Supasorn Suwajanakorn
Description:

你觉得你擅长发现假视频吗,当名人们并没有真正说过这些话的时候?这个演讲和技术演示让我们了解到这是如何做到的。计算机科学家 Supasorn Suwajanakorn 为我们展示了,如何使用人工智能和3D建模并与音频同步来创造假视频。了解更多关于这个技术的伦理问题和这个技术的可能性,以及我们应该采取的措施来对抗该技术的错误使用。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
07:15

Chinese, Simplified subtitles

Revisions