Return to Video

Deepfakes是如何破坏真相,威胁民主的?

  • 0:00 - 0:03
    【此演讲包含成人内容】
  • 0:06 - 0:09
    Rana Ayyub
    是一位印度记者。
  • 0:09 - 0:11
    她的工作揭露了政府腐败
  • 0:12 - 0:15
    和人权侵犯。
  • 0:15 - 0:16
    这些年来,
  • 0:16 - 0:19
    她已经习惯了工作中的残酷和争议。
  • 0:20 - 0:25
    但这些都不足以让她准备好来
    面对2018年4月份的事情。
  • 0:26 - 0:30
    当时她和一个朋友坐在
    咖啡厅,第一次看见了
  • 0:30 - 0:35
    她自己出现在一个
    2分20秒的性爱视频里。
  • 0:35 - 0:38
    她不能相信自己的眼睛。
  • 0:38 - 0:40
    她从来没有拍摄过这样的视频。
  • 0:41 - 0:44
    但是很不幸的是,成千上万的人
  • 0:44 - 0:46
    选择相信就是她。
  • 0:47 - 0:50
    我在大约三个月前
    采访了Ayyub女士,
  • 0:50 - 0:52
    为了我的关于性隐私的书籍。
  • 0:53 - 0:56
    我是一个法律教授,
    律师和民权倡导者。
  • 0:56 - 1:01
    所以我非常沮丧,因为我知道
  • 1:01 - 1:03
    现在的法律几乎帮不到她。
  • 1:03 - 1:05
    当我们在谈话的时候,
  • 1:05 - 1:10
    她解释道她应该更早意识到
    虚假性爱视频的到来。
  • 1:10 - 1:16
    她说:‘’毕竟,性爱经常
    被用来贬低和羞辱女性,
  • 1:16 - 1:18
    特别是少数民族的妇女,
  • 1:18 - 1:22
    尤其是敢于挑战权势
    的少数民族妇女。”
  • 1:22 - 1:24
    就像她在工作所做的那样。
  • 1:25 - 1:29
    那个伪造的性爱视频
    在48小时之内像病毒一样传播。
  • 1:30 - 1:35
    她所有的线上账户
    都被这些视频截屏淹没,
  • 1:35 - 1:38
    同时还有图片形式的强奸和死亡威胁
  • 1:38 - 1:41
    和对她穆斯林信仰的诽谤。
  • 1:41 - 1:46
    网上的帖子说她可以
    随意跟其他人进行性行为。
  • 1:46 - 1:48
    并且她已经被“人肉”,
  • 1:48 - 1:50
    也就是说她的家庭住址和手机号
  • 1:50 - 1:52
    已经在互联网上随处可见。
  • 1:53 - 1:57
    那个视频已经被分享了超过4万次。
  • 1:58 - 2:02
    如今,这样的网络暴力,
  • 2:02 - 2:04
    其伤害是非常深远的。
  • 2:04 - 2:08
    Rana Ayyub的生活已经彻底改变。
  • 2:08 - 2:12
    几周时间里,
    她几乎不吃饭也不说话。
  • 2:12 - 2:16
    她不再写文章,
    关闭了所有社交媒体账户,
  • 2:16 - 2:19
    这是作为一个记者很难应付的事情。
  • 2:19 - 2:23
    她不敢走出家门。
  • 2:23 - 2:26
    如果那些发帖的人
    真的进行了威胁呢?
  • 2:26 - 2:31
    联合国人权理事会
    确认她没有精神问题。
  • 2:31 - 2:35
    他们发布了一个声明,
    表示担心她的人身安全。
  • 2:37 - 2:41
    Rana Ayyub面对的是deepfake :
    (“深度学习”和“伪造”的混合词)
  • 2:41 - 2:44
    一种机器学习技术,
  • 2:44 - 2:48
    能够操纵或者伪造视频和音频
  • 2:48 - 2:50
    来展示人们做了或者说了
  • 2:50 - 2:52
    他们从来没有做过或说过的事情。
  • 2:53 - 2:56
    Deepfake让这些看起来
    是真实的,但事实上并不是;
  • 2:56 - 2:58
    这些都是虚假的视频。
  • 2:59 - 3:03
    尽管这项技术还在
    这种复杂性中发展,
  • 3:03 - 3:05
    但已经广泛被使用。
  • 3:05 - 3:08
    大家最近对deepfakes最关注的,
  • 3:08 - 3:11
    就像很多网上的事情一样,
  • 3:11 - 3:12
    是色情媒介。
  • 3:12 - 3:15
    在2018年早期,
  • 3:15 - 3:17
    有人在Reddit论坛上发布了一个工具,
  • 3:17 - 3:22
    可以让用户在色情视频中插入人脸。
  • 3:22 - 3:25
    这促成了一系列伪造的色情视频,
  • 3:25 - 3:28
    使用了人们最喜爱的女星的面貌。
  • 3:29 - 3:32
    现在,你在YoutTube上能搜索到
  • 3:32 - 3:34
    不计其数步骤详细的教学视频
  • 3:35 - 3:38
    教你如何在电脑上制作这种视频。
  • 3:38 - 3:42
    很快,我们也许也可以
    在我们的手机上制作。
  • 3:43 - 3:48
    此时,正是我们最基本的
    人性弱点和网络工具的
  • 3:48 - 3:50
    相互作用
  • 3:50 - 3:53
    使得deepfakes变成了武器。
  • 3:53 - 3:54
    让我解释一下。
  • 3:55 - 3:59
    作为人类,我们对音频
    和视频有直观的反应。
  • 4:00 - 4:01
    我们相信反应是真实的,
  • 4:01 - 4:03
    理论上当然你应该相信
  • 4:03 - 4:06
    你的眼睛和耳朵告诉你的事情。
  • 4:06 - 4:08
    并且正是那种机制
  • 4:08 - 4:12
    削弱了我们共有的对现实的感觉。
  • 4:12 - 4:15
    尽管我们相信deepfakes
    是真的,但它不是。
  • 4:16 - 4:20
    我们被那些淫秽和挑衅吸引了。
  • 4:20 - 4:23
    我们倾向于去相信和共享
  • 4:23 - 4:25
    消极和新奇的信息。
  • 4:26 - 4:31
    研究者们发现网上的骗局比真实故事
  • 4:31 - 4:32
    的传播速度快10倍。
  • 4:34 - 4:38
    我们也容易被迎合
  • 4:38 - 4:40
    我们观点的信息吸引。
  • 4:41 - 4:45
    心理学家称这种倾向为
    “验证性偏见”。
  • 4:45 - 4:50
    同时社交媒体平台
    极大鼓励了这种倾向,
  • 4:50 - 4:54
    允许我们即刻并广泛地分享
  • 4:54 - 4:55
    符合我们自我观点的信息。
  • 4:57 - 5:02
    Deepfakes能够对个人
    和社会造成严重的潜在危害。
  • 5:03 - 5:05
    想象一个deepfake视频
  • 5:05 - 5:09
    显示美国士兵在阿富汗焚烧可兰经。
  • 5:11 - 5:14
    你可以想象这个视频会挑起
  • 5:14 - 5:15
    针对这些士兵的暴力行为。
  • 5:16 - 5:19
    然后如果第二天
  • 5:19 - 5:21
    又有另一个deepfake视频出现,
  • 5:21 - 5:24
    展示在伦敦的一位有名的
    伊玛目(伊斯兰教领袖的称号)
  • 5:24 - 5:27
    在赞美对士兵的袭击行为呢?
  • 5:28 - 5:31
    我们可能会看见暴力和内乱,
  • 5:31 - 5:34
    不仅出现在阿富汗和英国,
  • 5:34 - 5:36
    而是全世界。
  • 5:36 - 5:37
    你可能会对我说,
  • 5:37 - 5:40
    “拜托, Danielle,你说的太牵强了。 ”
  • 5:40 - 5:41
    但并不是。
  • 5:41 - 5:43
    我们已经看见了许多虚假信息
  • 5:44 - 5:46
    在WhatsApp和其它
    在线聊天服务里传播,
  • 5:46 - 5:49
    导致了对少数民族的暴力。
  • 5:49 - 5:51
    而那还仅仅是文字——
  • 5:51 - 5:53
    如果是视频呢?
  • 5:55 - 6:00
    Deepfakes有可能会腐蚀
    我们在民主机构里
  • 6:00 - 6:02
    的所拥有的信任。
  • 6:03 - 6:06
    想象一下在选举的前一晚,
  • 6:06 - 6:09
    Deepfake展示了
    其中一个主要党派的候选人
  • 6:09 - 6:10
    生了重病。
  • 6:11 - 6:14
    它可以颠覆这个选举
  • 6:14 - 6:17
    并动摇我们认为选举合法的想法。
  • 6:19 - 6:22
    接下来,想象在一个跨国银行的
  • 6:22 - 6:24
    首次公开募股的前夜,
  • 6:24 - 6:27
    deepfake显示银行的CEO
  • 6:27 - 6:30
    因为喝醉宣扬阴谋论。
  • 6:31 - 6:34
    这个视频可以降低IPO的估值,
  • 6:34 - 6:38
    更糟的是,动摇我们认为
    金融市场稳定的感觉。
  • 6:39 - 6:46
    所以,deepfakes可以利用
    并放大我们对政客,商业领袖
  • 6:46 - 6:51
    和其他有影响力的领导人
    已有的深深的不信任性。
  • 6:51 - 6:54
    它们找到了愿意相信它们的观众。
  • 6:55 - 6:58
    对真相的追寻也岌岌可危。
  • 6:59 - 7:03
    技术人员认为,
    未来随着人工智能的进步,
  • 7:03 - 7:06
    想要分辨出真视频和假视频
  • 7:06 - 7:10
    可能将会变得非常困难。
  • 7:11 - 7:16
    那么真相如何才能在一个deepfake
    驱使的思想市场中产生?
  • 7:17 - 7:20
    我们仅仅沿着阻力最小的路前进
  • 7:20 - 7:23
    并相信我们想去相信的,
  • 7:23 - 7:24
    而真相已经被诅咒了吗?
  • 7:25 - 7:28
    而且不仅是我们相信虚假,
  • 7:28 - 7:31
    可能是我们也开始不相信真相。
  • 7:32 - 7:36
    我们已经见过人们
    利用deepfakes的现象
  • 7:36 - 7:40
    来质疑能证明他们
    错误行为的真实证据。
  • 7:40 - 7:46
    我们也听过政客回应
    他们令人不安的评论,
  • 7:46 - 7:48
    “拜托,那是假新闻。
  • 7:48 - 7:52
    你不能相信你的眼睛
    和耳朵告诉你的事情。”
  • 7:52 - 7:54
    这是一种风险,
  • 7:54 - 8:00
    Robert Chesney教授和我
    把它叫做“撒谎者的福利”:
  • 8:00 - 8:03
    撒谎者利用deepfakes来
  • 8:03 - 8:06
    逃避他们为错误行为负责的风险。
  • 8:07 - 8:10
    所以我们知道我们的工作
    非常艰难,毋庸置疑。
  • 8:11 - 8:14
    我们需要一个
    主动积极的解决方案,
  • 8:14 - 8:17
    来自于科技公司,国会议员,
  • 8:17 - 8:19
    执法者和媒体。
  • 8:20 - 8:24
    并且我们将需要健康的社会复原力。
  • 8:26 - 8:29
    当下我们正在与科技公司
  • 8:29 - 8:32
    进行关于社会责任的公开谈话。
  • 8:33 - 8:36
    我对社交媒体平台的建议
  • 8:36 - 8:40
    已经影响了他们的
    服务条款和社区准则,
  • 8:40 - 8:42
    来禁止deepfakes造成危害。
  • 8:43 - 8:47
    那种决心需要人类的判断,
  • 8:47 - 8:48
    并且代价很大。
  • 8:49 - 8:51
    但是我们需要人类
  • 8:51 - 8:55
    去看看deepfake的内容和背景,
  • 8:55 - 8:59
    弄清楚它是否是有害的伪装,
  • 8:59 - 9:03
    或者相反,是否是有价值的
    讽刺,艺术或教育。
  • 9:04 - 9:06
    接下来,法律呢?
  • 9:07 - 9:09
    法律是我们的教育家。
  • 9:10 - 9:14
    它教育我们什么是有害的,
    什么是错误的。
  • 9:14 - 9:18
    法律通过惩罚肇事作案者
    和保护对受害者的补救
  • 9:18 - 9:20
    来规范行为。
  • 9:21 - 9:25
    现在,法律还无法应对
    deepfakes带来的挑战。
  • 9:26 - 9:28
    在全球范围内,
  • 9:28 - 9:30
    我们缺少精心制定的法律,
  • 9:30 - 9:34
    解决数字伪造问题的法律,
  • 9:34 - 9:36
    针对会侵犯性隐私,
  • 9:36 - 9:37
    毁坏名誉
  • 9:37 - 9:39
    并造成情绪困扰的事件的法律。
  • 9:40 - 9:44
    发生在Rana Ayyub身上的
    事情越来越普遍。
  • 9:44 - 9:46
    但是,当她去德里
    的执法部门举报时,
  • 9:46 - 9:48
    她被告知他们无能为力。
  • 9:49 - 9:52
    并且令人悲伤的事实是,
    在美国和欧洲
  • 9:52 - 9:55
    可能是同样的情况。
  • 9:55 - 10:00
    所以我们需要填补这一法律空白。
  • 10:00 - 10:04
    我和同事Mary Anne Franks博士
    正在和美国国会议员一起
  • 10:04 - 10:09
    制定可以禁止有危害的数字伪造,
  • 10:09 - 10:12
    相当于身份盗窃的法律。
  • 10:12 - 10:14
    同时我们看见了
  • 10:14 - 10:18
    在冰岛,英国和澳大利亚
    有类似的过程在进行。
  • 10:18 - 10:21
    但是当然,这只是
    整个监管难题的一小部分。
  • 10:23 - 10:26
    我知道法律并不是灵丹妙药。
  • 10:26 - 10:28
    它是一个武器。
  • 10:28 - 10:30
    我们需要智慧地使用它。
  • 10:30 - 10:33
    法律也有一些实际的障碍。
  • 10:34 - 10:39
    你不能利用法律对抗
    你无法找到和定位的人。
  • 10:39 - 10:43
    如果一个作案者居住在
  • 10:43 - 10:45
    不同于受害者的国家,
  • 10:45 - 10:46
    那么你可能无法强制作案者
  • 10:46 - 10:49
    来到当地法庭
  • 10:49 - 10:50
    来接受审判。
  • 10:50 - 10:54
    因此我们需要一项协调一致的,
    联合全球的响应策略。
  • 10:56 - 10:59
    教育也是我们响应策略中的一部分。
  • 11:00 - 11:04
    执法者不会去强制执行
  • 11:04 - 11:05
    他们不知道的法律,
  • 11:05 - 11:08
    也不会提出他们不明白的问题。
  • 11:08 - 11:11
    在我关于网络追踪的研究中,
  • 11:11 - 11:14
    我发现执法者缺少
  • 11:14 - 11:17
    了解可供使用的法律
  • 11:17 - 11:19
    和网络暴力问题的培训。
  • 11:19 - 11:22
    所以他们经常告诉受害者,
  • 11:22 - 11:26
    “把电脑关掉就行了,
    不要管,自然就没了。”
  • 11:26 - 11:29
    我们在Rana Ayyub的案例中
    也发现了这点。
  • 11:29 - 11:33
    她被告知:
    “拜托,你太小题大做了。
  • 11:33 - 11:34
    他们只是不懂事的孩子。”
  • 11:35 - 11:41
    所以我们需要展开针对新法律的培训。
  • 11:42 - 11:45
    媒体也同样需要接受相关的培训。
  • 11:46 - 11:50
    记者们需要接受关于
    deepfakes现象的培训,
  • 11:50 - 11:54
    这样它们就不会被放大和传播。
  • 11:55 - 11:57
    这正是我们所有人
    需要参与其中的部分。
  • 11:57 - 12:01
    我们每个人都需要这方面的教育。
  • 12:01 - 12:05
    我们点击,我们分享,我们点赞,
    但是我们没有认真去思考。
  • 12:06 - 12:07
    我们需要做得更好。
  • 12:08 - 12:11
    我们需要针对虚假事件
    更敏锐的雷达。
  • 12:14 - 12:18
    所以在我们研究解决方案的时候,
  • 12:18 - 12:20
    会有很多痛苦和折磨围绕着我们。
  • 12:21 - 12:24
    Rana Ayyub仍在和后果搏斗。
  • 12:25 - 12:29
    她还是无法自在地
    在线上和线下表达自己。
  • 12:30 - 12:31
    就像她告诉我的,
  • 12:31 - 12:36
    她仍然感觉有上千双眼睛
    在看着她的裸体,
  • 12:36 - 12:40
    尽管理智上她知道
    那并不是她的身体。
  • 12:40 - 12:43
    而且她经常遭受惊吓,
  • 12:43 - 12:47
    特别是当有陌生人试图去偷拍她。
  • 12:47 - 12:50
    “如果他们想拍来做另一个
    deepfake呢?”她不禁想。
  • 12:51 - 12:55
    所以为了像Rana Ayyub一样的个人,
  • 12:55 - 12:57
    为了我们的民主,
  • 12:57 - 13:00
    我们现在就要有所作为。
  • 13:00 - 13:01
    谢谢大家。
  • 13:01 - 13:03
    (掌声)
Title:
Deepfakes是如何破坏真相,威胁民主的?
Speaker:
Danielle Citron
Description:

Deepfake,是一种为了恶意的目的,像是引发暴力或诽谤政客和记者,来伪造视频或音频的技术。它的使用在逐渐变成一种真实的威胁。随着这方面的工具变的更加便捷,做出来的产品更加真实,它们将如何塑造我们对世界的看法?在这个演讲中,法律教授 Danielle Citron展示了Deepfakes技术如何放大了我们的不信任感,并且提出了一些保护真相的方法。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Chinese, Simplified subtitles

Revisions