Deepfakes是如何破坏真相,威胁民主的?
-
0:00 - 0:03【此演讲包含成人内容】
-
0:06 - 0:09Rana Ayyub
是一位印度记者。 -
0:09 - 0:11她的工作揭露了政府腐败
-
0:12 - 0:15和人权侵犯。
-
0:15 - 0:16这些年来,
-
0:16 - 0:19她已经习惯了工作中的残酷和争议。
-
0:20 - 0:25但这些都不足以让她准备好来
面对2018年4月份的事情。 -
0:26 - 0:30当时她和一个朋友坐在
咖啡厅,第一次看见了 -
0:30 - 0:35她自己出现在一个
2分20秒的性爱视频里。 -
0:35 - 0:38她不能相信自己的眼睛。
-
0:38 - 0:40她从来没有拍摄过这样的视频。
-
0:41 - 0:44但是很不幸的是,成千上万的人
-
0:44 - 0:46选择相信就是她。
-
0:47 - 0:50我在大约三个月前
采访了Ayyub女士, -
0:50 - 0:52为了我的关于性隐私的书籍。
-
0:53 - 0:56我是一个法律教授,
律师和民权倡导者。 -
0:56 - 1:01所以我非常沮丧,因为我知道
-
1:01 - 1:03现在的法律几乎帮不到她。
-
1:03 - 1:05当我们在谈话的时候,
-
1:05 - 1:10她解释道她应该更早意识到
虚假性爱视频的到来。 -
1:10 - 1:16她说:‘’毕竟,性爱经常
被用来贬低和羞辱女性, -
1:16 - 1:18特别是少数民族的妇女,
-
1:18 - 1:22尤其是敢于挑战权势
的少数民族妇女。” -
1:22 - 1:24就像她在工作所做的那样。
-
1:25 - 1:29那个伪造的性爱视频
在48小时之内像病毒一样传播。 -
1:30 - 1:35她所有的线上账户
都被这些视频截屏淹没, -
1:35 - 1:38同时还有图片形式的强奸和死亡威胁
-
1:38 - 1:41和对她穆斯林信仰的诽谤。
-
1:41 - 1:46网上的帖子说她可以
随意跟其他人进行性行为。 -
1:46 - 1:48并且她已经被“人肉”,
-
1:48 - 1:50也就是说她的家庭住址和手机号
-
1:50 - 1:52已经在互联网上随处可见。
-
1:53 - 1:57那个视频已经被分享了超过4万次。
-
1:58 - 2:02如今,这样的网络暴力,
-
2:02 - 2:04其伤害是非常深远的。
-
2:04 - 2:08Rana Ayyub的生活已经彻底改变。
-
2:08 - 2:12几周时间里,
她几乎不吃饭也不说话。 -
2:12 - 2:16她不再写文章,
关闭了所有社交媒体账户, -
2:16 - 2:19这是作为一个记者很难应付的事情。
-
2:19 - 2:23她不敢走出家门。
-
2:23 - 2:26如果那些发帖的人
真的进行了威胁呢? -
2:26 - 2:31联合国人权理事会
确认她没有精神问题。 -
2:31 - 2:35他们发布了一个声明,
表示担心她的人身安全。 -
2:37 - 2:41Rana Ayyub面对的是deepfake :
(“深度学习”和“伪造”的混合词) -
2:41 - 2:44一种机器学习技术,
-
2:44 - 2:48能够操纵或者伪造视频和音频
-
2:48 - 2:50来展示人们做了或者说了
-
2:50 - 2:52他们从来没有做过或说过的事情。
-
2:53 - 2:56Deepfake让这些看起来
是真实的,但事实上并不是; -
2:56 - 2:58这些都是虚假的视频。
-
2:59 - 3:03尽管这项技术还在
这种复杂性中发展, -
3:03 - 3:05但已经广泛被使用。
-
3:05 - 3:08大家最近对deepfakes最关注的,
-
3:08 - 3:11就像很多网上的事情一样,
-
3:11 - 3:12是色情媒介。
-
3:12 - 3:15在2018年早期,
-
3:15 - 3:17有人在Reddit论坛上发布了一个工具,
-
3:17 - 3:22可以让用户在色情视频中插入人脸。
-
3:22 - 3:25这促成了一系列伪造的色情视频,
-
3:25 - 3:28使用了人们最喜爱的女星的面貌。
-
3:29 - 3:32现在,你在YoutTube上能搜索到
-
3:32 - 3:34不计其数步骤详细的教学视频
-
3:35 - 3:38教你如何在电脑上制作这种视频。
-
3:38 - 3:42很快,我们也许也可以
在我们的手机上制作。 -
3:43 - 3:48此时,正是我们最基本的
人性弱点和网络工具的 -
3:48 - 3:50相互作用
-
3:50 - 3:53使得deepfakes变成了武器。
-
3:53 - 3:54让我解释一下。
-
3:55 - 3:59作为人类,我们对音频
和视频有直观的反应。 -
4:00 - 4:01我们相信反应是真实的,
-
4:01 - 4:03理论上当然你应该相信
-
4:03 - 4:06你的眼睛和耳朵告诉你的事情。
-
4:06 - 4:08并且正是那种机制
-
4:08 - 4:12削弱了我们共有的对现实的感觉。
-
4:12 - 4:15尽管我们相信deepfakes
是真的,但它不是。 -
4:16 - 4:20我们被那些淫秽和挑衅吸引了。
-
4:20 - 4:23我们倾向于去相信和共享
-
4:23 - 4:25消极和新奇的信息。
-
4:26 - 4:31研究者们发现网上的骗局比真实故事
-
4:31 - 4:32的传播速度快10倍。
-
4:34 - 4:38我们也容易被迎合
-
4:38 - 4:40我们观点的信息吸引。
-
4:41 - 4:45心理学家称这种倾向为
“验证性偏见”。 -
4:45 - 4:50同时社交媒体平台
极大鼓励了这种倾向, -
4:50 - 4:54允许我们即刻并广泛地分享
-
4:54 - 4:55符合我们自我观点的信息。
-
4:57 - 5:02Deepfakes能够对个人
和社会造成严重的潜在危害。 -
5:03 - 5:05想象一个deepfake视频
-
5:05 - 5:09显示美国士兵在阿富汗焚烧可兰经。
-
5:11 - 5:14你可以想象这个视频会挑起
-
5:14 - 5:15针对这些士兵的暴力行为。
-
5:16 - 5:19然后如果第二天
-
5:19 - 5:21又有另一个deepfake视频出现,
-
5:21 - 5:24展示在伦敦的一位有名的
伊玛目(伊斯兰教领袖的称号) -
5:24 - 5:27在赞美对士兵的袭击行为呢?
-
5:28 - 5:31我们可能会看见暴力和内乱,
-
5:31 - 5:34不仅出现在阿富汗和英国,
-
5:34 - 5:36而是全世界。
-
5:36 - 5:37你可能会对我说,
-
5:37 - 5:40“拜托, Danielle,你说的太牵强了。 ”
-
5:40 - 5:41但并不是。
-
5:41 - 5:43我们已经看见了许多虚假信息
-
5:44 - 5:46在WhatsApp和其它
在线聊天服务里传播, -
5:46 - 5:49导致了对少数民族的暴力。
-
5:49 - 5:51而那还仅仅是文字——
-
5:51 - 5:53如果是视频呢?
-
5:55 - 6:00Deepfakes有可能会腐蚀
我们在民主机构里 -
6:00 - 6:02的所拥有的信任。
-
6:03 - 6:06想象一下在选举的前一晚,
-
6:06 - 6:09Deepfake展示了
其中一个主要党派的候选人 -
6:09 - 6:10生了重病。
-
6:11 - 6:14它可以颠覆这个选举
-
6:14 - 6:17并动摇我们认为选举合法的想法。
-
6:19 - 6:22接下来,想象在一个跨国银行的
-
6:22 - 6:24首次公开募股的前夜,
-
6:24 - 6:27deepfake显示银行的CEO
-
6:27 - 6:30因为喝醉宣扬阴谋论。
-
6:31 - 6:34这个视频可以降低IPO的估值,
-
6:34 - 6:38更糟的是,动摇我们认为
金融市场稳定的感觉。 -
6:39 - 6:46所以,deepfakes可以利用
并放大我们对政客,商业领袖 -
6:46 - 6:51和其他有影响力的领导人
已有的深深的不信任性。 -
6:51 - 6:54它们找到了愿意相信它们的观众。
-
6:55 - 6:58对真相的追寻也岌岌可危。
-
6:59 - 7:03技术人员认为,
未来随着人工智能的进步, -
7:03 - 7:06想要分辨出真视频和假视频
-
7:06 - 7:10可能将会变得非常困难。
-
7:11 - 7:16那么真相如何才能在一个deepfake
驱使的思想市场中产生? -
7:17 - 7:20我们仅仅沿着阻力最小的路前进
-
7:20 - 7:23并相信我们想去相信的,
-
7:23 - 7:24而真相已经被诅咒了吗?
-
7:25 - 7:28而且不仅是我们相信虚假,
-
7:28 - 7:31可能是我们也开始不相信真相。
-
7:32 - 7:36我们已经见过人们
利用deepfakes的现象 -
7:36 - 7:40来质疑能证明他们
错误行为的真实证据。 -
7:40 - 7:46我们也听过政客回应
他们令人不安的评论, -
7:46 - 7:48“拜托,那是假新闻。
-
7:48 - 7:52你不能相信你的眼睛
和耳朵告诉你的事情。” -
7:52 - 7:54这是一种风险,
-
7:54 - 8:00Robert Chesney教授和我
把它叫做“撒谎者的福利”: -
8:00 - 8:03撒谎者利用deepfakes来
-
8:03 - 8:06逃避他们为错误行为负责的风险。
-
8:07 - 8:10所以我们知道我们的工作
非常艰难,毋庸置疑。 -
8:11 - 8:14我们需要一个
主动积极的解决方案, -
8:14 - 8:17来自于科技公司,国会议员,
-
8:17 - 8:19执法者和媒体。
-
8:20 - 8:24并且我们将需要健康的社会复原力。
-
8:26 - 8:29当下我们正在与科技公司
-
8:29 - 8:32进行关于社会责任的公开谈话。
-
8:33 - 8:36我对社交媒体平台的建议
-
8:36 - 8:40已经影响了他们的
服务条款和社区准则, -
8:40 - 8:42来禁止deepfakes造成危害。
-
8:43 - 8:47那种决心需要人类的判断,
-
8:47 - 8:48并且代价很大。
-
8:49 - 8:51但是我们需要人类
-
8:51 - 8:55去看看deepfake的内容和背景,
-
8:55 - 8:59弄清楚它是否是有害的伪装,
-
8:59 - 9:03或者相反,是否是有价值的
讽刺,艺术或教育。 -
9:04 - 9:06接下来,法律呢?
-
9:07 - 9:09法律是我们的教育家。
-
9:10 - 9:14它教育我们什么是有害的,
什么是错误的。 -
9:14 - 9:18法律通过惩罚肇事作案者
和保护对受害者的补救 -
9:18 - 9:20来规范行为。
-
9:21 - 9:25现在,法律还无法应对
deepfakes带来的挑战。 -
9:26 - 9:28在全球范围内,
-
9:28 - 9:30我们缺少精心制定的法律,
-
9:30 - 9:34解决数字伪造问题的法律,
-
9:34 - 9:36针对会侵犯性隐私,
-
9:36 - 9:37毁坏名誉
-
9:37 - 9:39并造成情绪困扰的事件的法律。
-
9:40 - 9:44发生在Rana Ayyub身上的
事情越来越普遍。 -
9:44 - 9:46但是,当她去德里
的执法部门举报时, -
9:46 - 9:48她被告知他们无能为力。
-
9:49 - 9:52并且令人悲伤的事实是,
在美国和欧洲 -
9:52 - 9:55可能是同样的情况。
-
9:55 - 10:00所以我们需要填补这一法律空白。
-
10:00 - 10:04我和同事Mary Anne Franks博士
正在和美国国会议员一起 -
10:04 - 10:09制定可以禁止有危害的数字伪造,
-
10:09 - 10:12相当于身份盗窃的法律。
-
10:12 - 10:14同时我们看见了
-
10:14 - 10:18在冰岛,英国和澳大利亚
有类似的过程在进行。 -
10:18 - 10:21但是当然,这只是
整个监管难题的一小部分。 -
10:23 - 10:26我知道法律并不是灵丹妙药。
-
10:26 - 10:28它是一个武器。
-
10:28 - 10:30我们需要智慧地使用它。
-
10:30 - 10:33法律也有一些实际的障碍。
-
10:34 - 10:39你不能利用法律对抗
你无法找到和定位的人。 -
10:39 - 10:43如果一个作案者居住在
-
10:43 - 10:45不同于受害者的国家,
-
10:45 - 10:46那么你可能无法强制作案者
-
10:46 - 10:49来到当地法庭
-
10:49 - 10:50来接受审判。
-
10:50 - 10:54因此我们需要一项协调一致的,
联合全球的响应策略。 -
10:56 - 10:59教育也是我们响应策略中的一部分。
-
11:00 - 11:04执法者不会去强制执行
-
11:04 - 11:05他们不知道的法律,
-
11:05 - 11:08也不会提出他们不明白的问题。
-
11:08 - 11:11在我关于网络追踪的研究中,
-
11:11 - 11:14我发现执法者缺少
-
11:14 - 11:17了解可供使用的法律
-
11:17 - 11:19和网络暴力问题的培训。
-
11:19 - 11:22所以他们经常告诉受害者,
-
11:22 - 11:26“把电脑关掉就行了,
不要管,自然就没了。” -
11:26 - 11:29我们在Rana Ayyub的案例中
也发现了这点。 -
11:29 - 11:33她被告知:
“拜托,你太小题大做了。 -
11:33 - 11:34他们只是不懂事的孩子。”
-
11:35 - 11:41所以我们需要展开针对新法律的培训。
-
11:42 - 11:45媒体也同样需要接受相关的培训。
-
11:46 - 11:50记者们需要接受关于
deepfakes现象的培训, -
11:50 - 11:54这样它们就不会被放大和传播。
-
11:55 - 11:57这正是我们所有人
需要参与其中的部分。 -
11:57 - 12:01我们每个人都需要这方面的教育。
-
12:01 - 12:05我们点击,我们分享,我们点赞,
但是我们没有认真去思考。 -
12:06 - 12:07我们需要做得更好。
-
12:08 - 12:11我们需要针对虚假事件
更敏锐的雷达。 -
12:14 - 12:18所以在我们研究解决方案的时候,
-
12:18 - 12:20会有很多痛苦和折磨围绕着我们。
-
12:21 - 12:24Rana Ayyub仍在和后果搏斗。
-
12:25 - 12:29她还是无法自在地
在线上和线下表达自己。 -
12:30 - 12:31就像她告诉我的,
-
12:31 - 12:36她仍然感觉有上千双眼睛
在看着她的裸体, -
12:36 - 12:40尽管理智上她知道
那并不是她的身体。 -
12:40 - 12:43而且她经常遭受惊吓,
-
12:43 - 12:47特别是当有陌生人试图去偷拍她。
-
12:47 - 12:50“如果他们想拍来做另一个
deepfake呢?”她不禁想。 -
12:51 - 12:55所以为了像Rana Ayyub一样的个人,
-
12:55 - 12:57为了我们的民主,
-
12:57 - 13:00我们现在就要有所作为。
-
13:00 - 13:01谢谢大家。
-
13:01 - 13:03(掌声)
- Title:
- Deepfakes是如何破坏真相,威胁民主的?
- Speaker:
- Danielle Citron
- Description:
-
Deepfake,是一种为了恶意的目的,像是引发暴力或诽谤政客和记者,来伪造视频或音频的技术。它的使用在逐渐变成一种真实的威胁。随着这方面的工具变的更加便捷,做出来的产品更加真实,它们将如何塑造我们对世界的看法?在这个演讲中,法律教授 Danielle Citron展示了Deepfakes技术如何放大了我们的不信任感,并且提出了一些保护真相的方法。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Cissy Yun approved Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Cissy Yun edited Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Yolanda Zhang accepted Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Nan Yang edited Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy | ||
Yolanda Zhang declined Chinese, Simplified subtitles for How deepfakes undermine truth and threaten democracy |