0:00:00.115,0:00:02.882 【此演讲包含成人内容】 0:00:05.762,0:00:08.754 Rana Ayyub[br]是一位印度记者。 0:00:08.778,0:00:11.380 她的工作揭露了政府腐败 0:00:12.411,0:00:14.568 和人权侵犯。 0:00:14.990,0:00:16.157 这些年来, 0:00:16.181,0:00:19.484 她已经习惯了工作中的残酷和争议。 0:00:20.149,0:00:25.258 但这些都不足以让她准备好来[br]面对2018年4月份的事情。 0:00:26.125,0:00:29.776 当时她和一个朋友坐在[br]咖啡厅,第一次看见了 0:00:29.800,0:00:34.743 她自己出现在一个[br]2分20秒的性爱视频里。 0:00:35.188,0:00:37.537 她不能相信自己的眼睛。 0:00:37.561,0:00:39.834 她从来没有拍摄过这样的视频。 0:00:40.506,0:00:43.971 但是很不幸的是,成千上万的人 0:00:43.995,0:00:45.661 选择相信就是她。 0:00:46.673,0:00:49.617 我在大约三个月前[br]采访了Ayyub女士, 0:00:49.641,0:00:52.145 为了我的关于性隐私的书籍。 0:00:52.681,0:00:55.879 我是一个法律教授,[br]律师和民权倡导者。 0:00:56.204,0:01:00.675 所以我非常沮丧,因为我知道 0:01:00.679,0:01:03.077 现在的法律几乎帮不到她。 0:01:03.458,0:01:05.005 当我们在谈话的时候, 0:01:05.029,0:01:09.541 她解释道她应该更早意识到[br]虚假性爱视频的到来。 0:01:10.038,0:01:15.634 她说:‘’毕竟,性爱经常[br]被用来贬低和羞辱女性, 0:01:15.658,0:01:18.086 特别是少数民族的妇女, 0:01:18.110,0:01:22.422 尤其是敢于挑战权势[br]的少数民族妇女。” 0:01:22.446,0:01:23.979 就像她在工作所做的那样。 0:01:25.191,0:01:29.167 那个伪造的性爱视频[br]在48小时之内像病毒一样传播。 0:01:30.064,0:01:35.371 她所有的线上账户[br]都被这些视频截屏淹没, 0:01:35.395,0:01:38.022 同时还有图片形式的强奸和死亡威胁 0:01:38.046,0:01:40.579 和对她穆斯林信仰的诽谤。 0:01:41.426,0:01:45.990 网上的帖子说她可以[br]随意跟其他人进行性行为。 0:01:46.014,0:01:47.624 并且她已经被“人肉”, 0:01:47.648,0:01:50.426 也就是说她的家庭住址和手机号 0:01:50.450,0:01:52.196 已经在互联网上随处可见。 0:01:52.879,0:01:56.963 那个视频已经被分享了超过4万次。 0:01:57.760,0:02:01.696 如今,这样的网络暴力, 0:02:01.720,0:02:03.783 其伤害是非常深远的。 0:02:04.482,0:02:07.521 Rana Ayyub的生活已经彻底改变。 0:02:08.211,0:02:11.545 几周时间里,[br]她几乎不吃饭也不说话。 0:02:11.919,0:02:15.608 她不再写文章,[br]关闭了所有社交媒体账户, 0:02:15.632,0:02:18.790 这是作为一个记者很难应付的事情。 0:02:19.188,0:02:22.672 她不敢走出家门。 0:02:22.696,0:02:25.718 如果那些发帖的人[br]真的进行了威胁呢? 0:02:26.395,0:02:30.760 联合国人权理事会[br]确认她没有精神问题。 0:02:30.784,0:02:35.421 他们发布了一个声明,[br]表示担心她的人身安全。 0:02:36.776,0:02:41.005 Rana Ayyub面对的是deepfake :[br](“深度学习”和“伪造”的混合词) 0:02:41.029,0:02:43.569 一种机器学习技术, 0:02:43.593,0:02:47.704 能够操纵或者伪造视频和音频 0:02:47.728,0:02:50.451 来展示人们做了或者说了 0:02:50.475,0:02:52.341 他们从来没有做过或说过的事情。 0:02:52.807,0:02:56.168 Deepfake让这些看起来[br]是真实的,但事实上并不是; 0:02:56.192,0:02:57.964 这些都是虚假的视频。 0:02:59.228,0:03:03.022 尽管这项技术还在[br]这种复杂性中发展, 0:03:03.046,0:03:04.660 但已经广泛被使用。 0:03:05.371,0:03:08.443 大家最近对deepfakes最关注的, 0:03:08.467,0:03:10.628 就像很多网上的事情一样, 0:03:10.652,0:03:11.907 是色情媒介。 0:03:12.498,0:03:14.609 在2018年早期, 0:03:14.633,0:03:17.101 有人在Reddit论坛上发布了一个工具, 0:03:17.125,0:03:21.537 可以让用户在色情视频中插入人脸。 0:03:21.561,0:03:25.001 这促成了一系列伪造的色情视频, 0:03:25.025,0:03:27.822 使用了人们最喜爱的女星的面貌。 0:03:28.712,0:03:32.189 现在,你在YoutTube上能搜索到 0:03:32.213,0:03:34.499 不计其数步骤详细的教学视频 0:03:34.523,0:03:37.686 教你如何在电脑上制作这种视频。 0:03:38.260,0:03:41.966 很快,我们也许也可以[br]在我们的手机上制作。 0:03:43.072,0:03:48.454 此时,正是我们最基本的[br]人性弱点和网络工具的 0:03:48.478,0:03:50.160 相互作用 0:03:50.184,0:03:52.850 使得deepfakes变成了武器。 0:03:52.874,0:03:54.074 让我解释一下。 0:03:54.875,0:03:59.441 作为人类,我们对音频[br]和视频有直观的反应。 0:03:59.860,0:04:01.348 我们相信反应是真实的, 0:04:01.372,0:04:03.450 理论上当然你应该相信 0:04:03.474,0:04:05.952 你的眼睛和耳朵告诉你的事情。 0:04:06.476,0:04:08.175 并且正是那种机制 0:04:08.199,0:04:11.897 削弱了我们共有的对现实的感觉。 0:04:11.921,0:04:15.068 尽管我们相信deepfakes[br]是真的,但它不是。 0:04:15.604,0:04:19.761 我们被那些淫秽和挑衅吸引了。 0:04:20.365,0:04:23.412 我们倾向于去相信和共享 0:04:23.436,0:04:25.459 消极和新奇的信息。 0:04:25.809,0:04:30.828 研究者们发现网上的骗局比真实故事 0:04:30.852,0:04:32.479 的传播速度快10倍。 0:04:34.015,0:04:38.395 我们也容易被迎合 0:04:38.419,0:04:40.311 我们观点的信息吸引。 0:04:40.950,0:04:44.511 心理学家称这种倾向为[br]“验证性偏见”。 0:04:45.300,0:04:49.687 同时社交媒体平台[br]极大鼓励了这种倾向, 0:04:49.711,0:04:53.592 允许我们即刻并广泛地分享 0:04:53.616,0:04:55.408 符合我们自我观点的信息。 0:04:56.735,0:05:02.303 Deepfakes能够对个人[br]和社会造成严重的潜在危害。 0:05:03.204,0:05:05.228 想象一个deepfake视频 0:05:05.252,0:05:09.434 显示美国士兵在阿富汗焚烧可兰经。 0:05:10.807,0:05:13.831 你可以想象这个视频会挑起 0:05:13.855,0:05:15.388 针对这些士兵的暴力行为。 0:05:15.847,0:05:18.720 然后如果第二天 0:05:18.744,0:05:20.998 又有另一个deepfake视频出现, 0:05:21.022,0:05:24.339 展示在伦敦的一位有名的[br]伊玛目(伊斯兰教领袖的称号) 0:05:24.363,0:05:26.830 在赞美对士兵的袭击行为呢? 0:05:27.617,0:05:30.780 我们可能会看见暴力和内乱, 0:05:30.804,0:05:34.053 不仅出现在阿富汗和英国, 0:05:34.077,0:05:35.592 而是全世界。 0:05:36.251,0:05:37.283 你可能会对我说, 0:05:37.283,0:05:39.680 “拜托, Danielle,你说的太牵强了。 ” 0:05:39.704,0:05:40.854 但并不是。 0:05:41.293,0:05:43.484 我们已经看见了许多虚假信息 0:05:43.508,0:05:46.230 在WhatsApp和其它[br]在线聊天服务里传播, 0:05:46.254,0:05:49.015 导致了对少数民族的暴力。 0:05:49.039,0:05:50.926 而那还仅仅是文字—— 0:05:50.950,0:05:52.974 如果是视频呢? 0:05:54.593,0:05:59.950 Deepfakes有可能会腐蚀[br]我们在民主机构里 0:05:59.974,0:06:01.966 的所拥有的信任。 0:06:03.006,0:06:05.673 想象一下在选举的前一晚, 0:06:05.996,0:06:09.234 Deepfake展示了[br]其中一个主要党派的候选人 0:06:09.258,0:06:10.408 生了重病。 0:06:11.202,0:06:13.535 它可以颠覆这个选举 0:06:13.559,0:06:16.934 并动摇我们认为选举合法的想法。 0:06:18.515,0:06:21.841 接下来,想象在一个跨国银行的 0:06:21.865,0:06:24.198 首次公开募股的前夜, 0:06:24.222,0:06:27.371 deepfake显示银行的CEO 0:06:27.395,0:06:30.092 因为喝醉宣扬阴谋论。 0:06:30.887,0:06:33.934 这个视频可以降低IPO的估值, 0:06:33.958,0:06:38.073 更糟的是,动摇我们认为[br]金融市场稳定的感觉。 0:06:39.155,0:06:46.374 所以,deepfakes可以利用[br]并放大我们对政客,商业领袖 0:06:46.398,0:06:50.612 和其他有影响力的领导人[br]已有的深深的不信任性。 0:06:50.945,0:06:54.229 它们找到了愿意相信它们的观众。 0:06:55.287,0:06:58.052 对真相的追寻也岌岌可危。 0:06:59.077,0:07:02.641 技术人员认为,[br]未来随着人工智能的进步, 0:07:02.665,0:07:06.347 想要分辨出真视频和假视频 0:07:06.371,0:07:10.140 可能将会变得非常困难。 0:07:11.022,0:07:16.363 那么真相如何才能在一个deepfake[br]驱使的思想市场中产生? 0:07:16.752,0:07:20.172 我们仅仅沿着阻力最小的路前进 0:07:20.196,0:07:22.633 并相信我们想去相信的, 0:07:22.657,0:07:23.807 而真相已经被诅咒了吗? 0:07:24.831,0:07:28.006 而且不仅是我们相信虚假, 0:07:28.030,0:07:31.356 可能是我们也开始不相信真相。 0:07:31.887,0:07:35.966 我们已经见过人们[br]利用deepfakes的现象 0:07:35.990,0:07:39.910 来质疑能证明他们[br]错误行为的真实证据。 0:07:39.934,0:07:45.903 我们也听过政客回应[br]他们令人不安的评论, 0:07:45.927,0:07:47.673 “拜托,那是假新闻。 0:07:47.697,0:07:51.617 你不能相信你的眼睛[br]和耳朵告诉你的事情。” 0:07:52.402,0:07:54.133 这是一种风险, 0:07:54.157,0:07:59.593 Robert Chesney教授和我[br]把它叫做“撒谎者的福利”: 0:07:59.617,0:08:02.974 撒谎者利用deepfakes来 0:08:02.998,0:08:05.903 逃避他们为错误行为负责的风险。 0:08:06.963,0:08:10.034 所以我们知道我们的工作[br]非常艰难,毋庸置疑。 0:08:10.606,0:08:13.931 我们需要一个[br]主动积极的解决方案, 0:08:13.955,0:08:17.466 来自于科技公司,国会议员, 0:08:17.490,0:08:19.474 执法者和媒体。 0:08:20.093,0:08:24.109 并且我们将需要健康的社会复原力。 0:08:25.506,0:08:29.402 当下我们正在与科技公司 0:08:29.426,0:08:32.339 进行关于社会责任的公开谈话。 0:08:32.926,0:08:35.958 我对社交媒体平台的建议 0:08:35.982,0:08:39.855 已经影响了他们的[br]服务条款和社区准则, 0:08:39.879,0:08:42.215 来禁止deepfakes造成危害。 0:08:42.712,0:08:46.672 那种决心需要人类的判断, 0:08:46.696,0:08:48.267 并且代价很大。 0:08:48.673,0:08:50.958 但是我们需要人类 0:08:50.982,0:08:54.855 去看看deepfake的内容和背景, 0:08:54.879,0:08:58.561 弄清楚它是否是有害的伪装, 0:08:58.585,0:09:02.967 或者相反,是否是有价值的[br]讽刺,艺术或教育。 0:09:04.118,0:09:05.613 接下来,法律呢? 0:09:06.666,0:09:09.015 法律是我们的教育家。 0:09:09.515,0:09:13.553 它教育我们什么是有害的,[br]什么是错误的。 0:09:13.577,0:09:18.132 法律通过惩罚肇事作案者[br]和保护对受害者的补救 0:09:18.156,0:09:20.423 来规范行为。 0:09:21.148,0:09:25.428 现在,法律还无法应对[br]deepfakes带来的挑战。 0:09:26.116,0:09:27.506 在全球范围内, 0:09:27.530,0:09:29.974 我们缺少精心制定的法律, 0:09:29.998,0:09:33.568 解决数字伪造问题的法律, 0:09:33.592,0:09:35.823 针对会侵犯性隐私, 0:09:35.847,0:09:37.234 毁坏名誉 0:09:37.258,0:09:39.209 并造成情绪困扰的事件的法律。 0:09:39.725,0:09:43.598 发生在Rana Ayyub身上的[br]事情越来越普遍。 0:09:44.074,0:09:46.288 但是,当她去德里[br]的执法部门举报时, 0:09:46.312,0:09:48.447 她被告知他们无能为力。 0:09:49.101,0:09:52.284 并且令人悲伤的事实是,[br]在美国和欧洲 0:09:52.308,0:09:54.574 可能是同样的情况。 0:09:55.300,0:09:59.656 所以我们需要填补这一法律空白。 0:10:00.292,0:10:04.384 我和同事Mary Anne Franks博士[br]正在和美国国会议员一起 0:10:04.408,0:10:09.212 制定可以禁止有危害的数字伪造, 0:10:09.236,0:10:11.769 相当于身份盗窃的法律。 0:10:12.252,0:10:14.378 同时我们看见了 0:10:14.402,0:10:17.703 在冰岛,英国和澳大利亚[br]有类似的过程在进行。 0:10:18.157,0:10:21.416 但是当然,这只是[br]整个监管难题的一小部分。 0:10:22.911,0:10:26.080 我知道法律并不是灵丹妙药。 0:10:26.104,0:10:27.704 它是一个武器。 0:10:28.346,0:10:29.885 我们需要智慧地使用它。 0:10:30.411,0:10:33.223 法律也有一些实际的障碍。 0:10:33.657,0:10:38.701 你不能利用法律对抗[br]你无法找到和定位的人。 0:10:39.463,0:10:42.749 如果一个作案者居住在 0:10:42.773,0:10:44.527 不同于受害者的国家, 0:10:44.551,0:10:46.180 那么你可能无法强制作案者 0:10:46.204,0:10:48.553 来到当地法庭 0:10:48.577,0:10:49.727 来接受审判。 0:10:50.236,0:10:54.299 因此我们需要一项协调一致的,[br]联合全球的响应策略。 0:10:55.819,0:10:59.152 教育也是我们响应策略中的一部分。 0:10:59.803,0:11:03.534 执法者不会去强制执行 0:11:03.558,0:11:05.016 他们不知道的法律, 0:11:05.040,0:11:07.636 也不会提出他们不明白的问题。 0:11:08.376,0:11:10.567 在我关于网络追踪的研究中, 0:11:10.591,0:11:14.090 我发现执法者缺少 0:11:14.114,0:11:16.696 了解可供使用的法律 0:11:16.720,0:11:19.069 和网络暴力问题的培训。 0:11:19.093,0:11:21.775 所以他们经常告诉受害者, 0:11:21.799,0:11:25.770 “把电脑关掉就行了,[br]不要管,自然就没了。” 0:11:26.261,0:11:28.727 我们在Rana Ayyub的案例中[br]也发现了这点。 0:11:29.102,0:11:32.570 她被告知:[br]“拜托,你太小题大做了。 0:11:32.594,0:11:34.337 他们只是不懂事的孩子。” 0:11:35.268,0:11:40.520 所以我们需要展开针对新法律的培训。 0:11:42.053,0:11:45.482 媒体也同样需要接受相关的培训。 0:11:46.180,0:11:50.440 记者们需要接受关于[br]deepfakes现象的培训, 0:11:50.464,0:11:53.503 这样它们就不会被放大和传播。 0:11:54.583,0:11:56.625 这正是我们所有人[br]需要参与其中的部分。 0:11:56.625,0:12:00.630 我们每个人都需要这方面的教育。 0:12:01.375,0:12:05.050 我们点击,我们分享,我们点赞,[br]但是我们没有认真去思考。 0:12:05.551,0:12:07.098 我们需要做得更好。 0:12:07.726,0:12:10.535 我们需要针对虚假事件[br]更敏锐的雷达。 0:12:13.744,0:12:17.585 所以在我们研究解决方案的时候, 0:12:17.609,0:12:20.172 会有很多痛苦和折磨围绕着我们。 0:12:21.093,0:12:23.839 Rana Ayyub仍在和后果搏斗。 0:12:24.669,0:12:28.858 她还是无法自在地[br]在线上和线下表达自己。 0:12:29.566,0:12:30.931 就像她告诉我的, 0:12:30.955,0:12:36.029 她仍然感觉有上千双眼睛[br]在看着她的裸体, 0:12:36.053,0:12:39.714 尽管理智上她知道[br]那并不是她的身体。 0:12:40.371,0:12:42.720 而且她经常遭受惊吓, 0:12:42.744,0:12:46.844 特别是当有陌生人试图去偷拍她。 0:12:46.868,0:12:50.379 “如果他们想拍来做另一个[br]deepfake呢?”她不禁想。 0:12:51.082,0:12:55.003 所以为了像Rana Ayyub一样的个人, 0:12:55.027,0:12:57.333 为了我们的民主, 0:12:57.357,0:12:59.539 我们现在就要有所作为。 0:12:59.563,0:13:00.714 谢谢大家。 0:13:00.738,0:13:03.246 (掌声)