YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Chinese, Simplified subtitles

← Deepfakes是如何破坏真相,威胁民主的?

Deepfake,是一种为了恶意的目的,像是引发暴力或诽谤政客和记者,来伪造视频或音频的技术。它的使用在逐渐变成一种真实的威胁。随着这方面的工具变的更加便捷,做出来的产品更加真实,它们将如何塑造我们对世界的看法?在这个演讲中,法律教授 Danielle Citron展示了Deepfakes技术如何放大了我们的不信任感,并且提出了一些保护真相的方法。

Get Embed Code
17 Languages

Showing Revision 9 created 09/24/2019 by Cissy Yun.

  1. 【此演讲包含成人内容】
  2. Rana Ayyub
    是一位印度记者。

  3. 她的工作揭露了政府腐败
  4. 和人权侵犯。
  5. 这些年来,
  6. 她已经习惯了工作中的残酷和争议。
  7. 但这些都不足以让她准备好来
    面对2018年4月份的事情。
  8. 当时她和一个朋友坐在
    咖啡厅,第一次看见了

  9. 她自己出现在一个
    2分20秒的性爱视频里。
  10. 她不能相信自己的眼睛。
  11. 她从来没有拍摄过这样的视频。
  12. 但是很不幸的是,成千上万的人
  13. 选择相信就是她。
  14. 我在大约三个月前
    采访了Ayyub女士,

  15. 为了我的关于性隐私的书籍。
  16. 我是一个法律教授,
    律师和民权倡导者。
  17. 所以我非常沮丧,因为我知道
  18. 现在的法律几乎帮不到她。
  19. 当我们在谈话的时候,
  20. 她解释道她应该更早意识到
    虚假性爱视频的到来。
  21. 她说:‘’毕竟,性爱经常
    被用来贬低和羞辱女性,
  22. 特别是少数民族的妇女,
  23. 尤其是敢于挑战权势
    的少数民族妇女。”
  24. 就像她在工作所做的那样。
  25. 那个伪造的性爱视频
    在48小时之内像病毒一样传播。
  26. 她所有的线上账户
    都被这些视频截屏淹没,
  27. 同时还有图片形式的强奸和死亡威胁
  28. 和对她穆斯林信仰的诽谤。
  29. 网上的帖子说她可以
    随意跟其他人进行性行为。
  30. 并且她已经被“人肉”,
  31. 也就是说她的家庭住址和手机号
  32. 已经在互联网上随处可见。
  33. 那个视频已经被分享了超过4万次。
  34. 如今,这样的网络暴力,

  35. 其伤害是非常深远的。
  36. Rana Ayyub的生活已经彻底改变。
  37. 几周时间里,
    她几乎不吃饭也不说话。
  38. 她不再写文章,
    关闭了所有社交媒体账户,
  39. 这是作为一个记者很难应付的事情。
  40. 她不敢走出家门。
  41. 如果那些发帖的人
    真的进行了威胁呢?
  42. 联合国人权理事会
    确认她没有精神问题。
  43. 他们发布了一个声明,
    表示担心她的人身安全。
  44. Rana Ayyub面对的是deepfake :
    (“深度学习”和“伪造”的混合词)

  45. 一种机器学习技术,
  46. 能够操纵或者伪造视频和音频
  47. 来展示人们做了或者说了
  48. 他们从来没有做过或说过的事情。
  49. Deepfake让这些看起来
    是真实的,但事实上并不是;
  50. 这些都是虚假的视频。
  51. 尽管这项技术还在
    这种复杂性中发展,
  52. 但已经广泛被使用。
  53. 大家最近对deepfakes最关注的,

  54. 就像很多网上的事情一样,
  55. 是色情媒介。
  56. 在2018年早期,

  57. 有人在Reddit论坛上发布了一个工具,
  58. 可以让用户在色情视频中插入人脸。
  59. 这促成了一系列伪造的色情视频,
  60. 使用了人们最喜爱的女星的面貌。
  61. 现在,你在YoutTube上能搜索到
  62. 不计其数步骤详细的教学视频
  63. 教你如何在电脑上制作这种视频。
  64. 很快,我们也许也可以
    在我们的手机上制作。
  65. 此时,正是我们最基本的
    人性弱点和网络工具的
  66. 相互作用
  67. 使得deepfakes变成了武器。
  68. 让我解释一下。
  69. 作为人类,我们对音频
    和视频有直观的反应。

  70. 我们相信反应是真实的,
  71. 理论上当然你应该相信
  72. 你的眼睛和耳朵告诉你的事情。
  73. 并且正是那种机制
  74. 削弱了我们共有的对现实的感觉。
  75. 尽管我们相信deepfakes
    是真的,但它不是。
  76. 我们被那些淫秽和挑衅吸引了。
  77. 我们倾向于去相信和共享
  78. 消极和新奇的信息。
  79. 研究者们发现网上的骗局比真实故事
  80. 的传播速度快10倍。
  81. 我们也容易被迎合
  82. 我们观点的信息吸引。
  83. 心理学家称这种倾向为
    “验证性偏见”。
  84. 同时社交媒体平台
    极大鼓励了这种倾向,
  85. 允许我们即刻并广泛地分享
  86. 符合我们自我观点的信息。
  87. Deepfakes能够对个人
    和社会造成严重的潜在危害。

  88. 想象一个deepfake视频
  89. 显示美国士兵在阿富汗焚烧可兰经。
  90. 你可以想象这个视频会挑起
  91. 针对这些士兵的暴力行为。
  92. 然后如果第二天
  93. 又有另一个deepfake视频出现,
  94. 展示在伦敦的一位有名的
    伊玛目(伊斯兰教领袖的称号)
  95. 在赞美对士兵的袭击行为呢?
  96. 我们可能会看见暴力和内乱,
  97. 不仅出现在阿富汗和英国,
  98. 而是全世界。
  99. 你可能会对我说,

  100. “拜托, Danielle,你说的太牵强了。 ”
  101. 但并不是。
  102. 我们已经看见了许多虚假信息
  103. 在WhatsApp和其它
    在线聊天服务里传播,
  104. 导致了对少数民族的暴力。
  105. 而那还仅仅是文字——
  106. 如果是视频呢?
  107. Deepfakes有可能会腐蚀
    我们在民主机构里

  108. 的所拥有的信任。
  109. 想象一下在选举的前一晚,
  110. Deepfake展示了
    其中一个主要党派的候选人
  111. 生了重病。
  112. 它可以颠覆这个选举
  113. 并动摇我们认为选举合法的想法。
  114. 接下来,想象在一个跨国银行的
  115. 首次公开募股的前夜,
  116. deepfake显示银行的CEO
  117. 因为喝醉宣扬阴谋论。
  118. 这个视频可以降低IPO的估值,
  119. 更糟的是,动摇我们认为
    金融市场稳定的感觉。
  120. 所以,deepfakes可以利用
    并放大我们对政客,商业领袖

  121. 和其他有影响力的领导人
    已有的深深的不信任性。
  122. 它们找到了愿意相信它们的观众。
  123. 对真相的追寻也岌岌可危。
  124. 技术人员认为,
    未来随着人工智能的进步,
  125. 想要分辨出真视频和假视频
  126. 可能将会变得非常困难。
  127. 那么真相如何才能在一个deepfake
    驱使的思想市场中产生?

  128. 我们仅仅沿着阻力最小的路前进
  129. 并相信我们想去相信的,
  130. 而真相已经被诅咒了吗?
  131. 而且不仅是我们相信虚假,
  132. 可能是我们也开始不相信真相。
  133. 我们已经见过人们
    利用deepfakes的现象
  134. 来质疑能证明他们
    错误行为的真实证据。
  135. 我们也听过政客回应
    他们令人不安的评论,
  136. “拜托,那是假新闻。
  137. 你不能相信你的眼睛
    和耳朵告诉你的事情。”
  138. 这是一种风险,
  139. Robert Chesney教授和我
    把它叫做“撒谎者的福利”:
  140. 撒谎者利用deepfakes来
  141. 逃避他们为错误行为负责的风险。
  142. 所以我们知道我们的工作
    非常艰难,毋庸置疑。

  143. 我们需要一个
    主动积极的解决方案,
  144. 来自于科技公司,国会议员,
  145. 执法者和媒体。
  146. 并且我们将需要健康的社会复原力。
  147. 当下我们正在与科技公司
  148. 进行关于社会责任的公开谈话。
  149. 我对社交媒体平台的建议
  150. 已经影响了他们的
    服务条款和社区准则,
  151. 来禁止deepfakes造成危害。
  152. 那种决心需要人类的判断,
  153. 并且代价很大。
  154. 但是我们需要人类
  155. 去看看deepfake的内容和背景,
  156. 弄清楚它是否是有害的伪装,
  157. 或者相反,是否是有价值的
    讽刺,艺术或教育。
  158. 接下来,法律呢?

  159. 法律是我们的教育家。
  160. 它教育我们什么是有害的,
    什么是错误的。
  161. 法律通过惩罚肇事作案者
    和保护对受害者的补救
  162. 来规范行为。
  163. 现在,法律还无法应对
    deepfakes带来的挑战。
  164. 在全球范围内,
  165. 我们缺少精心制定的法律,
  166. 解决数字伪造问题的法律,
  167. 针对会侵犯性隐私,
  168. 毁坏名誉
  169. 并造成情绪困扰的事件的法律。
  170. 发生在Rana Ayyub身上的
    事情越来越普遍。
  171. 但是,当她去德里
    的执法部门举报时,
  172. 她被告知他们无能为力。
  173. 并且令人悲伤的事实是,
    在美国和欧洲
  174. 可能是同样的情况。
  175. 所以我们需要填补这一法律空白。

  176. 我和同事Mary Anne Franks博士
    正在和美国国会议员一起
  177. 制定可以禁止有危害的数字伪造,
  178. 相当于身份盗窃的法律。
  179. 同时我们看见了
  180. 在冰岛,英国和澳大利亚
    有类似的过程在进行。
  181. 但是当然,这只是
    整个监管难题的一小部分。
  182. 我知道法律并不是灵丹妙药。

  183. 它是一个武器。
  184. 我们需要智慧地使用它。
  185. 法律也有一些实际的障碍。
  186. 你不能利用法律对抗
    你无法找到和定位的人。
  187. 如果一个作案者居住在
  188. 不同于受害者的国家,
  189. 那么你可能无法强制作案者
  190. 来到当地法庭
  191. 来接受审判。
  192. 因此我们需要一项协调一致的,
    联合全球的响应策略。
  193. 教育也是我们响应策略中的一部分。
  194. 执法者不会去强制执行
  195. 他们不知道的法律,
  196. 也不会提出他们不明白的问题。
  197. 在我关于网络追踪的研究中,
  198. 我发现执法者缺少
  199. 了解可供使用的法律
  200. 和网络暴力问题的培训。
  201. 所以他们经常告诉受害者,
  202. “把电脑关掉就行了,
    不要管,自然就没了。”
  203. 我们在Rana Ayyub的案例中
    也发现了这点。
  204. 她被告知:
    “拜托,你太小题大做了。
  205. 他们只是不懂事的孩子。”
  206. 所以我们需要展开针对新法律的培训。
  207. 媒体也同样需要接受相关的培训。

  208. 记者们需要接受关于
    deepfakes现象的培训,
  209. 这样它们就不会被放大和传播。
  210. 这正是我们所有人
    需要参与其中的部分。
  211. 我们每个人都需要这方面的教育。
  212. 我们点击,我们分享,我们点赞,
    但是我们没有认真去思考。
  213. 我们需要做得更好。
  214. 我们需要针对虚假事件
    更敏锐的雷达。
  215. 所以在我们研究解决方案的时候,

  216. 会有很多痛苦和折磨围绕着我们。
  217. Rana Ayyub仍在和后果搏斗。
  218. 她还是无法自在地
    在线上和线下表达自己。
  219. 就像她告诉我的,
  220. 她仍然感觉有上千双眼睛
    在看着她的裸体,
  221. 尽管理智上她知道
    那并不是她的身体。
  222. 而且她经常遭受惊吓,
  223. 特别是当有陌生人试图去偷拍她。
  224. “如果他们想拍来做另一个
    deepfake呢?”她不禁想。
  225. 所以为了像Rana Ayyub一样的个人,
  226. 为了我们的民主,
  227. 我们现在就要有所作为。
  228. 谢谢大家。

  229. (掌声)