Russian subtitles

← Как дипфейки разрушают правду и угрожают демократии

Get Embed Code
21 Languages

Showing Revision 16 created 01/07/2020 by Yulia Kallistratova.

  1. [Это выступление
    предназначено для взрослых]
  2. Рана Айюб — индийская журналистка,

  3. разоблачающая коррупцию в правительстве
  4. и нарушения прав человека.
  5. За многие годы
  6. она привыкла к ядовитой критике
    и конфликтам вокруг своей работы.
  7. Но ничто не могло подготовить её к тому,
    с чем она столкнулась в апреле 2018 года.
  8. Она сидела в кафе с другом,
    когда впервые увидела это:

  9. видео в 2 минуты и 20 секунд,
    в котором она занимается сексом.
  10. Она не могла поверить своим глазам.
  11. Она никогда не снимала секс-видео.
  12. Но, к сожалению, многие тысячи людей
  13. поверят, что это она.
  14. Я брала интервью у мисс Айюб
    около трёх месяцев назад

  15. в связи с моей книгой
    о неприкосновенности сексуальной жизни.
  16. Я профессор права, адвокат
    и защитник гражданских прав.
  17. Поэтому мне прискорбно сознавать,
    что в данный момент
  18. закон мало чем может ей помочь.
  19. В разговоре она пояснила,
  20. что, наверное, должна была ожидать
    фальшивого секс-видео.
  21. Она сказала: «Секс так часто используется,
    чтобы унизить или опозорить женщин,
  22. особенно женщин из меньшинств
  23. и особенно женщин из меньшинств,
    которые бросают вызов сильным мужчинам»,
  24. как она в своей работе.
  25. Фальшивое видео
    распространилось за 48 часов.
  26. Все её онлайн-аккаунты
    были завалены скриншотами этого видео
  27. с явными угрозами изнасилования и смерти
  28. и оскорблениями её мусульманской веры.
  29. Посты в интернете
    говорили о её «доступности».
  30. Личные данные её взломали,
  31. а это значит, что её адрес
    и номер мобильного телефона
  32. были опубликованы в интернете.
  33. Видео расшарили более 40 000 раз.
  34. Когда кто-то становится мишенью
    такой кибератаки,

  35. вред от этого огромен.
  36. Жизнь Раны Айюб навсегда изменилась.
  37. Неделями она не могла ни есть,
  38. ни говорить.
  39. Она перестала писать
    и закрыла все свои аккаунты в соцсетях,
  40. что, как вы понимаете, нелегко,
    когда ты журналист.
  41. Она боялась выходить из дома,
    где жила с семьёй.
  42. Что, если преследователи
    выполнят свои угрозы?
  43. Совет ООН по правам человека подтвердил,
    что она не сошла с ума.
  44. В публичном заявлении он выразил
    беспокойство о её безопасности.
  45. Рана Айюб столкнулась с тем,
    что называется дипфейком:

  46. это технология искусственного интеллекта,
  47. которая манипулирует аудио-
    и видеозаписями или фабрикует их так,
  48. что люди в них делают и говорят то,
  49. чего никогда не говорили и не делали.
  50. Дипфейки кажутся подлинными
    и реалистичными, но это не так:
  51. это абсолютная фальшивка.
  52. Хотя эта технология ещё развивается,
    становясь всё изощрённей,
  53. она широко доступна.
  54. В последнее время дипфейки
    стали привлекать внимание,

  55. как и многое другое онлайн,
  56. в связи с порнографией.
  57. В начале 2018 года

  58. кто-то разместил на Reddit инструмент,
  59. позволяющий вставлять лица в порно-видео.
  60. За этим последовал поток
    фальшивых порно-роликов
  61. с участием любимых женщин-знаменитостей.
  62. И сегодня на YouTube можно найти
    бесчисленные обучающие программы
  63. с пошаговыми инструкциями о том,
  64. как сфабриковать дипфейк
    в вашем настольном приложении.
  65. Вскоре, возможно, мы сможем
    создавать их даже на мобильных телефонах.
  66. Взаимодействие низших
    человеческих порывов
  67. и сетевых средств
  68. превращают дипфейки в оружие.
  69. Разрешите, я объясню.
  70. Существует инстинктивная
    реакция на аудио и видео.

  71. Мы верим им:
  72. а как же не верить
  73. своим глазам и ушам?
  74. И именно такой механизм
  75. может подорвать
    наше общее чувство реальности.
  76. Хотя дипфейки кажутся нам
    правдой, это не так.
  77. Нас привлекает непристойность, провокация.
  78. Мы склонны верить и распространять
  79. новую или негативную информацию.
  80. Учёные обнаружили, что в интернете
    подделки распространяются
  81. в 10 раз быстрее, чем правдивые истории.
  82. Нас также привлекает информация,
  83. которая соответствует нашим взглядам.
  84. Психологи называют эту тенденцию
    «предвзятость подтверждения».
  85. А социальные медиа-платформы
    усиливают эту тенденцию,
  86. позволяя нам мгновенно и широко
    обмениваться информацией,
  87. согласующейся с нашей точкой зрения.
  88. Дипфейки могут нанести
    серьёзный личный и общественный вред.

  89. Представьте себе фальшивку,
  90. на которой американские солдаты
    в Афганистане сжигают Коран.
  91. Вы понимаете, что такая подделка
    может спровоцировать насилие
  92. в отношении американских солдат.
  93. А что, если на следующий день
  94. появится новая фальшивка,
  95. на которой известный лондонский имам
  96. восхваляет нападение на этих солдат?
  97. Насилие и общественные беспорядки
  98. могут произойти не только
    в Афганистане и Великобритании,
  99. но и во всём мире.
  100. Вы можете сказать мне:

  101. «Ладно, Даниэль, ты преувеличиваешь».
  102. Но это не так.
  103. Мы видели, как ложь, распространяемая
  104. на WhatsApp и других мессенджерах,
  105. приводила к насилию
    в отношении этнических меньшинств.
  106. И это был просто текст —
  107. представьте, если бы это было видео.
  108. Дипфейки могут подорвать наше доверие

  109. к демократическим институтам.
  110. Представьте себе, что накануне выборов
  111. появляется подделка, показывающая,
    что один из основных кандидатов
  112. тяжело болен.
  113. Дипфейк может перевесить чашу весов
  114. и поколебать веру в легитимность выборов.
  115. Представьте, что накануне первого
    публичного размещения акций
  116. одного из крупнейших банков
  117. появляется подделка,
    на которой гендиректор
  118. в пьяном виде болтает о заговорах.
  119. Дипфейк может сорвать мероприятие
  120. и, хуже того, поколебать нашу веру
    в стабильность финансовых рынков.
  121. Так, дипфейки используют и усиливают
    уже имеющееся у нас глубокое недоверие

  122. к политикам, крупным бизнесменам
    и другим влиятельным лидерам.
  123. Они находят аудиторию,
    готовую им поверить.
  124. И стремление к истине
    тоже поставлено на карту.
  125. Технологи ожидают,
    что с развитием искусственного интеллекта
  126. вскоре будет трудно или даже невозможно
  127. отличить настоящее видео от поддельного.
  128. Как же распознать истину
    на рынке идей, полном подделок?

  129. Пойдём ли мы по пути
    наименьшего сопротивления,
  130. начнём ли верить во что хотим
  131. и к чёрту правду?
  132. Мы не только, возможно,
    поверим подделкам,
  133. мы перестанем верить правде.
  134. Мы уже видели, как люди используют
    феномен дипфейка,
  135. чтобы поставить под сомнение реальные
    доказательства своих преступлений.
  136. Или как, слыша запись своих
    возмутительных высказываний,
  137. политики говорили: «Это подделка.
  138. Нельзя верить своим глазам и ушам».
  139. И это тот риск,
  140. который мы с профессором Робертом Чесни
    называем «дивиденд лжеца»:
  141. риск, что лжецы назовут
    реальность подделкой,
  142. чтобы избежать ответственности
    за свои проступки.
  143. Перед нами огромная работа,
    в этом нет сомнений.

  144. Нам понадобится превентивное решение
  145. от техкомпаний, от законодателей,
  146. от правоохранительных органов и СМИ.
  147. А также необходима здоровая доза
    устойчивости общества.
  148. В данный момент мы очень открыто
    ведём разговор
  149. об ответственности техкомпаний.
  150. Я рекомендую социальным медиа-платформам
  151. изменить условия предоставления услуг
    и правила сообщества,
  152. чтобы запретить вредоносные подделки.
  153. Такой настрой потребует
    участия человеческого разума,
  154. а это дорого.
  155. Но нам нужны люди,
  156. которые бы рассмотрели содержание
    и контекст дипфейка,
  157. чтобы понять, имеем ли мы дело
    с вредной подделкой под кого-то
  158. или же это ценная сатира,
    искусство или урок.
  159. А как же закон?

  160. Закон — наш наставник.
  161. Он показывает,
    чтó есть вред и чтó есть зло.
  162. Он объясняет, какое поведение неприемлемо,
    наказывая нарушителей
  163. и обеспечивая защиту жертвам.
  164. На данный момент закон не способен
    противостоять дипфейкам.
  165. Во всём мире нам не хватает
  166. хорошо продуманных законов,
  167. направленных на борьбу
    с цифровыми подражаниями,
  168. вторгающимися в интимную жизнь,
  169. вредящими репутации
  170. и наносящими моральный ущерб.
  171. То, что случилось с Раной Айюб,
    происходит всё чаще.
  172. Однако, когда она обратилась
    в полицию Дели,
  173. ей сказали, что ничего сделать нельзя.
  174. И, как это ни грустно, то же бы произошло
  175. и в США, и в Европе.
  176. У нас есть правовой вакуум,
    который нужно заполнить.

  177. Моя коллега д-р Мэри Энн Фрэнкс и я
    работаем с американскими законодателями
  178. над разработкой закона, запрещающего
    вредоносные цифровые имитации,
  179. которые равносильны краже личных данных.
  180. Подобные инициативы мы видим
  181. и в Исландии, Великобритании и Австралии.
  182. Конечно, это лишь небольшой кусочек
    законодательной головоломки.
  183. Я знаю, что закон — не панацея. Правда?

  184. Это грубый инструмент,
  185. и его нужно мудро использовать.
  186. Есть также практические препятствия.
  187. Невозможно направить закон против людей,
    которых невозможно опознать и найти.
  188. И если преступник живёт в одной стране,
  189. а жертва — в другой,
  190. то вы не сможете настоять на том,
  191. чтобы преступник предстал
    перед местными судами
  192. и получил вердикт.
  193. Поэтому нам понадобится
    скоординированная международная реакция.
  194. Образование должно быть
    частью этой реакции.
  195. Правоохранители не будут применять законы,
  196. о которых они не знают,
  197. и решать проблемы, которых не понимают.
  198. Исследуя киберпреследования,
  199. я обнаружила, что правоохранители
    не имеют достаточной подготовки,
  200. чтобы понять имеющиеся законы
  201. и проблему оскорблений в сети.
  202. Поэтому они часто говорят жертвам:
  203. «Просто выключите компьютер.
    Не обращайте внимания, и всё пройдёт».
  204. Так случилось с Раной Айюб.
  205. Ей сказали: «Ты делаешь из мухи слона.
  206. Это просто мальчишечьи игры».
  207. Поэтому нужно объединять новые законы
    с практической подготовкой.
  208. В образовании нуждаются и СМИ.

  209. Журналистам нужно объяснять
    феномен дипфейка,
  210. чтобы они не усиливали
    и не распространяли его.
  211. И вот что касается всех нас.
  212. Каждому из нас нужно учиться.
  213. Мы кликаем, расшариваем, лайкаем
    и даже не задумываемся об этом.
  214. Мы способны на большее.
  215. Нам нужен лучший радар для подделок.
  216. Пока мы воплощаем в жизнь эти решения,

  217. ещё многие люди пострадают.
  218. Рана Айюб всё ещё борется с последствиями.
  219. Она всё ещё не чувствует, что может
    свободно выражать себя в сети и вне её.
  220. И, как она мне сказала,
  221. ей по-прежнему кажется,
    что тысячи глаз смотрят на её голое тело,
  222. хотя умом она понимает,
    что это было не её тело.
  223. Часто у неё бывают панические атаки,
  224. особенно когда кто-то незнакомый
    пытается её сфотографировать.
  225. «Что если они хотят сделать
    ещё один дипфейк?» — думает она.
  226. Итак, ради таких, как Рана Айюб,
  227. ради нашей демократии
  228. нужно делать что-то прямо сейчас.
  229. Спасибо.

  230. (Аплодисменты)