1 00:00:00,535 --> 00:00:03,302 [Это выступление предназначено для взрослых] 2 00:00:05,762 --> 00:00:08,754 Рана Айюб — индийская журналистка, 3 00:00:08,778 --> 00:00:11,380 разоблачающая коррупцию в правительстве 4 00:00:12,411 --> 00:00:14,568 и нарушения прав человека. 5 00:00:14,990 --> 00:00:16,157 За многие годы 6 00:00:16,181 --> 00:00:19,484 она привыкла к ядовитой критике и конфликтам вокруг своей работы. 7 00:00:20,149 --> 00:00:25,258 Но ничто не могло подготовить её к тому, с чем она столкнулась в апреле 2018 года. 8 00:00:26,125 --> 00:00:29,776 Она сидела в кафе с другом, когда впервые увидела это: 9 00:00:29,800 --> 00:00:34,743 видео в 2 минуты и 20 секунд, в котором она занимается сексом. 10 00:00:35,188 --> 00:00:37,537 Она не могла поверить своим глазам. 11 00:00:37,561 --> 00:00:39,834 Она никогда не снимала секс-видео. 12 00:00:40,506 --> 00:00:43,971 Но, к сожалению, многие тысячи людей 13 00:00:43,995 --> 00:00:45,661 поверят, что это она. 14 00:00:46,673 --> 00:00:49,617 Я брала интервью у мисс Айюб около трёх месяцев назад 15 00:00:49,641 --> 00:00:52,565 в связи с моей книгой о неприкосновенности сексуальной жизни. 16 00:00:52,681 --> 00:00:55,879 Я профессор права, адвокат и защитник гражданских прав. 17 00:00:55,984 --> 00:01:00,615 Поэтому мне прискорбно сознавать, что в данный момент 18 00:01:00,629 --> 00:01:03,077 закон мало чем может ей помочь. 19 00:01:03,128 --> 00:01:05,005 В разговоре она пояснила, 20 00:01:05,029 --> 00:01:09,541 что, наверное, должна была ожидать фальшивого секс-видео. 21 00:01:09,582 --> 00:01:14,348 Она сказала: «Секс так часто используется, чтобы унизить или опозорить женщин, 22 00:01:14,348 --> 00:01:17,226 особенно женщин из меньшинств 23 00:01:17,270 --> 00:01:23,796 и особенно женщин из меньшинств, которые бросают вызов сильным мужчинам», 24 00:01:23,806 --> 00:01:25,151 как она в своей работе. 25 00:01:25,151 --> 00:01:29,167 Фальшивое видео распространилось за 48 часов. 26 00:01:30,064 --> 00:01:35,371 Все её онлайн-аккаунты были завалены скриншотами этого видео 27 00:01:35,395 --> 00:01:38,022 с явными угрозами изнасилования и смерти 28 00:01:38,046 --> 00:01:40,579 и оскорблениями её мусульманской веры. 29 00:01:41,426 --> 00:01:45,990 Посты в интернете говорили о её «доступности». 30 00:01:46,014 --> 00:01:47,624 Личные данные её взломали, 31 00:01:47,648 --> 00:01:50,426 а это значит, что её адрес и номер мобильного телефона 32 00:01:50,450 --> 00:01:52,196 были опубликованы в интернете. 33 00:01:52,879 --> 00:01:56,963 Видео расшарили более 40 000 раз. 34 00:01:57,760 --> 00:02:01,696 Когда кто-то становится мишенью такой кибератаки, 35 00:02:01,720 --> 00:02:03,783 вред от этого огромен. 36 00:02:04,482 --> 00:02:07,521 Жизнь Раны Айюб навсегда изменилась. 37 00:02:07,701 --> 00:02:10,919 Неделями она не могла ни есть, 38 00:02:10,919 --> 00:02:11,919 ни говорить. 39 00:02:11,919 --> 00:02:15,608 Она перестала писать и закрыла все свои аккаунты в соцсетях, 40 00:02:15,632 --> 00:02:18,790 что, как вы понимаете, нелегко, когда ты журналист. 41 00:02:19,188 --> 00:02:22,672 Она боялась выходить из дома, где жила с семьёй. 42 00:02:22,696 --> 00:02:25,718 Что, если преследователи выполнят свои угрозы? 43 00:02:26,395 --> 00:02:30,760 Совет ООН по правам человека подтвердил, что она не сошла с ума. 44 00:02:30,784 --> 00:02:35,421 В публичном заявлении он выразил беспокойство о её безопасности. 45 00:02:36,776 --> 00:02:41,005 Рана Айюб столкнулась с тем, что называется дипфейком: 46 00:02:41,029 --> 00:02:43,569 это технология искусственного интеллекта, 47 00:02:43,593 --> 00:02:47,704 которая манипулирует аудио- и видеозаписями или фабрикует их так, 48 00:02:47,728 --> 00:02:50,451 что люди в них делают и говорят то, 49 00:02:50,475 --> 00:02:52,341 чего никогда не говорили и не делали. 50 00:02:52,807 --> 00:02:56,168 Дипфейки кажутся подлинными и реалистичными, но это не так: 51 00:02:56,192 --> 00:02:57,964 это абсолютная фальшивка. 52 00:02:59,228 --> 00:03:03,022 Хотя эта технология ещё развивается, становясь всё изощрённей, 53 00:03:03,046 --> 00:03:04,660 она широко доступна. 54 00:03:05,371 --> 00:03:08,443 В последнее время дипфейки стали привлекать внимание, 55 00:03:08,467 --> 00:03:10,628 как и многое другое онлайн, 56 00:03:10,652 --> 00:03:11,907 в связи с порнографией. 57 00:03:12,498 --> 00:03:14,609 В начале 2018 года 58 00:03:14,633 --> 00:03:17,101 кто-то разместил на Reddit инструмент, 59 00:03:17,125 --> 00:03:21,537 позволяющий вставлять лица в порно-видео. 60 00:03:21,561 --> 00:03:25,001 За этим последовал поток фальшивых порно-роликов 61 00:03:25,025 --> 00:03:27,822 с участием любимых женщин-знаменитостей. 62 00:03:28,712 --> 00:03:32,189 И сегодня на YouTube можно найти бесчисленные обучающие программы 63 00:03:32,213 --> 00:03:34,499 с пошаговыми инструкциями о том, 64 00:03:34,523 --> 00:03:37,686 как сфабриковать дипфейк в вашем настольном приложении. 65 00:03:38,260 --> 00:03:41,966 Вскоре, возможно, мы сможем создавать их даже на мобильных телефонах. 66 00:03:43,072 --> 00:03:48,454 Взаимодействие низших человеческих порывов 67 00:03:48,478 --> 00:03:50,160 и сетевых средств 68 00:03:50,184 --> 00:03:52,850 превращают дипфейки в оружие. 69 00:03:52,874 --> 00:03:54,074 Разрешите, я объясню. 70 00:03:54,875 --> 00:03:59,441 Существует инстинктивная реакция на аудио и видео. 71 00:03:59,860 --> 00:04:01,348 Мы верим им: 72 00:04:01,372 --> 00:04:03,450 а как же не верить 73 00:04:03,474 --> 00:04:05,952 своим глазам и ушам? 74 00:04:06,476 --> 00:04:08,175 И именно такой механизм 75 00:04:08,199 --> 00:04:11,897 может подорвать наше общее чувство реальности. 76 00:04:11,921 --> 00:04:14,774 Хотя дипфейки кажутся нам правдой, это не так. 77 00:04:15,604 --> 00:04:19,761 Нас привлекает непристойность, провокация. 78 00:04:20,365 --> 00:04:23,412 Мы склонны верить и распространять 79 00:04:23,436 --> 00:04:25,459 новую или негативную информацию. 80 00:04:25,809 --> 00:04:31,932 Учёные обнаружили, что в интернете подделки распространяются 81 00:04:32,002 --> 00:04:33,969 в 10 раз быстрее, чем правдивые истории. 82 00:04:34,015 --> 00:04:38,395 Нас также привлекает информация, 83 00:04:38,419 --> 00:04:40,311 которая соответствует нашим взглядам. 84 00:04:40,950 --> 00:04:44,511 Психологи называют эту тенденцию «предвзятость подтверждения». 85 00:04:45,300 --> 00:04:49,687 А социальные медиа-платформы усиливают эту тенденцию, 86 00:04:49,711 --> 00:04:53,592 позволяя нам мгновенно и широко обмениваться информацией, 87 00:04:53,616 --> 00:04:55,408 согласующейся с нашей точкой зрения. 88 00:04:56,735 --> 00:05:02,303 Дипфейки могут нанести серьёзный личный и общественный вред. 89 00:05:03,204 --> 00:05:05,228 Представьте себе фальшивку, 90 00:05:05,252 --> 00:05:09,434 на которой американские солдаты в Афганистане сжигают Коран. 91 00:05:10,807 --> 00:05:13,831 Вы понимаете, что такая подделка может спровоцировать насилие 92 00:05:13,855 --> 00:05:15,388 в отношении американских солдат. 93 00:05:15,847 --> 00:05:18,720 А что, если на следующий день 94 00:05:18,744 --> 00:05:20,998 появится новая фальшивка, 95 00:05:21,022 --> 00:05:24,339 на которой известный лондонский имам 96 00:05:24,363 --> 00:05:26,830 восхваляет нападение на этих солдат? 97 00:05:27,617 --> 00:05:30,780 Насилие и общественные беспорядки 98 00:05:30,804 --> 00:05:34,053 могут произойти не только в Афганистане и Великобритании, 99 00:05:34,077 --> 00:05:35,592 но и во всём мире. 100 00:05:36,251 --> 00:05:37,409 Вы можете сказать мне: 101 00:05:37,433 --> 00:05:39,680 «Ладно, Даниэль, ты преувеличиваешь». 102 00:05:39,704 --> 00:05:40,854 Но это не так. 103 00:05:41,293 --> 00:05:43,484 Мы видели, как ложь, распространяемая 104 00:05:43,508 --> 00:05:46,230 на WhatsApp и других мессенджерах, 105 00:05:46,254 --> 00:05:49,015 приводила к насилию в отношении этнических меньшинств. 106 00:05:49,039 --> 00:05:50,926 И это был просто текст — 107 00:05:50,950 --> 00:05:52,974 представьте, если бы это было видео. 108 00:05:54,593 --> 00:05:59,950 Дипфейки могут подорвать наше доверие 109 00:05:59,974 --> 00:06:01,966 к демократическим институтам. 110 00:06:03,006 --> 00:06:05,673 Представьте себе, что накануне выборов 111 00:06:05,996 --> 00:06:09,234 появляется подделка, показывающая, что один из основных кандидатов 112 00:06:09,258 --> 00:06:10,408 тяжело болен. 113 00:06:11,202 --> 00:06:13,535 Дипфейк может перевесить чашу весов 114 00:06:13,559 --> 00:06:16,934 и поколебать веру в легитимность выборов. 115 00:06:18,515 --> 00:06:21,841 Представьте, что накануне первого публичного размещения акций 116 00:06:21,865 --> 00:06:24,198 одного из крупнейших банков 117 00:06:24,222 --> 00:06:27,371 появляется подделка, на которой гендиректор 118 00:06:27,395 --> 00:06:30,092 в пьяном виде болтает о заговорах. 119 00:06:30,887 --> 00:06:33,934 Дипфейк может сорвать мероприятие 120 00:06:33,958 --> 00:06:38,073 и, хуже того, поколебать нашу веру в стабильность финансовых рынков. 121 00:06:38,969 --> 00:06:46,374 Так, дипфейки используют и усиливают уже имеющееся у нас глубокое недоверие 122 00:06:46,398 --> 00:06:50,612 к политикам, крупным бизнесменам и другим влиятельным лидерам. 123 00:06:50,945 --> 00:06:54,229 Они находят аудиторию, готовую им поверить. 124 00:06:55,287 --> 00:06:58,052 И стремление к истине тоже поставлено на карту. 125 00:06:59,077 --> 00:07:02,641 Технологи ожидают, что с развитием искусственного интеллекта 126 00:07:02,665 --> 00:07:06,347 вскоре будет трудно или даже невозможно 127 00:07:06,371 --> 00:07:10,140 отличить настоящее видео от поддельного. 128 00:07:11,022 --> 00:07:16,363 Как же распознать истину на рынке идей, полном подделок? 129 00:07:16,752 --> 00:07:20,172 Пойдём ли мы по пути наименьшего сопротивления, 130 00:07:20,196 --> 00:07:22,633 начнём ли верить во что хотим 131 00:07:22,657 --> 00:07:23,807 и к чёрту правду? 132 00:07:24,831 --> 00:07:28,006 Мы не только, возможно, поверим подделкам, 133 00:07:28,030 --> 00:07:31,356 мы перестанем верить правде. 134 00:07:31,887 --> 00:07:35,966 Мы уже видели, как люди используют феномен дипфейка, 135 00:07:35,990 --> 00:07:39,910 чтобы поставить под сомнение реальные доказательства своих преступлений. 136 00:07:39,934 --> 00:07:45,903 Или как, слыша запись своих возмутительных высказываний, 137 00:07:45,927 --> 00:07:47,673 политики говорили: «Это подделка. 138 00:07:47,697 --> 00:07:51,617 Нельзя верить своим глазам и ушам». 139 00:07:52,402 --> 00:07:54,133 И это тот риск, 140 00:07:54,157 --> 00:07:59,593 который мы с профессором Робертом Чесни называем «дивиденд лжеца»: 141 00:07:59,617 --> 00:08:02,974 риск, что лжецы назовут реальность подделкой, 142 00:08:02,998 --> 00:08:05,903 чтобы избежать ответственности за свои проступки. 143 00:08:06,963 --> 00:08:10,034 Перед нами огромная работа, в этом нет сомнений. 144 00:08:10,606 --> 00:08:13,931 Нам понадобится превентивное решение 145 00:08:13,955 --> 00:08:17,466 от техкомпаний, от законодателей, 146 00:08:17,490 --> 00:08:19,474 от правоохранительных органов и СМИ. 147 00:08:20,093 --> 00:08:24,109 А также необходима здоровая доза устойчивости общества. 148 00:08:25,506 --> 00:08:29,402 В данный момент мы очень открыто ведём разговор 149 00:08:29,426 --> 00:08:32,339 об ответственности техкомпаний. 150 00:08:32,926 --> 00:08:35,958 Я рекомендую социальным медиа-платформам 151 00:08:35,982 --> 00:08:39,855 изменить условия предоставления услуг и правила сообщества, 152 00:08:39,879 --> 00:08:42,215 чтобы запретить вредоносные подделки. 153 00:08:42,712 --> 00:08:46,672 Такой настрой потребует участия человеческого разума, 154 00:08:46,696 --> 00:08:48,267 а это дорого. 155 00:08:48,673 --> 00:08:50,958 Но нам нужны люди, 156 00:08:50,982 --> 00:08:54,855 которые бы рассмотрели содержание и контекст дипфейка, 157 00:08:54,879 --> 00:08:58,561 чтобы понять, имеем ли мы дело с вредной подделкой под кого-то 158 00:08:58,585 --> 00:09:02,967 или же это ценная сатира, искусство или урок. 159 00:09:04,118 --> 00:09:05,613 А как же закон? 160 00:09:06,666 --> 00:09:09,015 Закон — наш наставник. 161 00:09:09,515 --> 00:09:13,553 Он показывает, чтó есть вред и чтó есть зло. 162 00:09:13,577 --> 00:09:18,132 Он объясняет, какое поведение неприемлемо, наказывая нарушителей 163 00:09:18,156 --> 00:09:20,423 и обеспечивая защиту жертвам. 164 00:09:21,148 --> 00:09:25,428 На данный момент закон не способен противостоять дипфейкам. 165 00:09:26,116 --> 00:09:27,506 Во всём мире нам не хватает 166 00:09:27,530 --> 00:09:29,974 хорошо продуманных законов, 167 00:09:29,998 --> 00:09:33,568 направленных на борьбу с цифровыми подражаниями, 168 00:09:33,592 --> 00:09:35,823 вторгающимися в интимную жизнь, 169 00:09:35,847 --> 00:09:37,234 вредящими репутации 170 00:09:37,258 --> 00:09:39,209 и наносящими моральный ущерб. 171 00:09:39,725 --> 00:09:43,598 То, что случилось с Раной Айюб, происходит всё чаще. 172 00:09:44,074 --> 00:09:46,288 Однако, когда она обратилась в полицию Дели, 173 00:09:46,312 --> 00:09:48,447 ей сказали, что ничего сделать нельзя. 174 00:09:49,101 --> 00:09:52,284 И, как это ни грустно, то же бы произошло 175 00:09:52,308 --> 00:09:54,574 и в США, и в Европе. 176 00:09:55,300 --> 00:09:59,656 У нас есть правовой вакуум, который нужно заполнить. 177 00:10:00,292 --> 00:10:04,384 Моя коллега д-р Мэри Энн Фрэнкс и я работаем с американскими законодателями 178 00:10:04,408 --> 00:10:09,212 над разработкой закона, запрещающего вредоносные цифровые имитации, 179 00:10:09,236 --> 00:10:11,769 которые равносильны краже личных данных. 180 00:10:12,252 --> 00:10:14,378 Подобные инициативы мы видим 181 00:10:14,402 --> 00:10:17,703 и в Исландии, Великобритании и Австралии. 182 00:10:18,157 --> 00:10:21,416 Конечно, это лишь небольшой кусочек законодательной головоломки. 183 00:10:22,911 --> 00:10:26,080 Я знаю, что закон — не панацея. Правда? 184 00:10:26,104 --> 00:10:27,704 Это грубый инструмент, 185 00:10:28,346 --> 00:10:29,885 и его нужно мудро использовать. 186 00:10:30,411 --> 00:10:33,223 Есть также практические препятствия. 187 00:10:33,657 --> 00:10:38,701 Невозможно направить закон против людей, которых невозможно опознать и найти. 188 00:10:39,463 --> 00:10:42,749 И если преступник живёт в одной стране, 189 00:10:42,773 --> 00:10:44,527 а жертва — в другой, 190 00:10:44,551 --> 00:10:46,180 то вы не сможете настоять на том, 191 00:10:46,204 --> 00:10:48,553 чтобы преступник предстал перед местными судами 192 00:10:48,577 --> 00:10:49,727 и получил вердикт. 193 00:10:50,236 --> 00:10:54,299 Поэтому нам понадобится скоординированная международная реакция. 194 00:10:55,819 --> 00:10:59,152 Образование должно быть частью этой реакции. 195 00:10:59,803 --> 00:11:03,534 Правоохранители не будут применять законы, 196 00:11:03,558 --> 00:11:05,016 о которых они не знают, 197 00:11:05,040 --> 00:11:07,636 и решать проблемы, которых не понимают. 198 00:11:08,376 --> 00:11:10,567 Исследуя киберпреследования, 199 00:11:10,591 --> 00:11:14,090 я обнаружила, что правоохранители не имеют достаточной подготовки, 200 00:11:14,114 --> 00:11:16,696 чтобы понять имеющиеся законы 201 00:11:16,720 --> 00:11:19,069 и проблему оскорблений в сети. 202 00:11:19,093 --> 00:11:21,775 Поэтому они часто говорят жертвам: 203 00:11:21,799 --> 00:11:25,770 «Просто выключите компьютер. Не обращайте внимания, и всё пройдёт». 204 00:11:26,261 --> 00:11:28,727 Так случилось с Раной Айюб. 205 00:11:29,102 --> 00:11:32,570 Ей сказали: «Ты делаешь из мухи слона. 206 00:11:32,594 --> 00:11:34,337 Это просто мальчишечьи игры». 207 00:11:35,268 --> 00:11:40,520 Поэтому нужно объединять новые законы с практической подготовкой. 208 00:11:42,053 --> 00:11:45,482 В образовании нуждаются и СМИ. 209 00:11:46,180 --> 00:11:50,440 Журналистам нужно объяснять феномен дипфейка, 210 00:11:50,464 --> 00:11:53,503 чтобы они не усиливали и не распространяли его. 211 00:11:54,583 --> 00:11:56,751 И вот что касается всех нас. 212 00:11:56,775 --> 00:12:00,630 Каждому из нас нужно учиться. 213 00:12:01,375 --> 00:12:05,050 Мы кликаем, расшариваем, лайкаем и даже не задумываемся об этом. 214 00:12:05,551 --> 00:12:07,098 Мы способны на большее. 215 00:12:07,726 --> 00:12:10,535 Нам нужен лучший радар для подделок. 216 00:12:13,744 --> 00:12:17,585 Пока мы воплощаем в жизнь эти решения, 217 00:12:17,609 --> 00:12:20,172 ещё многие люди пострадают. 218 00:12:21,093 --> 00:12:23,839 Рана Айюб всё ещё борется с последствиями. 219 00:12:24,669 --> 00:12:28,858 Она всё ещё не чувствует, что может свободно выражать себя в сети и вне её. 220 00:12:29,566 --> 00:12:30,931 И, как она мне сказала, 221 00:12:30,955 --> 00:12:36,029 ей по-прежнему кажется, что тысячи глаз смотрят на её голое тело, 222 00:12:36,053 --> 00:12:39,714 хотя умом она понимает, что это было не её тело. 223 00:12:40,371 --> 00:12:42,720 Часто у неё бывают панические атаки, 224 00:12:42,744 --> 00:12:46,844 особенно когда кто-то незнакомый пытается её сфотографировать. 225 00:12:46,868 --> 00:12:50,379 «Что если они хотят сделать ещё один дипфейк?» — думает она. 226 00:12:51,082 --> 00:12:55,003 Итак, ради таких, как Рана Айюб, 227 00:12:55,027 --> 00:12:57,333 ради нашей демократии 228 00:12:57,357 --> 00:12:59,539 нужно делать что-то прямо сейчас. 229 00:12:59,563 --> 00:13:00,714 Спасибо. 230 00:13:00,738 --> 00:13:03,246 (Аплодисменты)