Return to Video

Как дипфейки разрушают правду и угрожают демократии

  • 0:01 - 0:03
    [Это выступление
    предназначено для взрослых]
  • 0:06 - 0:09
    Рана Айюб — индийская журналистка,
  • 0:09 - 0:11
    разоблачающая коррупцию в правительстве
  • 0:12 - 0:15
    и нарушения прав человека.
  • 0:15 - 0:16
    За многие годы
  • 0:16 - 0:19
    она привыкла к ядовитой критике
    и конфликтам вокруг своей работы.
  • 0:20 - 0:25
    Но ничто не могло подготовить её к тому,
    с чем она столкнулась в апреле 2018 года.
  • 0:26 - 0:30
    Она сидела в кафе с другом,
    когда впервые увидела это:
  • 0:30 - 0:35
    видео в 2 минуты и 20 секунд,
    в котором она занимается сексом.
  • 0:35 - 0:38
    Она не могла поверить своим глазам.
  • 0:38 - 0:40
    Она никогда не снимала секс-видео.
  • 0:41 - 0:44
    Но, к сожалению, многие тысячи людей
  • 0:44 - 0:46
    поверят, что это она.
  • 0:47 - 0:50
    Я брала интервью у мисс Айюб
    около трёх месяцев назад
  • 0:50 - 0:53
    в связи с моей книгой
    о неприкосновенности сексуальной жизни.
  • 0:53 - 0:56
    Я профессор права, адвокат
    и защитник гражданских прав.
  • 0:56 - 1:01
    Поэтому мне прискорбно сознавать,
    что в данный момент
  • 1:01 - 1:03
    закон мало чем может ей помочь.
  • 1:03 - 1:05
    В разговоре она пояснила,
  • 1:05 - 1:10
    что, наверное, должна была ожидать
    фальшивого секс-видео.
  • 1:10 - 1:14
    Она сказала: «Секс так часто используется,
    чтобы унизить или опозорить женщин,
  • 1:14 - 1:17
    особенно женщин из меньшинств
  • 1:17 - 1:24
    и особенно женщин из меньшинств,
    которые бросают вызов сильным мужчинам»,
  • 1:24 - 1:25
    как она в своей работе.
  • 1:25 - 1:29
    Фальшивое видео
    распространилось за 48 часов.
  • 1:30 - 1:35
    Все её онлайн-аккаунты
    были завалены скриншотами этого видео
  • 1:35 - 1:38
    с явными угрозами изнасилования и смерти
  • 1:38 - 1:41
    и оскорблениями её мусульманской веры.
  • 1:41 - 1:46
    Посты в интернете
    говорили о её «доступности».
  • 1:46 - 1:48
    Личные данные её взломали,
  • 1:48 - 1:50
    а это значит, что её адрес
    и номер мобильного телефона
  • 1:50 - 1:52
    были опубликованы в интернете.
  • 1:53 - 1:57
    Видео расшарили более 40 000 раз.
  • 1:58 - 2:02
    Когда кто-то становится мишенью
    такой кибератаки,
  • 2:02 - 2:04
    вред от этого огромен.
  • 2:04 - 2:08
    Жизнь Раны Айюб навсегда изменилась.
  • 2:08 - 2:11
    Неделями она не могла ни есть,
  • 2:11 - 2:12
    ни говорить.
  • 2:12 - 2:16
    Она перестала писать
    и закрыла все свои аккаунты в соцсетях,
  • 2:16 - 2:19
    что, как вы понимаете, нелегко,
    когда ты журналист.
  • 2:19 - 2:23
    Она боялась выходить из дома,
    где жила с семьёй.
  • 2:23 - 2:26
    Что, если преследователи
    выполнят свои угрозы?
  • 2:26 - 2:31
    Совет ООН по правам человека подтвердил,
    что она не сошла с ума.
  • 2:31 - 2:35
    В публичном заявлении он выразил
    беспокойство о её безопасности.
  • 2:37 - 2:41
    Рана Айюб столкнулась с тем,
    что называется дипфейком:
  • 2:41 - 2:44
    это технология искусственного интеллекта,
  • 2:44 - 2:48
    которая манипулирует аудио-
    и видеозаписями или фабрикует их так,
  • 2:48 - 2:50
    что люди в них делают и говорят то,
  • 2:50 - 2:52
    чего никогда не говорили и не делали.
  • 2:53 - 2:56
    Дипфейки кажутся подлинными
    и реалистичными, но это не так:
  • 2:56 - 2:58
    это абсолютная фальшивка.
  • 2:59 - 3:03
    Хотя эта технология ещё развивается,
    становясь всё изощрённей,
  • 3:03 - 3:05
    она широко доступна.
  • 3:05 - 3:08
    В последнее время дипфейки
    стали привлекать внимание,
  • 3:08 - 3:11
    как и многое другое онлайн,
  • 3:11 - 3:12
    в связи с порнографией.
  • 3:12 - 3:15
    В начале 2018 года
  • 3:15 - 3:17
    кто-то разместил на Reddit инструмент,
  • 3:17 - 3:22
    позволяющий вставлять лица в порно-видео.
  • 3:22 - 3:25
    За этим последовал поток
    фальшивых порно-роликов
  • 3:25 - 3:28
    с участием любимых женщин-знаменитостей.
  • 3:29 - 3:32
    И сегодня на YouTube можно найти
    бесчисленные обучающие программы
  • 3:32 - 3:34
    с пошаговыми инструкциями о том,
  • 3:35 - 3:38
    как сфабриковать дипфейк
    в вашем настольном приложении.
  • 3:38 - 3:42
    Вскоре, возможно, мы сможем
    создавать их даже на мобильных телефонах.
  • 3:43 - 3:48
    Взаимодействие низших
    человеческих порывов
  • 3:48 - 3:50
    и сетевых средств
  • 3:50 - 3:53
    превращают дипфейки в оружие.
  • 3:53 - 3:54
    Разрешите, я объясню.
  • 3:55 - 3:59
    Существует инстинктивная
    реакция на аудио и видео.
  • 4:00 - 4:01
    Мы верим им:
  • 4:01 - 4:03
    а как же не верить
  • 4:03 - 4:06
    своим глазам и ушам?
  • 4:06 - 4:08
    И именно такой механизм
  • 4:08 - 4:12
    может подорвать
    наше общее чувство реальности.
  • 4:12 - 4:15
    Хотя дипфейки кажутся нам
    правдой, это не так.
  • 4:16 - 4:20
    Нас привлекает непристойность, провокация.
  • 4:20 - 4:23
    Мы склонны верить и распространять
  • 4:23 - 4:25
    новую или негативную информацию.
  • 4:26 - 4:32
    Учёные обнаружили, что в интернете
    подделки распространяются
  • 4:32 - 4:34
    в 10 раз быстрее, чем правдивые истории.
  • 4:34 - 4:38
    Нас также привлекает информация,
  • 4:38 - 4:40
    которая соответствует нашим взглядам.
  • 4:41 - 4:45
    Психологи называют эту тенденцию
    «предвзятость подтверждения».
  • 4:45 - 4:50
    А социальные медиа-платформы
    усиливают эту тенденцию,
  • 4:50 - 4:54
    позволяя нам мгновенно и широко
    обмениваться информацией,
  • 4:54 - 4:55
    согласующейся с нашей точкой зрения.
  • 4:57 - 5:02
    Дипфейки могут нанести
    серьёзный личный и общественный вред.
  • 5:03 - 5:05
    Представьте себе фальшивку,
  • 5:05 - 5:09
    на которой американские солдаты
    в Афганистане сжигают Коран.
  • 5:11 - 5:14
    Вы понимаете, что такая подделка
    может спровоцировать насилие
  • 5:14 - 5:15
    в отношении американских солдат.
  • 5:16 - 5:19
    А что, если на следующий день
  • 5:19 - 5:21
    появится новая фальшивка,
  • 5:21 - 5:24
    на которой известный лондонский имам
  • 5:24 - 5:27
    восхваляет нападение на этих солдат?
  • 5:28 - 5:31
    Насилие и общественные беспорядки
  • 5:31 - 5:34
    могут произойти не только
    в Афганистане и Великобритании,
  • 5:34 - 5:36
    но и во всём мире.
  • 5:36 - 5:37
    Вы можете сказать мне:
  • 5:37 - 5:40
    «Ладно, Даниэль, ты преувеличиваешь».
  • 5:40 - 5:41
    Но это не так.
  • 5:41 - 5:43
    Мы видели, как ложь, распространяемая
  • 5:44 - 5:46
    на WhatsApp и других мессенджерах,
  • 5:46 - 5:49
    приводила к насилию
    в отношении этнических меньшинств.
  • 5:49 - 5:51
    И это был просто текст —
  • 5:51 - 5:53
    представьте, если бы это было видео.
  • 5:55 - 6:00
    Дипфейки могут подорвать наше доверие
  • 6:00 - 6:02
    к демократическим институтам.
  • 6:03 - 6:06
    Представьте себе, что накануне выборов
  • 6:06 - 6:09
    появляется подделка, показывающая,
    что один из основных кандидатов
  • 6:09 - 6:10
    тяжело болен.
  • 6:11 - 6:14
    Дипфейк может перевесить чашу весов
  • 6:14 - 6:17
    и поколебать веру в легитимность выборов.
  • 6:19 - 6:22
    Представьте, что накануне первого
    публичного размещения акций
  • 6:22 - 6:24
    одного из крупнейших банков
  • 6:24 - 6:27
    появляется подделка,
    на которой гендиректор
  • 6:27 - 6:30
    в пьяном виде болтает о заговорах.
  • 6:31 - 6:34
    Дипфейк может сорвать мероприятие
  • 6:34 - 6:38
    и, хуже того, поколебать нашу веру
    в стабильность финансовых рынков.
  • 6:39 - 6:46
    Так, дипфейки используют и усиливают
    уже имеющееся у нас глубокое недоверие
  • 6:46 - 6:51
    к политикам, крупным бизнесменам
    и другим влиятельным лидерам.
  • 6:51 - 6:54
    Они находят аудиторию,
    готовую им поверить.
  • 6:55 - 6:58
    И стремление к истине
    тоже поставлено на карту.
  • 6:59 - 7:03
    Технологи ожидают,
    что с развитием искусственного интеллекта
  • 7:03 - 7:06
    вскоре будет трудно или даже невозможно
  • 7:06 - 7:10
    отличить настоящее видео от поддельного.
  • 7:11 - 7:16
    Как же распознать истину
    на рынке идей, полном подделок?
  • 7:17 - 7:20
    Пойдём ли мы по пути
    наименьшего сопротивления,
  • 7:20 - 7:23
    начнём ли верить во что хотим
  • 7:23 - 7:24
    и к чёрту правду?
  • 7:25 - 7:28
    Мы не только, возможно,
    поверим подделкам,
  • 7:28 - 7:31
    мы перестанем верить правде.
  • 7:32 - 7:36
    Мы уже видели, как люди используют
    феномен дипфейка,
  • 7:36 - 7:40
    чтобы поставить под сомнение реальные
    доказательства своих преступлений.
  • 7:40 - 7:46
    Или как, слыша запись своих
    возмутительных высказываний,
  • 7:46 - 7:48
    политики говорили: «Это подделка.
  • 7:48 - 7:52
    Нельзя верить своим глазам и ушам».
  • 7:52 - 7:54
    И это тот риск,
  • 7:54 - 8:00
    который мы с профессором Робертом Чесни
    называем «дивиденд лжеца»:
  • 8:00 - 8:03
    риск, что лжецы назовут
    реальность подделкой,
  • 8:03 - 8:06
    чтобы избежать ответственности
    за свои проступки.
  • 8:07 - 8:10
    Перед нами огромная работа,
    в этом нет сомнений.
  • 8:11 - 8:14
    Нам понадобится превентивное решение
  • 8:14 - 8:17
    от техкомпаний, от законодателей,
  • 8:17 - 8:19
    от правоохранительных органов и СМИ.
  • 8:20 - 8:24
    А также необходима здоровая доза
    устойчивости общества.
  • 8:26 - 8:29
    В данный момент мы очень открыто
    ведём разговор
  • 8:29 - 8:32
    об ответственности техкомпаний.
  • 8:33 - 8:36
    Я рекомендую социальным медиа-платформам
  • 8:36 - 8:40
    изменить условия предоставления услуг
    и правила сообщества,
  • 8:40 - 8:42
    чтобы запретить вредоносные подделки.
  • 8:43 - 8:47
    Такой настрой потребует
    участия человеческого разума,
  • 8:47 - 8:48
    а это дорого.
  • 8:49 - 8:51
    Но нам нужны люди,
  • 8:51 - 8:55
    которые бы рассмотрели содержание
    и контекст дипфейка,
  • 8:55 - 8:59
    чтобы понять, имеем ли мы дело
    с вредной подделкой под кого-то
  • 8:59 - 9:03
    или же это ценная сатира,
    искусство или урок.
  • 9:04 - 9:06
    А как же закон?
  • 9:07 - 9:09
    Закон — наш наставник.
  • 9:10 - 9:14
    Он показывает,
    чтó есть вред и чтó есть зло.
  • 9:14 - 9:18
    Он объясняет, какое поведение неприемлемо,
    наказывая нарушителей
  • 9:18 - 9:20
    и обеспечивая защиту жертвам.
  • 9:21 - 9:25
    На данный момент закон не способен
    противостоять дипфейкам.
  • 9:26 - 9:28
    Во всём мире нам не хватает
  • 9:28 - 9:30
    хорошо продуманных законов,
  • 9:30 - 9:34
    направленных на борьбу
    с цифровыми подражаниями,
  • 9:34 - 9:36
    вторгающимися в интимную жизнь,
  • 9:36 - 9:37
    вредящими репутации
  • 9:37 - 9:39
    и наносящими моральный ущерб.
  • 9:40 - 9:44
    То, что случилось с Раной Айюб,
    происходит всё чаще.
  • 9:44 - 9:46
    Однако, когда она обратилась
    в полицию Дели,
  • 9:46 - 9:48
    ей сказали, что ничего сделать нельзя.
  • 9:49 - 9:52
    И, как это ни грустно, то же бы произошло
  • 9:52 - 9:55
    и в США, и в Европе.
  • 9:55 - 10:00
    У нас есть правовой вакуум,
    который нужно заполнить.
  • 10:00 - 10:04
    Моя коллега д-р Мэри Энн Фрэнкс и я
    работаем с американскими законодателями
  • 10:04 - 10:09
    над разработкой закона, запрещающего
    вредоносные цифровые имитации,
  • 10:09 - 10:12
    которые равносильны краже личных данных.
  • 10:12 - 10:14
    Подобные инициативы мы видим
  • 10:14 - 10:18
    и в Исландии, Великобритании и Австралии.
  • 10:18 - 10:21
    Конечно, это лишь небольшой кусочек
    законодательной головоломки.
  • 10:23 - 10:26
    Я знаю, что закон — не панацея. Правда?
  • 10:26 - 10:28
    Это грубый инструмент,
  • 10:28 - 10:30
    и его нужно мудро использовать.
  • 10:30 - 10:33
    Есть также практические препятствия.
  • 10:34 - 10:39
    Невозможно направить закон против людей,
    которых невозможно опознать и найти.
  • 10:39 - 10:43
    И если преступник живёт в одной стране,
  • 10:43 - 10:45
    а жертва — в другой,
  • 10:45 - 10:46
    то вы не сможете настоять на том,
  • 10:46 - 10:49
    чтобы преступник предстал
    перед местными судами
  • 10:49 - 10:50
    и получил вердикт.
  • 10:50 - 10:54
    Поэтому нам понадобится
    скоординированная международная реакция.
  • 10:56 - 10:59
    Образование должно быть
    частью этой реакции.
  • 11:00 - 11:04
    Правоохранители не будут применять законы,
  • 11:04 - 11:05
    о которых они не знают,
  • 11:05 - 11:08
    и решать проблемы, которых не понимают.
  • 11:08 - 11:11
    Исследуя киберпреследования,
  • 11:11 - 11:14
    я обнаружила, что правоохранители
    не имеют достаточной подготовки,
  • 11:14 - 11:17
    чтобы понять имеющиеся законы
  • 11:17 - 11:19
    и проблему оскорблений в сети.
  • 11:19 - 11:22
    Поэтому они часто говорят жертвам:
  • 11:22 - 11:26
    «Просто выключите компьютер.
    Не обращайте внимания, и всё пройдёт».
  • 11:26 - 11:29
    Так случилось с Раной Айюб.
  • 11:29 - 11:33
    Ей сказали: «Ты делаешь из мухи слона.
  • 11:33 - 11:34
    Это просто мальчишечьи игры».
  • 11:35 - 11:41
    Поэтому нужно объединять новые законы
    с практической подготовкой.
  • 11:42 - 11:45
    В образовании нуждаются и СМИ.
  • 11:46 - 11:50
    Журналистам нужно объяснять
    феномен дипфейка,
  • 11:50 - 11:54
    чтобы они не усиливали
    и не распространяли его.
  • 11:55 - 11:57
    И вот что касается всех нас.
  • 11:57 - 12:01
    Каждому из нас нужно учиться.
  • 12:01 - 12:05
    Мы кликаем, расшариваем, лайкаем
    и даже не задумываемся об этом.
  • 12:06 - 12:07
    Мы способны на большее.
  • 12:08 - 12:11
    Нам нужен лучший радар для подделок.
  • 12:14 - 12:18
    Пока мы воплощаем в жизнь эти решения,
  • 12:18 - 12:20
    ещё многие люди пострадают.
  • 12:21 - 12:24
    Рана Айюб всё ещё борется с последствиями.
  • 12:25 - 12:29
    Она всё ещё не чувствует, что может
    свободно выражать себя в сети и вне её.
  • 12:30 - 12:31
    И, как она мне сказала,
  • 12:31 - 12:36
    ей по-прежнему кажется,
    что тысячи глаз смотрят на её голое тело,
  • 12:36 - 12:40
    хотя умом она понимает,
    что это было не её тело.
  • 12:40 - 12:43
    Часто у неё бывают панические атаки,
  • 12:43 - 12:47
    особенно когда кто-то незнакомый
    пытается её сфотографировать.
  • 12:47 - 12:50
    «Что если они хотят сделать
    ещё один дипфейк?» — думает она.
  • 12:51 - 12:55
    Итак, ради таких, как Рана Айюб,
  • 12:55 - 12:57
    ради нашей демократии
  • 12:57 - 13:00
    нужно делать что-то прямо сейчас.
  • 13:00 - 13:01
    Спасибо.
  • 13:01 - 13:03
    (Аплодисменты)
Title:
Как дипфейки разрушают правду и угрожают демократии
Speaker:
Даниэль Ситрон
Description:

Использование технологии дипфейк для манипулирования видео- и аудиозаписями в преступных целях — будь то для разжигания насилия или очернения политиков и журналистов — становится реальной угрозой. В эпоху, когда эти инструменты становятся всё более доступными, а их продукты — более реалистичными, как они повлияют на то, во что мы верим в нашей жизни? Профессор права Даниэль Ситрон в своём тревожном выступлении показывает, как дипфейки усиливают наше недоверие, и предлагает подходы к защите правды.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Russian subtitles

Revisions