Как дипфейки разрушают правду и угрожают демократии
-
0:01 - 0:03[Это выступление
предназначено для взрослых] -
0:06 - 0:09Рана Айюб — индийская журналистка,
-
0:09 - 0:11разоблачающая коррупцию в правительстве
-
0:12 - 0:15и нарушения прав человека.
-
0:15 - 0:16За многие годы
-
0:16 - 0:19она привыкла к ядовитой критике
и конфликтам вокруг своей работы. -
0:20 - 0:25Но ничто не могло подготовить её к тому,
с чем она столкнулась в апреле 2018 года. -
0:26 - 0:30Она сидела в кафе с другом,
когда впервые увидела это: -
0:30 - 0:35видео в 2 минуты и 20 секунд,
в котором она занимается сексом. -
0:35 - 0:38Она не могла поверить своим глазам.
-
0:38 - 0:40Она никогда не снимала секс-видео.
-
0:41 - 0:44Но, к сожалению, многие тысячи людей
-
0:44 - 0:46поверят, что это она.
-
0:47 - 0:50Я брала интервью у мисс Айюб
около трёх месяцев назад -
0:50 - 0:53в связи с моей книгой
о неприкосновенности сексуальной жизни. -
0:53 - 0:56Я профессор права, адвокат
и защитник гражданских прав. -
0:56 - 1:01Поэтому мне прискорбно сознавать,
что в данный момент -
1:01 - 1:03закон мало чем может ей помочь.
-
1:03 - 1:05В разговоре она пояснила,
-
1:05 - 1:10что, наверное, должна была ожидать
фальшивого секс-видео. -
1:10 - 1:14Она сказала: «Секс так часто используется,
чтобы унизить или опозорить женщин, -
1:14 - 1:17особенно женщин из меньшинств
-
1:17 - 1:24и особенно женщин из меньшинств,
которые бросают вызов сильным мужчинам», -
1:24 - 1:25как она в своей работе.
-
1:25 - 1:29Фальшивое видео
распространилось за 48 часов. -
1:30 - 1:35Все её онлайн-аккаунты
были завалены скриншотами этого видео -
1:35 - 1:38с явными угрозами изнасилования и смерти
-
1:38 - 1:41и оскорблениями её мусульманской веры.
-
1:41 - 1:46Посты в интернете
говорили о её «доступности». -
1:46 - 1:48Личные данные её взломали,
-
1:48 - 1:50а это значит, что её адрес
и номер мобильного телефона -
1:50 - 1:52были опубликованы в интернете.
-
1:53 - 1:57Видео расшарили более 40 000 раз.
-
1:58 - 2:02Когда кто-то становится мишенью
такой кибератаки, -
2:02 - 2:04вред от этого огромен.
-
2:04 - 2:08Жизнь Раны Айюб навсегда изменилась.
-
2:08 - 2:11Неделями она не могла ни есть,
-
2:11 - 2:12ни говорить.
-
2:12 - 2:16Она перестала писать
и закрыла все свои аккаунты в соцсетях, -
2:16 - 2:19что, как вы понимаете, нелегко,
когда ты журналист. -
2:19 - 2:23Она боялась выходить из дома,
где жила с семьёй. -
2:23 - 2:26Что, если преследователи
выполнят свои угрозы? -
2:26 - 2:31Совет ООН по правам человека подтвердил,
что она не сошла с ума. -
2:31 - 2:35В публичном заявлении он выразил
беспокойство о её безопасности. -
2:37 - 2:41Рана Айюб столкнулась с тем,
что называется дипфейком: -
2:41 - 2:44это технология искусственного интеллекта,
-
2:44 - 2:48которая манипулирует аудио-
и видеозаписями или фабрикует их так, -
2:48 - 2:50что люди в них делают и говорят то,
-
2:50 - 2:52чего никогда не говорили и не делали.
-
2:53 - 2:56Дипфейки кажутся подлинными
и реалистичными, но это не так: -
2:56 - 2:58это абсолютная фальшивка.
-
2:59 - 3:03Хотя эта технология ещё развивается,
становясь всё изощрённей, -
3:03 - 3:05она широко доступна.
-
3:05 - 3:08В последнее время дипфейки
стали привлекать внимание, -
3:08 - 3:11как и многое другое онлайн,
-
3:11 - 3:12в связи с порнографией.
-
3:12 - 3:15В начале 2018 года
-
3:15 - 3:17кто-то разместил на Reddit инструмент,
-
3:17 - 3:22позволяющий вставлять лица в порно-видео.
-
3:22 - 3:25За этим последовал поток
фальшивых порно-роликов -
3:25 - 3:28с участием любимых женщин-знаменитостей.
-
3:29 - 3:32И сегодня на YouTube можно найти
бесчисленные обучающие программы -
3:32 - 3:34с пошаговыми инструкциями о том,
-
3:35 - 3:38как сфабриковать дипфейк
в вашем настольном приложении. -
3:38 - 3:42Вскоре, возможно, мы сможем
создавать их даже на мобильных телефонах. -
3:43 - 3:48Взаимодействие низших
человеческих порывов -
3:48 - 3:50и сетевых средств
-
3:50 - 3:53превращают дипфейки в оружие.
-
3:53 - 3:54Разрешите, я объясню.
-
3:55 - 3:59Существует инстинктивная
реакция на аудио и видео. -
4:00 - 4:01Мы верим им:
-
4:01 - 4:03а как же не верить
-
4:03 - 4:06своим глазам и ушам?
-
4:06 - 4:08И именно такой механизм
-
4:08 - 4:12может подорвать
наше общее чувство реальности. -
4:12 - 4:15Хотя дипфейки кажутся нам
правдой, это не так. -
4:16 - 4:20Нас привлекает непристойность, провокация.
-
4:20 - 4:23Мы склонны верить и распространять
-
4:23 - 4:25новую или негативную информацию.
-
4:26 - 4:32Учёные обнаружили, что в интернете
подделки распространяются -
4:32 - 4:34в 10 раз быстрее, чем правдивые истории.
-
4:34 - 4:38Нас также привлекает информация,
-
4:38 - 4:40которая соответствует нашим взглядам.
-
4:41 - 4:45Психологи называют эту тенденцию
«предвзятость подтверждения». -
4:45 - 4:50А социальные медиа-платформы
усиливают эту тенденцию, -
4:50 - 4:54позволяя нам мгновенно и широко
обмениваться информацией, -
4:54 - 4:55согласующейся с нашей точкой зрения.
-
4:57 - 5:02Дипфейки могут нанести
серьёзный личный и общественный вред. -
5:03 - 5:05Представьте себе фальшивку,
-
5:05 - 5:09на которой американские солдаты
в Афганистане сжигают Коран. -
5:11 - 5:14Вы понимаете, что такая подделка
может спровоцировать насилие -
5:14 - 5:15в отношении американских солдат.
-
5:16 - 5:19А что, если на следующий день
-
5:19 - 5:21появится новая фальшивка,
-
5:21 - 5:24на которой известный лондонский имам
-
5:24 - 5:27восхваляет нападение на этих солдат?
-
5:28 - 5:31Насилие и общественные беспорядки
-
5:31 - 5:34могут произойти не только
в Афганистане и Великобритании, -
5:34 - 5:36но и во всём мире.
-
5:36 - 5:37Вы можете сказать мне:
-
5:37 - 5:40«Ладно, Даниэль, ты преувеличиваешь».
-
5:40 - 5:41Но это не так.
-
5:41 - 5:43Мы видели, как ложь, распространяемая
-
5:44 - 5:46на WhatsApp и других мессенджерах,
-
5:46 - 5:49приводила к насилию
в отношении этнических меньшинств. -
5:49 - 5:51И это был просто текст —
-
5:51 - 5:53представьте, если бы это было видео.
-
5:55 - 6:00Дипфейки могут подорвать наше доверие
-
6:00 - 6:02к демократическим институтам.
-
6:03 - 6:06Представьте себе, что накануне выборов
-
6:06 - 6:09появляется подделка, показывающая,
что один из основных кандидатов -
6:09 - 6:10тяжело болен.
-
6:11 - 6:14Дипфейк может перевесить чашу весов
-
6:14 - 6:17и поколебать веру в легитимность выборов.
-
6:19 - 6:22Представьте, что накануне первого
публичного размещения акций -
6:22 - 6:24одного из крупнейших банков
-
6:24 - 6:27появляется подделка,
на которой гендиректор -
6:27 - 6:30в пьяном виде болтает о заговорах.
-
6:31 - 6:34Дипфейк может сорвать мероприятие
-
6:34 - 6:38и, хуже того, поколебать нашу веру
в стабильность финансовых рынков. -
6:39 - 6:46Так, дипфейки используют и усиливают
уже имеющееся у нас глубокое недоверие -
6:46 - 6:51к политикам, крупным бизнесменам
и другим влиятельным лидерам. -
6:51 - 6:54Они находят аудиторию,
готовую им поверить. -
6:55 - 6:58И стремление к истине
тоже поставлено на карту. -
6:59 - 7:03Технологи ожидают,
что с развитием искусственного интеллекта -
7:03 - 7:06вскоре будет трудно или даже невозможно
-
7:06 - 7:10отличить настоящее видео от поддельного.
-
7:11 - 7:16Как же распознать истину
на рынке идей, полном подделок? -
7:17 - 7:20Пойдём ли мы по пути
наименьшего сопротивления, -
7:20 - 7:23начнём ли верить во что хотим
-
7:23 - 7:24и к чёрту правду?
-
7:25 - 7:28Мы не только, возможно,
поверим подделкам, -
7:28 - 7:31мы перестанем верить правде.
-
7:32 - 7:36Мы уже видели, как люди используют
феномен дипфейка, -
7:36 - 7:40чтобы поставить под сомнение реальные
доказательства своих преступлений. -
7:40 - 7:46Или как, слыша запись своих
возмутительных высказываний, -
7:46 - 7:48политики говорили: «Это подделка.
-
7:48 - 7:52Нельзя верить своим глазам и ушам».
-
7:52 - 7:54И это тот риск,
-
7:54 - 8:00который мы с профессором Робертом Чесни
называем «дивиденд лжеца»: -
8:00 - 8:03риск, что лжецы назовут
реальность подделкой, -
8:03 - 8:06чтобы избежать ответственности
за свои проступки. -
8:07 - 8:10Перед нами огромная работа,
в этом нет сомнений. -
8:11 - 8:14Нам понадобится превентивное решение
-
8:14 - 8:17от техкомпаний, от законодателей,
-
8:17 - 8:19от правоохранительных органов и СМИ.
-
8:20 - 8:24А также необходима здоровая доза
устойчивости общества. -
8:26 - 8:29В данный момент мы очень открыто
ведём разговор -
8:29 - 8:32об ответственности техкомпаний.
-
8:33 - 8:36Я рекомендую социальным медиа-платформам
-
8:36 - 8:40изменить условия предоставления услуг
и правила сообщества, -
8:40 - 8:42чтобы запретить вредоносные подделки.
-
8:43 - 8:47Такой настрой потребует
участия человеческого разума, -
8:47 - 8:48а это дорого.
-
8:49 - 8:51Но нам нужны люди,
-
8:51 - 8:55которые бы рассмотрели содержание
и контекст дипфейка, -
8:55 - 8:59чтобы понять, имеем ли мы дело
с вредной подделкой под кого-то -
8:59 - 9:03или же это ценная сатира,
искусство или урок. -
9:04 - 9:06А как же закон?
-
9:07 - 9:09Закон — наш наставник.
-
9:10 - 9:14Он показывает,
чтó есть вред и чтó есть зло. -
9:14 - 9:18Он объясняет, какое поведение неприемлемо,
наказывая нарушителей -
9:18 - 9:20и обеспечивая защиту жертвам.
-
9:21 - 9:25На данный момент закон не способен
противостоять дипфейкам. -
9:26 - 9:28Во всём мире нам не хватает
-
9:28 - 9:30хорошо продуманных законов,
-
9:30 - 9:34направленных на борьбу
с цифровыми подражаниями, -
9:34 - 9:36вторгающимися в интимную жизнь,
-
9:36 - 9:37вредящими репутации
-
9:37 - 9:39и наносящими моральный ущерб.
-
9:40 - 9:44То, что случилось с Раной Айюб,
происходит всё чаще. -
9:44 - 9:46Однако, когда она обратилась
в полицию Дели, -
9:46 - 9:48ей сказали, что ничего сделать нельзя.
-
9:49 - 9:52И, как это ни грустно, то же бы произошло
-
9:52 - 9:55и в США, и в Европе.
-
9:55 - 10:00У нас есть правовой вакуум,
который нужно заполнить. -
10:00 - 10:04Моя коллега д-р Мэри Энн Фрэнкс и я
работаем с американскими законодателями -
10:04 - 10:09над разработкой закона, запрещающего
вредоносные цифровые имитации, -
10:09 - 10:12которые равносильны краже личных данных.
-
10:12 - 10:14Подобные инициативы мы видим
-
10:14 - 10:18и в Исландии, Великобритании и Австралии.
-
10:18 - 10:21Конечно, это лишь небольшой кусочек
законодательной головоломки. -
10:23 - 10:26Я знаю, что закон — не панацея. Правда?
-
10:26 - 10:28Это грубый инструмент,
-
10:28 - 10:30и его нужно мудро использовать.
-
10:30 - 10:33Есть также практические препятствия.
-
10:34 - 10:39Невозможно направить закон против людей,
которых невозможно опознать и найти. -
10:39 - 10:43И если преступник живёт в одной стране,
-
10:43 - 10:45а жертва — в другой,
-
10:45 - 10:46то вы не сможете настоять на том,
-
10:46 - 10:49чтобы преступник предстал
перед местными судами -
10:49 - 10:50и получил вердикт.
-
10:50 - 10:54Поэтому нам понадобится
скоординированная международная реакция. -
10:56 - 10:59Образование должно быть
частью этой реакции. -
11:00 - 11:04Правоохранители не будут применять законы,
-
11:04 - 11:05о которых они не знают,
-
11:05 - 11:08и решать проблемы, которых не понимают.
-
11:08 - 11:11Исследуя киберпреследования,
-
11:11 - 11:14я обнаружила, что правоохранители
не имеют достаточной подготовки, -
11:14 - 11:17чтобы понять имеющиеся законы
-
11:17 - 11:19и проблему оскорблений в сети.
-
11:19 - 11:22Поэтому они часто говорят жертвам:
-
11:22 - 11:26«Просто выключите компьютер.
Не обращайте внимания, и всё пройдёт». -
11:26 - 11:29Так случилось с Раной Айюб.
-
11:29 - 11:33Ей сказали: «Ты делаешь из мухи слона.
-
11:33 - 11:34Это просто мальчишечьи игры».
-
11:35 - 11:41Поэтому нужно объединять новые законы
с практической подготовкой. -
11:42 - 11:45В образовании нуждаются и СМИ.
-
11:46 - 11:50Журналистам нужно объяснять
феномен дипфейка, -
11:50 - 11:54чтобы они не усиливали
и не распространяли его. -
11:55 - 11:57И вот что касается всех нас.
-
11:57 - 12:01Каждому из нас нужно учиться.
-
12:01 - 12:05Мы кликаем, расшариваем, лайкаем
и даже не задумываемся об этом. -
12:06 - 12:07Мы способны на большее.
-
12:08 - 12:11Нам нужен лучший радар для подделок.
-
12:14 - 12:18Пока мы воплощаем в жизнь эти решения,
-
12:18 - 12:20ещё многие люди пострадают.
-
12:21 - 12:24Рана Айюб всё ещё борется с последствиями.
-
12:25 - 12:29Она всё ещё не чувствует, что может
свободно выражать себя в сети и вне её. -
12:30 - 12:31И, как она мне сказала,
-
12:31 - 12:36ей по-прежнему кажется,
что тысячи глаз смотрят на её голое тело, -
12:36 - 12:40хотя умом она понимает,
что это было не её тело. -
12:40 - 12:43Часто у неё бывают панические атаки,
-
12:43 - 12:47особенно когда кто-то незнакомый
пытается её сфотографировать. -
12:47 - 12:50«Что если они хотят сделать
ещё один дипфейк?» — думает она. -
12:51 - 12:55Итак, ради таких, как Рана Айюб,
-
12:55 - 12:57ради нашей демократии
-
12:57 - 13:00нужно делать что-то прямо сейчас.
-
13:00 - 13:01Спасибо.
-
13:01 - 13:03(Аплодисменты)
- Title:
- Как дипфейки разрушают правду и угрожают демократии
- Speaker:
- Даниэль Ситрон
- Description:
-
Использование технологии дипфейк для манипулирования видео- и аудиозаписями в преступных целях — будь то для разжигания насилия или очернения политиков и журналистов — становится реальной угрозой. В эпоху, когда эти инструменты становятся всё более доступными, а их продукты — более реалистичными, как они повлияют на то, во что мы верим в нашей жизни? Профессор права Даниэль Ситрон в своём тревожном выступлении показывает, как дипфейки усиливают наше недоверие, и предлагает подходы к защите правды.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Retired user approved Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user edited Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user accepted Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user edited Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user rejected Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Alex Ch accepted Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Alex Ch edited Russian subtitles for How deepfakes undermine truth and threaten democracy | ||
Helen GIRSHMAN edited Russian subtitles for How deepfakes undermine truth and threaten democracy |