Как вы можете помочь создать атмосферу доверия в интернете
-
0:02 - 0:04Неважно, кто вы и где вы живёте,
-
0:04 - 0:06я думаю, что у вас есть
хотя бы один родственник, -
0:06 - 0:09который любит рассылать
те самые сообщения. -
0:09 - 0:11Вы понимаете, какие я имею в виду —
-
0:11 - 0:14те самые со спорными заявлениями
и видео о теориях заговора. -
0:14 - 0:17И, возможно, вы уже скрыли
их публикации в Facebook -
0:17 - 0:19из-за постов, которыми они делятся.
-
0:19 - 0:21Здесь изображён банан,
-
0:21 - 0:23в центре которого странное красное пятно.
-
0:23 - 0:26И текст над ним предупреждает людей,
-
0:26 - 0:28чтобы они не ели подобного рода фрукты,
-
0:28 - 0:30предполагая, что в них впрыснули кровь,
-
0:30 - 0:32заражённую ВИЧ-инфекцией.
-
0:32 - 0:35И сверху в репосте просто написано:
-
0:35 - 0:37«Разошлите всем, чтобы спасти жизни».
-
0:38 - 0:41Фактчекеры развенчивают
этот слух уже годами, -
0:41 - 0:44но он из тех, что просто
так не забываются. -
0:44 - 0:45Зомби-слух.
-
0:46 - 0:48И, конечно же, он совершенно ложный.
-
0:48 - 0:51И, может быть, сложно не засмеяться
над подобным примером: -
0:51 - 0:53«Ну кто в такое поверит?»
-
0:53 - 0:55Но слух этот зомбирует потому,
-
0:55 - 0:59что пробуждает самые потаённые
страхи людей за свою безопасность -
0:59 - 1:01и безопасность тех, кого они любят.
-
1:02 - 1:05А если вы прочитаете так же много
ложной информации, как и я, -
1:05 - 1:08вы увидите, что это
лишь один пример из многих, -
1:08 - 1:11что пробуждают самые
потаённые страхи и слабости людей. -
1:11 - 1:16Каждый день по всему миру публикуются
всё новые и новые посты в Instagram, -
1:16 - 1:19которые призывают родителей
не делать прививки своим детям. -
1:19 - 1:23А в новых видео на Youtube объясняют,
что изменения климата — это «утка». -
1:23 - 1:28И на всех платформах мы видим
бесконечные посты, оскорбляющие других -
1:28 - 1:31по признаку их расы, религии
или сексуальной ориентации. -
1:32 - 1:35Представляю вам одну
из ключевых задач нашего времени. -
1:36 - 1:40Как мы можем сохранить в основе
интернета свободу слова -
1:40 - 1:43и при этом сделать так,
чтобы распространяемый контент -
1:43 - 1:47не причинял непоправимый вред
нашей демократии, нашему обществу -
1:47 - 1:49и нашему физическому
и душевному благополучию? -
1:50 - 1:52Поскольку мы живём в век информации,
-
1:52 - 1:56основная валюта, от которой
все мы зависим, — информация — -
1:56 - 1:58больше не считается
в полной мере надёжной, -
1:58 - 2:00а порой она может быть просто опасной.
-
2:01 - 2:05Отчасти это благодаря стремительному
росту обмена в соцсетях, -
2:05 - 2:06который позволяет нам пролистывать
-
2:06 - 2:09ленту, где ложь и правда стоят бок о бок,
-
2:09 - 2:12без единого привычного
признака надёжности. -
2:12 - 2:16И о боже — наш язык
в этой теме ужасно запутан. -
2:16 - 2:19Люди одержимы этой фразой
«фейковые новости», -
2:19 - 2:22несмотря на то, что она
абсолютно бесполезная -
2:22 - 2:25и обозначает несколько понятий,
которые на самом деле сильно различаются: -
2:25 - 2:28ложь, слухи, «утки», заговоры, пропаганда.
-
2:29 - 2:32И я бы хотела, чтобы мы
перестали использовать фразу, -
2:32 - 2:35которую применяют политики по всему миру,
-
2:35 - 2:36от левых до правых,
-
2:36 - 2:39в качестве оружия против
свободной и независимой прессы. -
2:40 - 2:45(Аплодисменты)
-
2:45 - 2:48Ведь сейчас мы нуждаемся в наших
профессиональных СМИ как никогда. -
2:49 - 2:52И кроме того, бóльшую часть
контента не маскируют под новости. -
2:52 - 2:55Это мемы, видео, посты.
-
2:55 - 2:58И бóльшая часть из них не фейк;
они просто вводят нас в заблуждение. -
2:58 - 3:01Мы привыкли заострять внимание
на том, что верно или неверно. -
3:01 - 3:05Но самая большая проблема — это
применение контекста в качестве оружия. -
3:07 - 3:09Потому что самой эффективной
-
3:09 - 3:12дезинформацией всегда была та,
в которой есть доля правды. -
3:12 - 3:15Возьмём вот этот пример
из Лондона, март 2017 года, -
3:15 - 3:17твит, широко распространённый
-
3:17 - 3:21вследствие теракта
на Вестминстерском мосту. -
3:21 - 3:23Это настоящая фотография, не фейк.
-
3:23 - 3:26Потом у женщины с этой
фотографии взяли интервью, -
3:26 - 3:29и она объяснила,
что была глубоко шокирована. -
3:29 - 3:30По телефону она говорила с близкими
-
3:30 - 3:33и не смотрела на жертву из уважения.
-
3:33 - 3:37Но этот твит по-прежнему
распространяли в исламофобском ключе -
3:37 - 3:40с множеством хэштегов, включая
#BanIslam («Запретить ислам»). -
3:40 - 3:43Если бы вы работали в Твиттере,
что бы вы сделали? -
3:43 - 3:45Вы бы его удалили или оставили?
-
3:47 - 3:50Моей инстинктивной, эмоциональной
реакцией было бы удалить это. -
3:50 - 3:52Я против того, в каком
ключе это представлено. -
3:53 - 3:55Но свобода слова — это право человека,
-
3:55 - 3:58и если мы начнём удалять высказывания,
от которых нам некомфортно, -
3:58 - 3:59то мы окажемся в беде.
-
4:00 - 4:02И этот случай может показаться очевидным,
-
4:02 - 4:04но чаще всего это не так.
-
4:04 - 4:06И границы невероятно сложно провести.
-
4:06 - 4:08То, что для одного человека
решение во благо, -
4:08 - 4:10для другого — явная цензура.
-
4:11 - 4:14Мы знаем, что аккаунт Texas Lone Star
-
4:14 - 4:17был частью более широкой
российской кампании по дезинформации, -
4:17 - 4:19который после этого был удалён.
-
4:19 - 4:21Изменило бы это ваш взгляд?
-
4:21 - 4:22Мой бы изменило,
-
4:23 - 4:25потому что теперь это случай
намеренной кампании -
4:25 - 4:26с целью сеять распри.
-
4:26 - 4:28А те из вас, кому хотелось бы думать,
-
4:28 - 4:31что искусственный интеллект
решит все наши проблемы, -
4:31 - 4:33думаю, вы согласитесь,
что нам ещё далеко -
4:33 - 4:36до ИИ, который бы смог
осмыслить подобные посты. -
4:37 - 4:39Я хотела бы объяснить
три взаимосвязанных аспекта, -
4:39 - 4:42которые всё это сильно усложняют,
-
4:42 - 4:45и затем поразмышлять о том,
как мы можем эти задачи решить. -
4:45 - 4:49Во-первых, у нас нет рациональных
взаимоотношений с информацией, -
4:49 - 4:51а есть лишь эмоциональные.
-
4:51 - 4:55И большее количество фактов
ситуацию не улучшит, -
4:55 - 4:58ведь алгоритмы, которые
определяют контент в нашей ленте, — -
4:58 - 5:01что ж, они призваны поощрять
наши эмоциональные порывы. -
5:01 - 5:02А когда мы напуганы,
-
5:02 - 5:05поверхностная информация,
объяснения заговоров -
5:05 - 5:09и уничижающие других слова
более чем эффективны. -
5:10 - 5:11Кроме того, у многих из этих компаний
-
5:11 - 5:14бизнес-модель связана с вниманием,
-
5:14 - 5:18что означает: эти алгоритмы всегда
будут склоняться в сторону эмоций. -
5:18 - 5:23Во-вторых, бóльшая часть высказываний,
о которых я говорю, законны. -
5:23 - 5:25И было бы совсем другое дело,
-
5:25 - 5:27если бы я говорила о растлении детей
-
5:27 - 5:29или о контенте, провоцирующем насилие.
-
5:29 - 5:32Публиковать откровенную ложь
может быть совершенно законно. -
5:33 - 5:37Но люди продолжают говорить об удалении
«проблемного» или «вредоносного» контента, -
5:37 - 5:40причём не давая чёткого
определения тому, о чём говорят, -
5:40 - 5:41включая Марка Цукерберга,
-
5:41 - 5:45который недавно призывал разработать
единые правила регулирования сети. -
5:45 - 5:47И я обеспокоена тем, что у нас на глазах
-
5:47 - 5:48государства по всему миру
-
5:48 - 5:51принимают поспешные
политические решения, -
5:51 - 5:54которые могут повлечь намного
более серьёзные последствия -
5:54 - 5:56в отношении свободы слова.
-
5:56 - 6:00И даже если бы мы могли решить,
какое высказывание удалить или оставить, -
6:00 - 6:02у нас никогда их не было
в таком количестве. -
6:02 - 6:04Каждую секунду люди со всего мира
-
6:04 - 6:06загружают миллионы единиц контента
-
6:06 - 6:07на разных языках,
-
6:07 - 6:10относящихся к тысячам разных
культурных контекстов. -
6:10 - 6:13У нас просто никогда не было
эффективных механизмов -
6:13 - 6:14проверки постов в таком масштабе,
-
6:15 - 6:17с которыми бы справились
люди или технологии. -
6:18 - 6:22И в-третьих, эти компании —
Google, Twitter, Facebook, WhatsApp — -
6:22 - 6:25являются частью более широкой
информационной экосистемы. -
6:25 - 6:28Мы любим возлагать всю вину
на них, но правда в том, -
6:28 - 6:32что СМИ и депутаты могут
играть такую же роль -
6:32 - 6:35в распространении слухов и заговоров,
когда они этого захотят. -
6:36 - 6:41Как и мы, когда бездумно рассылаем
спорный или недостоверный контент -
6:41 - 6:42без особых усилий.
-
6:42 - 6:44Мы способствуем засорению.
-
6:45 - 6:48Я знаю, что все мы ищем простое решение.
-
6:48 - 6:50Но такого нет.
-
6:50 - 6:54Любое решение должно применяться
глобально в масштабе интернета, -
6:54 - 6:58и да, эти платформы привыкли
действовать на этом уровне. -
6:58 - 7:01Но можем ли и должны ли мы
позволять им решать эти проблемы? -
7:02 - 7:03Они, безусловно, стараются.
-
7:03 - 7:07Но большинство из нас согласится,
мы не хотим, чтобы всемирные корпорации -
7:07 - 7:09стояли на страже правды
и справедливости в сети. -
7:09 - 7:12И я также думаю, что платформы
с этим согласятся. -
7:12 - 7:15И в настоящий момент они
выполняют своё домашнее задание. -
7:15 - 7:16Они любят говорить нам,
-
7:16 - 7:19что изменения, которые
они проводят, работают, -
7:19 - 7:22но они пишут собственные
отчёты о прозрачности, -
7:22 - 7:25и у нас нет возможности самим проверить,
как обстоят дела в действительности. -
7:26 - 7:30(Аплодисменты)
-
7:30 - 7:33И будем честны, бóльшую
часть изменений мы видим -
7:33 - 7:36лишь после того, как журналисты
предпринимают расследование -
7:36 - 7:37и находят доказательства
-
7:37 - 7:40предвзятости или контент,
нарушающий правила их платформы. -
7:41 - 7:45Так что да, эти компании должны
сыграть очень важную роль в этом процессе, -
7:45 - 7:47но они не должны им управлять.
-
7:48 - 7:49Что насчёт государств?
-
7:50 - 7:53Многие верят, что единое регулирование —
наша последняя надежда -
7:53 - 7:56в рамках очищения нашей
информационной экосистемы. -
7:56 - 7:59Но что я вижу, так это законотворцев,
пытающихся идти в ногу -
7:59 - 8:01с быстрым развитием технологий.
-
8:01 - 8:03И что хуже, они работают вслепую,
-
8:03 - 8:05потому что у них нет доступа к данным,
-
8:05 - 8:08чтобы понять, что происходит
на этих платформах. -
8:08 - 8:11К тому же, каким государствам
мы бы доверились в этом вопросе? -
8:11 - 8:14Нам нужно действовать
на мировом уровне, а не национальном. -
8:15 - 8:18Так что недостающее звено — это мы.
-
8:18 - 8:21Те люди, что используют
эти технологии каждый день. -
8:21 - 8:26Можем ли мы создать новую инфраструктуру,
чтобы защитить качественную информацию? -
8:26 - 8:28Что ж, я верю в это,
-
8:28 - 8:31и у меня есть несколько идей
о том, что мы могли бы сделать. -
8:31 - 8:34Во-первых, если мы всерьёз
хотим вовлечь в это общественность, -
8:34 - 8:37почему бы не взять пример с Википедии?
-
8:37 - 8:38Они показали нам, что возможно.
-
8:38 - 8:40Да, она не идеальна,
-
8:40 - 8:42но они показали,
что с правильными структурами, -
8:42 - 8:45глобальным видением
и высокой степенью прозрачности -
8:45 - 8:48можно создать то, что заслужит
доверие многих людей. -
8:48 - 8:51Ведь мы должны найти способ
проникнуть в коллективную мудрость -
8:51 - 8:53и опыт всех пользователей.
-
8:54 - 8:56Особенно это актуально
для женщин, «цветных» людей -
8:56 - 8:58и недопредставленных групп.
-
8:58 - 8:59Потому что знаете что?
-
8:59 - 9:01Они эксперты по части
ненависти и дезинформации, -
9:02 - 9:05потому что они так долго были
мишенями этих кампаний. -
9:05 - 9:07И в течение этих лет они поднимали флаги,
-
9:07 - 9:09но никто их не слушал.
-
9:09 - 9:10Это должно измениться.
-
9:11 - 9:15Так смогли бы мы создать
Википедию, основанную на доверии? -
9:15 - 9:19Смогли бы мы найти способ, чтобы
пользователи могли предлагать идеи? -
9:19 - 9:23Они могли бы предлагать идеи
по сложным решениям в модерации контента. -
9:23 - 9:25Они могли бы давать отклик,
-
9:25 - 9:28когда платформы решат,
что хотят внести новые изменения. -
9:28 - 9:32Во-вторых, у людей индивидуальные
отношения с информацией. -
9:32 - 9:35Моя лента в Facebook
сильно отличается от вашей. -
9:35 - 9:38Ваши рекомендации в Youtube
сильно отличаются от моих. -
9:38 - 9:40Из-за этого мы не можем
по-настоящему проверить, -
9:40 - 9:42какую информацию видят люди.
-
9:43 - 9:44Но что если бы мы
-
9:44 - 9:49разработали что-то вроде централизованной
открытой базы анонимных данных -
9:49 - 9:52с сохранением конфиденциальности
и соблюдением этики? -
9:52 - 9:54Ведь представьте, что мы узнали бы,
-
9:54 - 9:57создай мы всемирную сеть
заинтересованных граждан, -
9:57 - 10:01желающих пожертвовать
свои социальные данные науке. -
10:01 - 10:03Ведь на самом деле мы мало знаем
-
10:03 - 10:06о долгосрочных последствиях
ненависти и дезинформации -
10:06 - 10:08в отношениях и поведении людей.
-
10:08 - 10:09А то, что нам известно,
-
10:09 - 10:12по большей части исследовано в США,
-
10:12 - 10:14несмотря на то, что это
всемирная проблема. -
10:14 - 10:16Нам тоже нужно работать над этим.
-
10:16 - 10:17И в-третьих,
-
10:17 - 10:20можно ли найти способ
связать всё это воедино? -
10:20 - 10:23Ни один сектор, тем более некоммерческий,
стартап или государство, -
10:23 - 10:25не решат эту проблему.
-
10:25 - 10:27Но по всему миру находятся
очень умные люди, -
10:27 - 10:29работающие над этим,
-
10:29 - 10:32из редакций, гражданского общества,
академии, групп активистов. -
10:32 - 10:34Некоторых из них вы видите здесь.
-
10:34 - 10:37Одни определяют факторы
надёжности контента. -
10:37 - 10:38Другие проверяют факты,
-
10:38 - 10:42чтобы платформы могли снизить охват
ложных утверждений, видео и картинок. -
10:42 - 10:44НКО First Draft, которую
я помогла основать, -
10:44 - 10:47работает с конкурентноспособными
редакциями по всему миру, -
10:47 - 10:51чтобы помочь им создать
исследовательские коллективные программы. -
10:51 - 10:54И Дэнни Хиллис, разработчик структуры ПО,
-
10:54 - 10:56работает над новой системой The Underlay,
-
10:56 - 10:59которая будет содержать записи
всех публичных утверждений -
10:59 - 11:00с указанием их источника,
-
11:00 - 11:04так люди и алгоритмы смогут лучше
оценить, чему можно доверять. -
11:05 - 11:08А эксперты по образованию во всём мире
тестируют разные методы, -
11:08 - 11:12чтобы научить людей критически
относиться к потребляемому контенту. -
11:13 - 11:16Все эти усилия чудесны,
но они действуют разрозненно, -
11:16 - 11:18и многие из них крайне мало финансируются.
-
11:19 - 11:21К тому же есть сотни очень умных людей,
-
11:21 - 11:22работающих внутри этих компаний,
-
11:22 - 11:25но опять же, эти усилия разрозненны,
-
11:25 - 11:29потому что по сути они предлагают разные
решения для одной и той же проблемы. -
11:29 - 11:31Как нам найти способ собрать людей вместе
-
11:31 - 11:35в одном физическом пространстве
на дни и недели за раз, -
11:35 - 11:37чтобы они могли решать
эти проблемы вместе, -
11:37 - 11:39но с разных точек зрения?
-
11:39 - 11:40Так можем ли мы это сделать?
-
11:40 - 11:44Можем ли мы создать совместное
перспективное решение, -
11:44 - 11:47которое бы соотносилось
с масштабом и сложностью проблемы? -
11:48 - 11:49Я думаю, что мы можем.
-
11:49 - 11:52Давайте вместе изменим
нашу общую информационную систему. -
11:53 - 11:54Спасибо.
-
11:54 - 11:58(Аплодисменты)
- Title:
- Как вы можете помочь создать атмосферу доверия в интернете
- Speaker:
- Клэр Уордл
- Description:
-
Как нам остановить распространение недостоверного, а порой и опасного контента, при этом сохранив в основе интернета свободу слова? Эксперт в области работы с дезинформацией, Клэр Уордл, изучает новые проблемы нашего загрязнённого интернет-пространства и намечает план, чтобы создать атмосферу доверия в интернете — при помощи постоянных пользователей.
«Давайте вместе изменим нашу общую информационную систему», — говорит она. - Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
![]() |
Retired user approved Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Retired user edited Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Retired user accepted Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Retired user edited Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Retired user edited Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Retired user edited Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Yulia Alexeychuk edited Russian subtitles for How you can help transform the internet into a place of trust | |
![]() |
Yulia Alexeychuk edited Russian subtitles for How you can help transform the internet into a place of trust |