< Return to Video

Как вы можете помочь создать атмосферу доверия в интернете

  • 0:02 - 0:04
    Неважно, кто вы и где вы живёте,
  • 0:04 - 0:06
    я думаю, что у вас есть
    хотя бы один родственник,
  • 0:06 - 0:09
    который любит рассылать
    те самые сообщения.
  • 0:09 - 0:11
    Вы понимаете, какие я имею в виду —
  • 0:11 - 0:14
    те самые со спорными заявлениями
    и видео о теориях заговора.
  • 0:14 - 0:17
    И, возможно, вы уже скрыли
    их публикации в Facebook
  • 0:17 - 0:19
    из-за постов, которыми они делятся.
  • 0:19 - 0:21
    Здесь изображён банан,
  • 0:21 - 0:23
    в центре которого странное красное пятно.
  • 0:23 - 0:26
    И текст над ним предупреждает людей,
  • 0:26 - 0:28
    чтобы они не ели подобного рода фрукты,
  • 0:28 - 0:30
    предполагая, что в них впрыснули кровь,
  • 0:30 - 0:32
    заражённую ВИЧ-инфекцией.
  • 0:32 - 0:35
    И сверху в репосте просто написано:
  • 0:35 - 0:37
    «Разошлите всем, чтобы спасти жизни».
  • 0:38 - 0:41
    Фактчекеры развенчивают
    этот слух уже годами,
  • 0:41 - 0:44
    но он из тех, что просто
    так не забываются.
  • 0:44 - 0:45
    Зомби-слух.
  • 0:46 - 0:48
    И, конечно же, он совершенно ложный.
  • 0:48 - 0:51
    И, может быть, сложно не засмеяться
    над подобным примером:
  • 0:51 - 0:53
    «Ну кто в такое поверит?»
  • 0:53 - 0:55
    Но слух этот зомбирует потому,
  • 0:55 - 0:59
    что пробуждает самые потаённые
    страхи людей за свою безопасность
  • 0:59 - 1:01
    и безопасность тех, кого они любят.
  • 1:02 - 1:05
    А если вы прочитаете так же много
    ложной информации, как и я,
  • 1:05 - 1:08
    вы увидите, что это
    лишь один пример из многих,
  • 1:08 - 1:11
    что пробуждают самые
    потаённые страхи и слабости людей.
  • 1:11 - 1:16
    Каждый день по всему миру публикуются
    всё новые и новые посты в Instagram,
  • 1:16 - 1:19
    которые призывают родителей
    не делать прививки своим детям.
  • 1:19 - 1:23
    А в новых видео на Youtube объясняют,
    что изменения климата — это «утка».
  • 1:23 - 1:28
    И на всех платформах мы видим
    бесконечные посты, оскорбляющие других
  • 1:28 - 1:31
    по признаку их расы, религии
    или сексуальной ориентации.
  • 1:32 - 1:35
    Представляю вам одну
    из ключевых задач нашего времени.
  • 1:36 - 1:40
    Как мы можем сохранить в основе
    интернета свободу слова
  • 1:40 - 1:43
    и при этом сделать так,
    чтобы распространяемый контент
  • 1:43 - 1:47
    не причинял непоправимый вред
    нашей демократии, нашему обществу
  • 1:47 - 1:49
    и нашему физическому
    и душевному благополучию?
  • 1:50 - 1:52
    Поскольку мы живём в век информации,
  • 1:52 - 1:56
    основная валюта, от которой
    все мы зависим, — информация —
  • 1:56 - 1:58
    больше не считается
    в полной мере надёжной,
  • 1:58 - 2:00
    а порой она может быть просто опасной.
  • 2:01 - 2:05
    Отчасти это благодаря стремительному
    росту обмена в соцсетях,
  • 2:05 - 2:06
    который позволяет нам пролистывать
  • 2:06 - 2:09
    ленту, где ложь и правда стоят бок о бок,
  • 2:09 - 2:12
    без единого привычного
    признака надёжности.
  • 2:12 - 2:16
    И о боже — наш язык
    в этой теме ужасно запутан.
  • 2:16 - 2:19
    Люди одержимы этой фразой
    «фейковые новости»,
  • 2:19 - 2:22
    несмотря на то, что она
    абсолютно бесполезная
  • 2:22 - 2:25
    и обозначает несколько понятий,
    которые на самом деле сильно различаются:
  • 2:25 - 2:28
    ложь, слухи, «утки», заговоры, пропаганда.
  • 2:29 - 2:32
    И я бы хотела, чтобы мы
    перестали использовать фразу,
  • 2:32 - 2:35
    которую применяют политики по всему миру,
  • 2:35 - 2:36
    от левых до правых,
  • 2:36 - 2:39
    в качестве оружия против
    свободной и независимой прессы.
  • 2:40 - 2:45
    (Аплодисменты)
  • 2:45 - 2:48
    Ведь сейчас мы нуждаемся в наших
    профессиональных СМИ как никогда.
  • 2:49 - 2:52
    И кроме того, бóльшую часть
    контента не маскируют под новости.
  • 2:52 - 2:55
    Это мемы, видео, посты.
  • 2:55 - 2:58
    И бóльшая часть из них не фейк;
    они просто вводят нас в заблуждение.
  • 2:58 - 3:01
    Мы привыкли заострять внимание
    на том, что верно или неверно.
  • 3:01 - 3:05
    Но самая большая проблема — это
    применение контекста в качестве оружия.
  • 3:07 - 3:09
    Потому что самой эффективной
  • 3:09 - 3:12
    дезинформацией всегда была та,
    в которой есть доля правды.
  • 3:12 - 3:15
    Возьмём вот этот пример
    из Лондона, март 2017 года,
  • 3:15 - 3:17
    твит, широко распространённый
  • 3:17 - 3:21
    вследствие теракта
    на Вестминстерском мосту.
  • 3:21 - 3:23
    Это настоящая фотография, не фейк.
  • 3:23 - 3:26
    Потом у женщины с этой
    фотографии взяли интервью,
  • 3:26 - 3:29
    и она объяснила,
    что была глубоко шокирована.
  • 3:29 - 3:30
    По телефону она говорила с близкими
  • 3:30 - 3:33
    и не смотрела на жертву из уважения.
  • 3:33 - 3:37
    Но этот твит по-прежнему
    распространяли в исламофобском ключе
  • 3:37 - 3:40
    с множеством хэштегов, включая
    #BanIslam («Запретить ислам»).
  • 3:40 - 3:43
    Если бы вы работали в Твиттере,
    что бы вы сделали?
  • 3:43 - 3:45
    Вы бы его удалили или оставили?
  • 3:47 - 3:50
    Моей инстинктивной, эмоциональной
    реакцией было бы удалить это.
  • 3:50 - 3:52
    Я против того, в каком
    ключе это представлено.
  • 3:53 - 3:55
    Но свобода слова — это право человека,
  • 3:55 - 3:58
    и если мы начнём удалять высказывания,
    от которых нам некомфортно,
  • 3:58 - 3:59
    то мы окажемся в беде.
  • 4:00 - 4:02
    И этот случай может показаться очевидным,
  • 4:02 - 4:04
    но чаще всего это не так.
  • 4:04 - 4:06
    И границы невероятно сложно провести.
  • 4:06 - 4:08
    То, что для одного человека
    решение во благо,
  • 4:08 - 4:10
    для другого — явная цензура.
  • 4:11 - 4:14
    Мы знаем, что аккаунт Texas Lone Star
  • 4:14 - 4:17
    был частью более широкой
    российской кампании по дезинформации,
  • 4:17 - 4:19
    который после этого был удалён.
  • 4:19 - 4:21
    Изменило бы это ваш взгляд?
  • 4:21 - 4:22
    Мой бы изменило,
  • 4:23 - 4:25
    потому что теперь это случай
    намеренной кампании
  • 4:25 - 4:26
    с целью сеять распри.
  • 4:26 - 4:28
    А те из вас, кому хотелось бы думать,
  • 4:28 - 4:31
    что искусственный интеллект
    решит все наши проблемы,
  • 4:31 - 4:33
    думаю, вы согласитесь,
    что нам ещё далеко
  • 4:33 - 4:36
    до ИИ, который бы смог
    осмыслить подобные посты.
  • 4:37 - 4:39
    Я хотела бы объяснить
    три взаимосвязанных аспекта,
  • 4:39 - 4:42
    которые всё это сильно усложняют,
  • 4:42 - 4:45
    и затем поразмышлять о том,
    как мы можем эти задачи решить.
  • 4:45 - 4:49
    Во-первых, у нас нет рациональных
    взаимоотношений с информацией,
  • 4:49 - 4:51
    а есть лишь эмоциональные.
  • 4:51 - 4:55
    И большее количество фактов
    ситуацию не улучшит,
  • 4:55 - 4:58
    ведь алгоритмы, которые
    определяют контент в нашей ленте, —
  • 4:58 - 5:01
    что ж, они призваны поощрять
    наши эмоциональные порывы.
  • 5:01 - 5:02
    А когда мы напуганы,
  • 5:02 - 5:05
    поверхностная информация,
    объяснения заговоров
  • 5:05 - 5:09
    и уничижающие других слова
    более чем эффективны.
  • 5:10 - 5:11
    Кроме того, у многих из этих компаний
  • 5:11 - 5:14
    бизнес-модель связана с вниманием,
  • 5:14 - 5:18
    что означает: эти алгоритмы всегда
    будут склоняться в сторону эмоций.
  • 5:18 - 5:23
    Во-вторых, бóльшая часть высказываний,
    о которых я говорю, законны.
  • 5:23 - 5:25
    И было бы совсем другое дело,
  • 5:25 - 5:27
    если бы я говорила о растлении детей
  • 5:27 - 5:29
    или о контенте, провоцирующем насилие.
  • 5:29 - 5:32
    Публиковать откровенную ложь
    может быть совершенно законно.
  • 5:33 - 5:37
    Но люди продолжают говорить об удалении
    «проблемного» или «вредоносного» контента,
  • 5:37 - 5:40
    причём не давая чёткого
    определения тому, о чём говорят,
  • 5:40 - 5:41
    включая Марка Цукерберга,
  • 5:41 - 5:45
    который недавно призывал разработать
    единые правила регулирования сети.
  • 5:45 - 5:47
    И я обеспокоена тем, что у нас на глазах
  • 5:47 - 5:48
    государства по всему миру
  • 5:48 - 5:51
    принимают поспешные
    политические решения,
  • 5:51 - 5:54
    которые могут повлечь намного
    более серьёзные последствия
  • 5:54 - 5:56
    в отношении свободы слова.
  • 5:56 - 6:00
    И даже если бы мы могли решить,
    какое высказывание удалить или оставить,
  • 6:00 - 6:02
    у нас никогда их не было
    в таком количестве.
  • 6:02 - 6:04
    Каждую секунду люди со всего мира
  • 6:04 - 6:06
    загружают миллионы единиц контента
  • 6:06 - 6:07
    на разных языках,
  • 6:07 - 6:10
    относящихся к тысячам разных
    культурных контекстов.
  • 6:10 - 6:13
    У нас просто никогда не было
    эффективных механизмов
  • 6:13 - 6:14
    проверки постов в таком масштабе,
  • 6:15 - 6:17
    с которыми бы справились
    люди или технологии.
  • 6:18 - 6:22
    И в-третьих, эти компании —
    Google, Twitter, Facebook, WhatsApp —
  • 6:22 - 6:25
    являются частью более широкой
    информационной экосистемы.
  • 6:25 - 6:28
    Мы любим возлагать всю вину
    на них, но правда в том,
  • 6:28 - 6:32
    что СМИ и депутаты могут
    играть такую же роль
  • 6:32 - 6:35
    в распространении слухов и заговоров,
    когда они этого захотят.
  • 6:36 - 6:41
    Как и мы, когда бездумно рассылаем
    спорный или недостоверный контент
  • 6:41 - 6:42
    без особых усилий.
  • 6:42 - 6:44
    Мы способствуем засорению.
  • 6:45 - 6:48
    Я знаю, что все мы ищем простое решение.
  • 6:48 - 6:50
    Но такого нет.
  • 6:50 - 6:54
    Любое решение должно применяться
    глобально в масштабе интернета,
  • 6:54 - 6:58
    и да, эти платформы привыкли
    действовать на этом уровне.
  • 6:58 - 7:01
    Но можем ли и должны ли мы
    позволять им решать эти проблемы?
  • 7:02 - 7:03
    Они, безусловно, стараются.
  • 7:03 - 7:07
    Но большинство из нас согласится,
    мы не хотим, чтобы всемирные корпорации
  • 7:07 - 7:09
    стояли на страже правды
    и справедливости в сети.
  • 7:09 - 7:12
    И я также думаю, что платформы
    с этим согласятся.
  • 7:12 - 7:15
    И в настоящий момент они
    выполняют своё домашнее задание.
  • 7:15 - 7:16
    Они любят говорить нам,
  • 7:16 - 7:19
    что изменения, которые
    они проводят, работают,
  • 7:19 - 7:22
    но они пишут собственные
    отчёты о прозрачности,
  • 7:22 - 7:25
    и у нас нет возможности самим проверить,
    как обстоят дела в действительности.
  • 7:26 - 7:30
    (Аплодисменты)
  • 7:30 - 7:33
    И будем честны, бóльшую
    часть изменений мы видим
  • 7:33 - 7:36
    лишь после того, как журналисты
    предпринимают расследование
  • 7:36 - 7:37
    и находят доказательства
  • 7:37 - 7:40
    предвзятости или контент,
    нарушающий правила их платформы.
  • 7:41 - 7:45
    Так что да, эти компании должны
    сыграть очень важную роль в этом процессе,
  • 7:45 - 7:47
    но они не должны им управлять.
  • 7:48 - 7:49
    Что насчёт государств?
  • 7:50 - 7:53
    Многие верят, что единое регулирование —
    наша последняя надежда
  • 7:53 - 7:56
    в рамках очищения нашей
    информационной экосистемы.
  • 7:56 - 7:59
    Но что я вижу, так это законотворцев,
    пытающихся идти в ногу
  • 7:59 - 8:01
    с быстрым развитием технологий.
  • 8:01 - 8:03
    И что хуже, они работают вслепую,
  • 8:03 - 8:05
    потому что у них нет доступа к данным,
  • 8:05 - 8:08
    чтобы понять, что происходит
    на этих платформах.
  • 8:08 - 8:11
    К тому же, каким государствам
    мы бы доверились в этом вопросе?
  • 8:11 - 8:14
    Нам нужно действовать
    на мировом уровне, а не национальном.
  • 8:15 - 8:18
    Так что недостающее звено — это мы.
  • 8:18 - 8:21
    Те люди, что используют
    эти технологии каждый день.
  • 8:21 - 8:26
    Можем ли мы создать новую инфраструктуру,
    чтобы защитить качественную информацию?
  • 8:26 - 8:28
    Что ж, я верю в это,
  • 8:28 - 8:31
    и у меня есть несколько идей
    о том, что мы могли бы сделать.
  • 8:31 - 8:34
    Во-первых, если мы всерьёз
    хотим вовлечь в это общественность,
  • 8:34 - 8:37
    почему бы не взять пример с Википедии?
  • 8:37 - 8:38
    Они показали нам, что возможно.
  • 8:38 - 8:40
    Да, она не идеальна,
  • 8:40 - 8:42
    но они показали,
    что с правильными структурами,
  • 8:42 - 8:45
    глобальным видением
    и высокой степенью прозрачности
  • 8:45 - 8:48
    можно создать то, что заслужит
    доверие многих людей.
  • 8:48 - 8:51
    Ведь мы должны найти способ
    проникнуть в коллективную мудрость
  • 8:51 - 8:53
    и опыт всех пользователей.
  • 8:54 - 8:56
    Особенно это актуально
    для женщин, «цветных» людей
  • 8:56 - 8:58
    и недопредставленных групп.
  • 8:58 - 8:59
    Потому что знаете что?
  • 8:59 - 9:01
    Они эксперты по части
    ненависти и дезинформации,
  • 9:02 - 9:05
    потому что они так долго были
    мишенями этих кампаний.
  • 9:05 - 9:07
    И в течение этих лет они поднимали флаги,
  • 9:07 - 9:09
    но никто их не слушал.
  • 9:09 - 9:10
    Это должно измениться.
  • 9:11 - 9:15
    Так смогли бы мы создать
    Википедию, основанную на доверии?
  • 9:15 - 9:19
    Смогли бы мы найти способ, чтобы
    пользователи могли предлагать идеи?
  • 9:19 - 9:23
    Они могли бы предлагать идеи
    по сложным решениям в модерации контента.
  • 9:23 - 9:25
    Они могли бы давать отклик,
  • 9:25 - 9:28
    когда платформы решат,
    что хотят внести новые изменения.
  • 9:28 - 9:32
    Во-вторых, у людей индивидуальные
    отношения с информацией.
  • 9:32 - 9:35
    Моя лента в Facebook
    сильно отличается от вашей.
  • 9:35 - 9:38
    Ваши рекомендации в Youtube
    сильно отличаются от моих.
  • 9:38 - 9:40
    Из-за этого мы не можем
    по-настоящему проверить,
  • 9:40 - 9:42
    какую информацию видят люди.
  • 9:43 - 9:44
    Но что если бы мы
  • 9:44 - 9:49
    разработали что-то вроде централизованной
    открытой базы анонимных данных
  • 9:49 - 9:52
    с сохранением конфиденциальности
    и соблюдением этики?
  • 9:52 - 9:54
    Ведь представьте, что мы узнали бы,
  • 9:54 - 9:57
    создай мы всемирную сеть
    заинтересованных граждан,
  • 9:57 - 10:01
    желающих пожертвовать
    свои социальные данные науке.
  • 10:01 - 10:03
    Ведь на самом деле мы мало знаем
  • 10:03 - 10:06
    о долгосрочных последствиях
    ненависти и дезинформации
  • 10:06 - 10:08
    в отношениях и поведении людей.
  • 10:08 - 10:09
    А то, что нам известно,
  • 10:09 - 10:12
    по большей части исследовано в США,
  • 10:12 - 10:14
    несмотря на то, что это
    всемирная проблема.
  • 10:14 - 10:16
    Нам тоже нужно работать над этим.
  • 10:16 - 10:17
    И в-третьих,
  • 10:17 - 10:20
    можно ли найти способ
    связать всё это воедино?
  • 10:20 - 10:23
    Ни один сектор, тем более некоммерческий,
    стартап или государство,
  • 10:23 - 10:25
    не решат эту проблему.
  • 10:25 - 10:27
    Но по всему миру находятся
    очень умные люди,
  • 10:27 - 10:29
    работающие над этим,
  • 10:29 - 10:32
    из редакций, гражданского общества,
    академии, групп активистов.
  • 10:32 - 10:34
    Некоторых из них вы видите здесь.
  • 10:34 - 10:37
    Одни определяют факторы
    надёжности контента.
  • 10:37 - 10:38
    Другие проверяют факты,
  • 10:38 - 10:42
    чтобы платформы могли снизить охват
    ложных утверждений, видео и картинок.
  • 10:42 - 10:44
    НКО First Draft, которую
    я помогла основать,
  • 10:44 - 10:47
    работает с конкурентноспособными
    редакциями по всему миру,
  • 10:47 - 10:51
    чтобы помочь им создать
    исследовательские коллективные программы.
  • 10:51 - 10:54
    И Дэнни Хиллис, разработчик структуры ПО,
  • 10:54 - 10:56
    работает над новой системой The Underlay,
  • 10:56 - 10:59
    которая будет содержать записи
    всех публичных утверждений
  • 10:59 - 11:00
    с указанием их источника,
  • 11:00 - 11:04
    так люди и алгоритмы смогут лучше
    оценить, чему можно доверять.
  • 11:05 - 11:08
    А эксперты по образованию во всём мире
    тестируют разные методы,
  • 11:08 - 11:12
    чтобы научить людей критически
    относиться к потребляемому контенту.
  • 11:13 - 11:16
    Все эти усилия чудесны,
    но они действуют разрозненно,
  • 11:16 - 11:18
    и многие из них крайне мало финансируются.
  • 11:19 - 11:21
    К тому же есть сотни очень умных людей,
  • 11:21 - 11:22
    работающих внутри этих компаний,
  • 11:22 - 11:25
    но опять же, эти усилия разрозненны,
  • 11:25 - 11:29
    потому что по сути они предлагают разные
    решения для одной и той же проблемы.
  • 11:29 - 11:31
    Как нам найти способ собрать людей вместе
  • 11:31 - 11:35
    в одном физическом пространстве
    на дни и недели за раз,
  • 11:35 - 11:37
    чтобы они могли решать
    эти проблемы вместе,
  • 11:37 - 11:39
    но с разных точек зрения?
  • 11:39 - 11:40
    Так можем ли мы это сделать?
  • 11:40 - 11:44
    Можем ли мы создать совместное
    перспективное решение,
  • 11:44 - 11:47
    которое бы соотносилось
    с масштабом и сложностью проблемы?
  • 11:48 - 11:49
    Я думаю, что мы можем.
  • 11:49 - 11:52
    Давайте вместе изменим
    нашу общую информационную систему.
  • 11:53 - 11:54
    Спасибо.
  • 11:54 - 11:58
    (Аплодисменты)
Title:
Как вы можете помочь создать атмосферу доверия в интернете
Speaker:
Клэр Уордл
Description:

Как нам остановить распространение недостоверного, а порой и опасного контента, при этом сохранив в основе интернета свободу слова? Эксперт в области работы с дезинформацией, Клэр Уордл, изучает новые проблемы нашего загрязнённого интернет-пространства и намечает план, чтобы создать атмосферу доверия в интернете — при помощи постоянных пользователей.
«Давайте вместе изменим нашу общую информационную систему», — говорит она.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Russian subtitles

Revisions