Return to Video

Як можна допомогти трансформувати Інтернет у простір довіри

  • 0:02 - 0:04
    Незалежно від того, хто ви,
    і де ви мешкаєте,
  • 0:04 - 0:06
    припускаю, що у вас
    є принаймні один родич,
  • 0:06 - 0:09
    який любить поширювати
    такі повідомлення.
  • 0:09 - 0:11
    Ви знаєте, що я маю на увазі –
  • 0:11 - 0:14
    сумнівні повідомлення чи відео
    в стилі теорії змови.
  • 0:14 - 0:17
    Можливо, ви вже відключили
    його сповіщення на Фейсбуці,
  • 0:17 - 0:19
    не бажаючи бачити репостів,
    подібних до цього.
  • 0:19 - 0:21
    На цій картинці банан
  • 0:21 - 0:23
    із дивним червоним хрестиком всередині.
  • 0:23 - 0:26
    Текст, що супроводжує картинку,
  • 0:26 - 0:28
    застерігає не їсти такі фрукти,
  • 0:28 - 0:30
    припускаючи, що у ці фрукти ввели кров,
  • 0:30 - 0:32
    заражену вірусом СНІДу.
  • 0:32 - 0:35
    А повідомлення вгорі містить
    просте прохання:
  • 0:35 - 0:37
    "Поширте це, щоб врятувати життя".
  • 0:38 - 0:41
    Хоча факт-чекери вже кілька років
    розвінчують це хибне вкидання,
  • 0:41 - 0:44
    але воно належить до тих чуток,
    які все ще живуть і далі.
  • 0:44 - 0:45
    Це чутка-зомбі.
  • 0:46 - 0:48
    І, звісно, вона цілком неправдива.
  • 0:48 - 0:51
    Хтось може просто посміятися
    над такими прикладами, кажучи:
  • 0:51 - 0:53
    "Ну, хіба хтось цьому повірить?"
  • 0:53 - 0:55
    Але ці чутки-зомбі існують тому,
  • 0:55 - 0:59
    що вони пробуджують найглибші
    страхи щодо власної безпеки,
  • 0:59 - 1:01
    і безпеки найближчих людей.
  • 1:02 - 1:05
    Якщо ви витратите на вивчення
    дезінформації стільки ж часу, скільки я,
  • 1:05 - 1:08
    ви побачите, що цей приклад
    лише один із багатьох,
  • 1:08 - 1:11
    які спираються на найглибші
    страхи і побоювання.
  • 1:11 - 1:16
    Щодня по всьому світу в Інстаграмі
    поширюються нові меми,
  • 1:16 - 1:19
    які спонукають батьків
    відмовитись від вакцинації дітей.
  • 1:19 - 1:23
    Ми бачимо на YouTube нові відео,
    де кажуть, що зміна клімату – це неправда.
  • 1:23 - 1:28
    І на всіх платформах ми бачимо
    незліченні дописи, де інших демонізують
  • 1:28 - 1:31
    на підставі їхньої раси, релігії
    чи сексуальної належності.
  • 1:32 - 1:35
    Ласкаво прошу до одного з головних
    викликів нашого часу.
  • 1:36 - 1:40
    Як можна забезпечити свободу
    вираження в Інтернеті,
  • 1:40 - 1:43
    гарантуючи при цьому,
    що поширюваний контент
  • 1:43 - 1:47
    не завдасть непоправної шкоди
    нашій демократії, нашим спільнотам
  • 1:47 - 1:49
    і нашому фізичному
    й психічному благополуччю?
  • 1:50 - 1:52
    Оскільки ми живемо в інформаційну епоху,
  • 1:52 - 1:56
    інформація стала головною валютою,
    від якої ми всі залежимо,
  • 1:56 - 1:58
    але на неї більше не можна
    цілковито покладатись,
  • 1:58 - 2:00
    а іноді вона може становити
    пряму небезпеку.
  • 2:01 - 2:05
    Однією із причин цього є нестримне
    зростання соціальних мереж,
  • 2:05 - 2:06
    коли у нашій стрічці
  • 2:06 - 2:09
    брехня може сусідити із фактами,
  • 2:09 - 2:12
    але при цьому відсутні традиційні
    маркери достовірності.
  • 2:12 - 2:16
    І, як на зло, у нас дуже заплутана
    мова, якою ми це описуємо.
  • 2:16 - 2:19
    Люди ще досі мусолять фразу
    "фейкові новини",
  • 2:19 - 2:22
    незважаючи на те, що від неї
    дуже мало користі,
  • 2:22 - 2:25
    вона позначає чимало
    дуже відмінних між собою речей:
  • 2:25 - 2:28
    брехню, чутки, містифікації,
    змови, пропаганду.
  • 2:29 - 2:32
    І я дуже хотіла б,
    щоб ми перестали вживати фразу,
  • 2:32 - 2:35
    яку використовують політики
    в усьому світі,
  • 2:35 - 2:36
    праві і ліві,
  • 2:36 - 2:39
    як зброю для атаки на
    вільну й незалежну пресу.
  • 2:40 - 2:45
    (Оплески)
  • 2:45 - 2:48
    Тому що зараз професійні ЗМІ
    нам потрібні як ніколи.
  • 2:49 - 2:52
    Крім того, більшість такого контенту
    навіть не маскується під новини.
  • 2:52 - 2:55
    Це меми, відео, дописи із соцмереж.
  • 2:55 - 2:58
    І чимало з них не є фейками,
    але вони вводять в оману.
  • 2:58 - 3:01
    Ми зосереджуємось на питанні
    про істинність чи хибність.
  • 3:01 - 3:05
    Однак найбільше нас має непокоїти
    маніпуляція контекстом.
  • 3:07 - 3:09
    Адже найбільш дієва дезінформація –
  • 3:09 - 3:12
    це та, яка містить зерно правди.
  • 3:12 - 3:15
    Розгляньмо цей приклад,
    Лондон, березень 2017-го,
  • 3:15 - 3:17
    масово поширюваний твіт
  • 3:17 - 3:21
    після теракту на Вестмінстерському мосту.
  • 3:21 - 3:23
    Це справжнє фото, не фейк.
  • 3:23 - 3:26
    Пізніше жінка на фотографії
    пояснила в інтерв'ю,
  • 3:26 - 3:29
    що вона була дуже шокована.
  • 3:29 - 3:30
    Вона розмовляла з коханим,
  • 3:30 - 3:33
    і, з поваги до жертв,
    уникала дивитись на них.
  • 3:33 - 3:37
    Але фото широко циркулювало,
    у ісламофобському контексті,
  • 3:37 - 3:40
    з численними хештегами,
    включно з #BanIslam.
  • 3:40 - 3:43
    Що б ви зробили
    на місці команди Твіттера?
  • 3:43 - 3:45
    Ви б заблокували це фото,
    чи дозволили його поширювати?
  • 3:47 - 3:50
    Моя інтуїтивна, емоційна реакція –
    таке фото слід заблокувати.
  • 3:50 - 3:52
    Я ненавиджу контекст,
    в якому його використали.
  • 3:53 - 3:55
    Але свобода самовираження
    належить до прав людини,
  • 3:55 - 3:58
    і якщо ми почнемо усувати дописи,
    які в нас викликають дискомфорт,
  • 3:58 - 3:59
    це небезпечний симптом.
  • 4:00 - 4:02
    Я навела дуже явний, очевидний приклад,
  • 4:02 - 4:04
    але більшість дописів не такі.
  • 4:04 - 4:06
    Дуже важко провести чітку межу.
  • 4:06 - 4:08
    Те, що для когось є цілком
    виправданим рішенням,
  • 4:08 - 4:10
    для іншого є відвертою цензурою.
  • 4:11 - 4:14
    Зараз ми знаємо, що цей акаунт,
    Техаська Самотня Зірка,
  • 4:14 - 4:17
    був частиною ширшої російської
    дезінформаційної кампанії,
  • 4:17 - 4:19
    це один із акаунтів,
    які зрештою ліквідували.
  • 4:19 - 4:21
    Це змінює вашу думку?
  • 4:21 - 4:22
    Мою змінює,
  • 4:23 - 4:25
    бо це вже інша річ,
    тут скоординована кампанія,
  • 4:25 - 4:26
    щоб сіяти розбрат.
  • 4:26 - 4:28
    Ті ж із вас, хто вважає,
  • 4:28 - 4:31
    що штучний інтелект
    вирішить всі наші проблеми,
  • 4:31 - 4:33
    думаю, погодяться, що ми ще дуже далеко
  • 4:33 - 4:36
    від ШІ, який здатний буде
    розуміти такі дописи, як цей.
  • 4:37 - 4:39
    Тож я хочу висвітлити
    три взаємопов'язані проблеми,
  • 4:39 - 4:42
    які роблять це завдання таким складним,
  • 4:42 - 4:45
    і також обміркувати декотрі
    можливі підходи до цих викликів.
  • 4:45 - 4:49
    Насамперед, наше ставлення
    до інформації є не раціональним,
  • 4:49 - 4:51
    а емоційним.
  • 4:51 - 4:55
    Ідея, що потрібно більше фактів,
    просто не відповідає дійсності,
  • 4:55 - 4:58
    бо алгоритми, що визначають,
    який контент ми побачимо,
  • 4:58 - 5:01
    розраховані на наші емоційні потреби.
  • 5:01 - 5:02
    І коли ми відчуваємо страх,
  • 5:02 - 5:05
    то спрощені пояснення,
    конспіративні теорії
  • 5:05 - 5:09
    і ярлики, що демонізують інших,
    виявляються значно дієвішими.
  • 5:10 - 5:11
    Крім того, чимало компаній
  • 5:11 - 5:14
    використовують бізнес-модель,
    розраховану на емоції,
  • 5:14 - 5:18
    що означає, що в цих алгоритмах
    завжди буде перекіс на користь емоцій.
  • 5:18 - 5:23
    По-друге, більшість із того, про що я
    тут розповідаю, не порушує закон.
  • 5:23 - 5:25
    Інша річ, якби йшлося
  • 5:25 - 5:27
    про дитячу порнографію
  • 5:27 - 5:29
    чи заклики до насильства.
  • 5:29 - 5:32
    Поширення ж відвертої брехні
    може ніяк не суперечити закону.
  • 5:33 - 5:37
    Але люди подумують про блокування
    "проблемного" чи "шкідливого" контенту,
  • 5:37 - 5:40
    не наводячи при цьому
    чіткого визначення цих термінів.
  • 5:40 - 5:41
    Як-от Марк Цукерберг,
  • 5:41 - 5:45
    який недавно закликав створити
    глобальні принципи модерації.
  • 5:45 - 5:47
    Мене непокоїть, що владні інституції
  • 5:47 - 5:48
    по всьому світу
  • 5:48 - 5:51
    приймають поквапні політичні рішення,
  • 5:51 - 5:54
    які можуть викликати
    значно серйозніші наслідки,
  • 5:54 - 5:56
    коли йдеться про свободу слова.
  • 5:56 - 6:00
    Та навіть якби ми могли вирішувати,
    які повідомлення блокувати,
  • 6:00 - 6:02
    ми б ніколи не змогли з цим впоратись.
  • 6:02 - 6:04
    Щосекунди люди у всьому світі
  • 6:04 - 6:06
    розміщують мільйони нових повідомлень,
  • 6:06 - 6:07
    різними мовами,
  • 6:07 - 6:10
    вплетені в тисячі різних
    культурних контекстів.
  • 6:10 - 6:13
    У нас просто ніколи б не було
    ефективних механізмів,
  • 6:13 - 6:14
    для модерації в такому масштабі,
  • 6:15 - 6:17
    це завдання було б не під силу
    ні людям, ні технологіям.
  • 6:18 - 6:22
    І, по-третє, ці компанії –
    Google, Twitter, Facebook, WhatsApp –
  • 6:22 - 6:25
    є частиною ширшої
    інформаційної екосистеми.
  • 6:25 - 6:28
    Ми любимо перекладати всю провину
    на них, але правда полягає в тому,
  • 6:28 - 6:32
    що ЗМІ й урядовці при владі
    можуть відігравати не меншу роль
  • 6:32 - 6:35
    у поширенні чуток і конспіративних
    теорій, коли їм це вигідно.
  • 6:36 - 6:41
    І ми так само, коли бездумно репостимо
    образливу чи оманливу інформацію,
  • 6:41 - 6:42
    не перевіряючи її.
  • 6:42 - 6:44
    Ми сприяємо забрудненню.
  • 6:45 - 6:48
    Я знаю, нам всім хочеться
    знайти простий вихід.
  • 6:48 - 6:50
    Але його просто не існує.
  • 6:50 - 6:54
    Будь-яке із пропонованих рішень має
    впроваджуватись у масовому масштабі,
  • 6:54 - 6:58
    на рівні Інтернету, і так, платформи
    теж діють на цьому рівні.
  • 6:58 - 7:01
    Але чи можемо і чи маємо ми їм дозволити
    вирішувати такі проблеми?
  • 7:02 - 7:03
    Звісно, вони намагаються.
  • 7:03 - 7:07
    Та більшість із нас згодні, що насправді
    ми не хочемо, щоб глобальні корпорації
  • 7:07 - 7:09
    здійснювали нагляд
    за правдивістю онлайн.
  • 7:09 - 7:12
    Я думаю, що з цим погодяться
    і платформи.
  • 7:12 - 7:15
    На даний момент, вони працюють
    над своїми уроками.
  • 7:15 - 7:16
    Вони люблять запевняти,
  • 7:16 - 7:19
    що втручання, до яких вони вдаються,
    є дієвими,
  • 7:19 - 7:22
    але оскільки вони спираються
    на власні внутрішні дані,
  • 7:22 - 7:25
    у нас немає можливості незалежної
    перевірки, якою ж ситуація є насправді.
  • 7:26 - 7:30
    (Оплески)
  • 7:30 - 7:33
    Також слід усвідомлювати,
    що більшість змін стаються
  • 7:33 - 7:36
    лише після того,
    коли журналісти здійснять розслідування
  • 7:36 - 7:37
    і знайдуть упереджену інформацію,
  • 7:37 - 7:40
    чи контент, який порушує
    правила їхньої спільноти.
  • 7:41 - 7:45
    Тож так, компанії мають відігравати
    значну роль у цьому процесі, але вони
  • 7:45 - 7:47
    не можуть його контролювати.
  • 7:48 - 7:49
    А як щодо влади?
  • 7:50 - 7:53
    Багато хто вважає, що глобальне
    регулювання – наша остання надія,
  • 7:53 - 7:56
    коли йдеться про очистку
    нашої інформаційної екосистеми.
  • 7:56 - 7:59
    Але, за моїми спостереженнями,
    законодавці намагаються
  • 7:59 - 8:01
    бігти навздогін за
    швидкими змінами в технології.
  • 8:01 - 8:03
    Гірше того, вони діють всліпу,
  • 8:03 - 8:05
    бо їм бракує даних,
  • 8:05 - 8:08
    щоб зрозуміти,
    що ж діється на цих платформах.
  • 8:08 - 8:11
    До того ж, урядам яких держав
    ми б це довірили?
  • 8:11 - 8:14
    Потрібна глобальна відповідь,
    а не національна.
  • 8:15 - 8:18
    Отож, ланка, якої бракує – це ми.
  • 8:18 - 8:21
    Це ми використовуємо
    дані технології щодня.
  • 8:21 - 8:26
    Можемо ми створити нову інфраструктуру,
    щоб дбати про якість інформації?
  • 8:26 - 8:28
    Я вірю, що можемо,
  • 8:28 - 8:31
    і в мене є кілька ідей,
    що ми справді можемо зробити.
  • 8:31 - 8:34
    По-перше, якщо ми хочемо
    залучити до цього публіку,
  • 8:34 - 8:37
    чи не могли б ми скористатись
    досвідом Вікіпедії?
  • 8:37 - 8:38
    Вона демонструє, що для нас можливо.
  • 8:38 - 8:40
    Так, вона не досконала,
  • 8:40 - 8:42
    але вона показує, що хороша структура,
  • 8:42 - 8:45
    глобальний масштаб
    і значна, дуже значна прозорість
  • 8:45 - 8:48
    дозволяє створити продукт,
    якому довірятиме більшість людей.
  • 8:48 - 8:51
    Адже нам потрібно знайти спосіб
    залучити колективну мудрість
  • 8:51 - 8:53
    і досвід усіх користувачів.
  • 8:54 - 8:56
    Особливо це стосується жінок,
    представників расових
  • 8:56 - 8:58
    та інших меншин.
  • 8:58 - 8:59
    Здогадуєтесь, чому?
  • 8:59 - 9:01
    Вони експерти, коли йдеться
    про ненависть і дезінформацію,
  • 9:02 - 9:05
    адже вони тривалий час
    були жертвами таких кампаній.
  • 9:05 - 9:07
    Вони боролись роками,
  • 9:07 - 9:09
    але їх не слухали.
  • 9:09 - 9:10
    Це потрібно змінити.
  • 9:11 - 9:15
    Хіба нам не вдалось створити Вікіпедію
    на принципі довіри?
  • 9:15 - 9:19
    Хіба не можна знайти спосіб
    справді враховувати думку користувачів?
  • 9:19 - 9:23
    В тому числі й думку щодо складних
    рішень з приводу модерації змісту.
  • 9:23 - 9:25
    Зворотній зв'язок користувачів
  • 9:25 - 9:28
    міг би впливати на зміни,
    які впроваджуються на платформах.
  • 9:28 - 9:32
    По-друге, наш досвід взаємодії
    з інформацією персоналізований.
  • 9:32 - 9:35
    Моя новинна стрічка у Фейсбуці
    дуже відмінна від вашої.
  • 9:35 - 9:38
    Вам YouTube рекомендує для перегляду
    інші відео, ніж мені.
  • 9:38 - 9:40
    Це унеможливлює для нас перевірку того,
  • 9:40 - 9:42
    яку інформацію люди бачать.
  • 9:43 - 9:44
    Тож чи не могли б ми уявити
  • 9:44 - 9:49
    певний тип централізованого відкритого
    репозитарію анонімних даних,
  • 9:49 - 9:52
    у якому враховано принципи
    етики й приватності?
  • 9:52 - 9:54
    Адже уявіть, що б нам відкрилось,
  • 9:54 - 9:57
    якби ми створили глобальну мережу
    небайдужих громадян,
  • 9:57 - 10:01
    які б хотіли передати свої соціальні
    дані для наукового використання.
  • 10:01 - 10:03
    Наразі нам дуже мало відомо
  • 10:03 - 10:06
    про довготривалий вплив
    ненависті й дезінформації
  • 10:06 - 10:08
    на установки й поведінку людей.
  • 10:08 - 10:09
    А те, що нам відомо,
  • 10:09 - 10:12
    спирається переважно на дані зі США,
  • 10:12 - 10:14
    попри те, що йдеться
    про глобальну проблему.
  • 10:14 - 10:16
    Тож нам треба працювати і над цим.
  • 10:16 - 10:17
    І, по-третє,
  • 10:17 - 10:20
    чи можемо ми поєднати всіх?
  • 10:20 - 10:23
    Жодний сектор, чи то громадський,
    чи стартапи, чи урядовий,
  • 10:23 - 10:25
    не може вирішити цю проблему.
  • 10:25 - 10:27
    Але по всьому світу є дуже розумні люди,
  • 10:27 - 10:29
    яких турбують ці виклики,
  • 10:29 - 10:32
    це журналісти, громадські діячі,
    науковці, активісти.
  • 10:32 - 10:34
    Ви бачите тут декотрих із них.
  • 10:34 - 10:37
    Декотрі розробляють індикатори
    надійності контенту.
  • 10:37 - 10:38
    Інші є факт-чекерами,
  • 10:38 - 10:42
    вони допомагають платформам знижувати
    рейтинги хибних заяв, відео і зображень.
  • 10:42 - 10:44
    Я співзасновниця громадської
    організації First Draft,
  • 10:44 - 10:47
    мета якої – допомогти редакціям
    з різних куточків світу
  • 10:47 - 10:51
    створити дослідницькі програми,
    націлені на співпрацю.
  • 10:51 - 10:54
    А Денні Гілліс, архітектор
    програмного забезпечення,
  • 10:54 - 10:56
    працює над новою системою
    під назвою The Underlay,
  • 10:56 - 10:59
    яка стане підбіркою всіх публічно
    озвучених фактів,
  • 10:59 - 11:00
    з посиланням на джерела,
  • 11:00 - 11:04
    тож люди й алгоритми зможуть краще
    визначати, що заслуговує на довіру.
  • 11:05 - 11:08
    А освітяни по всьому світу
    випробовують різні техніки,
  • 11:08 - 11:12
    щоб підвищити здатність людей
    критично сприймати інформацію.
  • 11:13 - 11:16
    Вони роблять чудову роботу,
    але вони працюють розрізнено,
  • 11:16 - 11:18
    і чимало з них жахливо недофінансовані.
  • 11:19 - 11:21
    А також сотні дуже розумних людей
  • 11:21 - 11:22
    працюють в цих компаніях,
  • 11:22 - 11:25
    та, знову ж таки,
    їхні зусилля нескоординовані,
  • 11:25 - 11:29
    бо вони насправді працюють над різними
    рішеннями одних і тих же проблем.
  • 11:29 - 11:31
    Чи можемо ми знайти спосіб
    зібрати цих людей
  • 11:31 - 11:35
    в одному просторі,
    на кілька днів чи тижнів,
  • 11:35 - 11:37
    щоб вони змогли взятись за ці
    проблеми разом,
  • 11:37 - 11:39
    але виходячи зі своїх різних перспектив?
  • 11:39 - 11:40
    Чи можемо ми це зробити?
  • 11:40 - 11:44
    Чи можемо ми запропонувати
    узгоджену, масштабну відповідь,
  • 11:44 - 11:47
    яка відповідатиме розмаху
    і складності проблеми?
  • 11:48 - 11:49
    Я вважаю, ми справді можемо.
  • 11:49 - 11:52
    Тож давайте разом перебудовувати
    наш інформаційний простір.
  • 11:53 - 11:54
    Дякую.
  • 11:54 - 11:58
    (Оплески)
Title:
Як можна допомогти трансформувати Інтернет у простір довіри
Speaker:
Клер Вордл
Description:

Як ми можемо зупинити поширення оманливого, іноді небезпечного контенту, при цьому зберігаючи свободу вираження в Інтернеті? Експерт із вивчення дезінформації Клер Вордл досліджує нові виклики, породжені забрудненням нашого онлайн-середовища, і накреслює план трансформації Інтернету у простір довіри; план, що передбачає допомогу звичайних користувачів. "Давайте разом перебудовувати
наш інформаційний простір", - закликає вона.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Ukrainian subtitles

Revisions