Як можна допомогти трансформувати Інтернет у простір довіри
-
0:02 - 0:04Незалежно від того, хто ви,
і де ви мешкаєте, -
0:04 - 0:06припускаю, що у вас
є принаймні один родич, -
0:06 - 0:09який любить поширювати
такі повідомлення. -
0:09 - 0:11Ви знаєте, що я маю на увазі –
-
0:11 - 0:14сумнівні повідомлення чи відео
в стилі теорії змови. -
0:14 - 0:17Можливо, ви вже відключили
його сповіщення на Фейсбуці, -
0:17 - 0:19не бажаючи бачити репостів,
подібних до цього. -
0:19 - 0:21На цій картинці банан
-
0:21 - 0:23із дивним червоним хрестиком всередині.
-
0:23 - 0:26Текст, що супроводжує картинку,
-
0:26 - 0:28застерігає не їсти такі фрукти,
-
0:28 - 0:30припускаючи, що у ці фрукти ввели кров,
-
0:30 - 0:32заражену вірусом СНІДу.
-
0:32 - 0:35А повідомлення вгорі містить
просте прохання: -
0:35 - 0:37"Поширте це, щоб врятувати життя".
-
0:38 - 0:41Хоча факт-чекери вже кілька років
розвінчують це хибне вкидання, -
0:41 - 0:44але воно належить до тих чуток,
які все ще живуть і далі. -
0:44 - 0:45Це чутка-зомбі.
-
0:46 - 0:48І, звісно, вона цілком неправдива.
-
0:48 - 0:51Хтось може просто посміятися
над такими прикладами, кажучи: -
0:51 - 0:53"Ну, хіба хтось цьому повірить?"
-
0:53 - 0:55Але ці чутки-зомбі існують тому,
-
0:55 - 0:59що вони пробуджують найглибші
страхи щодо власної безпеки, -
0:59 - 1:01і безпеки найближчих людей.
-
1:02 - 1:05Якщо ви витратите на вивчення
дезінформації стільки ж часу, скільки я, -
1:05 - 1:08ви побачите, що цей приклад
лише один із багатьох, -
1:08 - 1:11які спираються на найглибші
страхи і побоювання. -
1:11 - 1:16Щодня по всьому світу в Інстаграмі
поширюються нові меми, -
1:16 - 1:19які спонукають батьків
відмовитись від вакцинації дітей. -
1:19 - 1:23Ми бачимо на YouTube нові відео,
де кажуть, що зміна клімату – це неправда. -
1:23 - 1:28І на всіх платформах ми бачимо
незліченні дописи, де інших демонізують -
1:28 - 1:31на підставі їхньої раси, релігії
чи сексуальної належності. -
1:32 - 1:35Ласкаво прошу до одного з головних
викликів нашого часу. -
1:36 - 1:40Як можна забезпечити свободу
вираження в Інтернеті, -
1:40 - 1:43гарантуючи при цьому,
що поширюваний контент -
1:43 - 1:47не завдасть непоправної шкоди
нашій демократії, нашим спільнотам -
1:47 - 1:49і нашому фізичному
й психічному благополуччю? -
1:50 - 1:52Оскільки ми живемо в інформаційну епоху,
-
1:52 - 1:56інформація стала головною валютою,
від якої ми всі залежимо, -
1:56 - 1:58але на неї більше не можна
цілковито покладатись, -
1:58 - 2:00а іноді вона може становити
пряму небезпеку. -
2:01 - 2:05Однією із причин цього є нестримне
зростання соціальних мереж, -
2:05 - 2:06коли у нашій стрічці
-
2:06 - 2:09брехня може сусідити із фактами,
-
2:09 - 2:12але при цьому відсутні традиційні
маркери достовірності. -
2:12 - 2:16І, як на зло, у нас дуже заплутана
мова, якою ми це описуємо. -
2:16 - 2:19Люди ще досі мусолять фразу
"фейкові новини", -
2:19 - 2:22незважаючи на те, що від неї
дуже мало користі, -
2:22 - 2:25вона позначає чимало
дуже відмінних між собою речей: -
2:25 - 2:28брехню, чутки, містифікації,
змови, пропаганду. -
2:29 - 2:32І я дуже хотіла б,
щоб ми перестали вживати фразу, -
2:32 - 2:35яку використовують політики
в усьому світі, -
2:35 - 2:36праві і ліві,
-
2:36 - 2:39як зброю для атаки на
вільну й незалежну пресу. -
2:40 - 2:45(Оплески)
-
2:45 - 2:48Тому що зараз професійні ЗМІ
нам потрібні як ніколи. -
2:49 - 2:52Крім того, більшість такого контенту
навіть не маскується під новини. -
2:52 - 2:55Це меми, відео, дописи із соцмереж.
-
2:55 - 2:58І чимало з них не є фейками,
але вони вводять в оману. -
2:58 - 3:01Ми зосереджуємось на питанні
про істинність чи хибність. -
3:01 - 3:05Однак найбільше нас має непокоїти
маніпуляція контекстом. -
3:07 - 3:09Адже найбільш дієва дезінформація –
-
3:09 - 3:12це та, яка містить зерно правди.
-
3:12 - 3:15Розгляньмо цей приклад,
Лондон, березень 2017-го, -
3:15 - 3:17масово поширюваний твіт
-
3:17 - 3:21після теракту на Вестмінстерському мосту.
-
3:21 - 3:23Це справжнє фото, не фейк.
-
3:23 - 3:26Пізніше жінка на фотографії
пояснила в інтерв'ю, -
3:26 - 3:29що вона була дуже шокована.
-
3:29 - 3:30Вона розмовляла з коханим,
-
3:30 - 3:33і, з поваги до жертв,
уникала дивитись на них. -
3:33 - 3:37Але фото широко циркулювало,
у ісламофобському контексті, -
3:37 - 3:40з численними хештегами,
включно з #BanIslam. -
3:40 - 3:43Що б ви зробили
на місці команди Твіттера? -
3:43 - 3:45Ви б заблокували це фото,
чи дозволили його поширювати? -
3:47 - 3:50Моя інтуїтивна, емоційна реакція –
таке фото слід заблокувати. -
3:50 - 3:52Я ненавиджу контекст,
в якому його використали. -
3:53 - 3:55Але свобода самовираження
належить до прав людини, -
3:55 - 3:58і якщо ми почнемо усувати дописи,
які в нас викликають дискомфорт, -
3:58 - 3:59це небезпечний симптом.
-
4:00 - 4:02Я навела дуже явний, очевидний приклад,
-
4:02 - 4:04але більшість дописів не такі.
-
4:04 - 4:06Дуже важко провести чітку межу.
-
4:06 - 4:08Те, що для когось є цілком
виправданим рішенням, -
4:08 - 4:10для іншого є відвертою цензурою.
-
4:11 - 4:14Зараз ми знаємо, що цей акаунт,
Техаська Самотня Зірка, -
4:14 - 4:17був частиною ширшої російської
дезінформаційної кампанії, -
4:17 - 4:19це один із акаунтів,
які зрештою ліквідували. -
4:19 - 4:21Це змінює вашу думку?
-
4:21 - 4:22Мою змінює,
-
4:23 - 4:25бо це вже інша річ,
тут скоординована кампанія, -
4:25 - 4:26щоб сіяти розбрат.
-
4:26 - 4:28Ті ж із вас, хто вважає,
-
4:28 - 4:31що штучний інтелект
вирішить всі наші проблеми, -
4:31 - 4:33думаю, погодяться, що ми ще дуже далеко
-
4:33 - 4:36від ШІ, який здатний буде
розуміти такі дописи, як цей. -
4:37 - 4:39Тож я хочу висвітлити
три взаємопов'язані проблеми, -
4:39 - 4:42які роблять це завдання таким складним,
-
4:42 - 4:45і також обміркувати декотрі
можливі підходи до цих викликів. -
4:45 - 4:49Насамперед, наше ставлення
до інформації є не раціональним, -
4:49 - 4:51а емоційним.
-
4:51 - 4:55Ідея, що потрібно більше фактів,
просто не відповідає дійсності, -
4:55 - 4:58бо алгоритми, що визначають,
який контент ми побачимо, -
4:58 - 5:01розраховані на наші емоційні потреби.
-
5:01 - 5:02І коли ми відчуваємо страх,
-
5:02 - 5:05то спрощені пояснення,
конспіративні теорії -
5:05 - 5:09і ярлики, що демонізують інших,
виявляються значно дієвішими. -
5:10 - 5:11Крім того, чимало компаній
-
5:11 - 5:14використовують бізнес-модель,
розраховану на емоції, -
5:14 - 5:18що означає, що в цих алгоритмах
завжди буде перекіс на користь емоцій. -
5:18 - 5:23По-друге, більшість із того, про що я
тут розповідаю, не порушує закон. -
5:23 - 5:25Інша річ, якби йшлося
-
5:25 - 5:27про дитячу порнографію
-
5:27 - 5:29чи заклики до насильства.
-
5:29 - 5:32Поширення ж відвертої брехні
може ніяк не суперечити закону. -
5:33 - 5:37Але люди подумують про блокування
"проблемного" чи "шкідливого" контенту, -
5:37 - 5:40не наводячи при цьому
чіткого визначення цих термінів. -
5:40 - 5:41Як-от Марк Цукерберг,
-
5:41 - 5:45який недавно закликав створити
глобальні принципи модерації. -
5:45 - 5:47Мене непокоїть, що владні інституції
-
5:47 - 5:48по всьому світу
-
5:48 - 5:51приймають поквапні політичні рішення,
-
5:51 - 5:54які можуть викликати
значно серйозніші наслідки, -
5:54 - 5:56коли йдеться про свободу слова.
-
5:56 - 6:00Та навіть якби ми могли вирішувати,
які повідомлення блокувати, -
6:00 - 6:02ми б ніколи не змогли з цим впоратись.
-
6:02 - 6:04Щосекунди люди у всьому світі
-
6:04 - 6:06розміщують мільйони нових повідомлень,
-
6:06 - 6:07різними мовами,
-
6:07 - 6:10вплетені в тисячі різних
культурних контекстів. -
6:10 - 6:13У нас просто ніколи б не було
ефективних механізмів, -
6:13 - 6:14для модерації в такому масштабі,
-
6:15 - 6:17це завдання було б не під силу
ні людям, ні технологіям. -
6:18 - 6:22І, по-третє, ці компанії –
Google, Twitter, Facebook, WhatsApp – -
6:22 - 6:25є частиною ширшої
інформаційної екосистеми. -
6:25 - 6:28Ми любимо перекладати всю провину
на них, але правда полягає в тому, -
6:28 - 6:32що ЗМІ й урядовці при владі
можуть відігравати не меншу роль -
6:32 - 6:35у поширенні чуток і конспіративних
теорій, коли їм це вигідно. -
6:36 - 6:41І ми так само, коли бездумно репостимо
образливу чи оманливу інформацію, -
6:41 - 6:42не перевіряючи її.
-
6:42 - 6:44Ми сприяємо забрудненню.
-
6:45 - 6:48Я знаю, нам всім хочеться
знайти простий вихід. -
6:48 - 6:50Але його просто не існує.
-
6:50 - 6:54Будь-яке із пропонованих рішень має
впроваджуватись у масовому масштабі, -
6:54 - 6:58на рівні Інтернету, і так, платформи
теж діють на цьому рівні. -
6:58 - 7:01Але чи можемо і чи маємо ми їм дозволити
вирішувати такі проблеми? -
7:02 - 7:03Звісно, вони намагаються.
-
7:03 - 7:07Та більшість із нас згодні, що насправді
ми не хочемо, щоб глобальні корпорації -
7:07 - 7:09здійснювали нагляд
за правдивістю онлайн. -
7:09 - 7:12Я думаю, що з цим погодяться
і платформи. -
7:12 - 7:15На даний момент, вони працюють
над своїми уроками. -
7:15 - 7:16Вони люблять запевняти,
-
7:16 - 7:19що втручання, до яких вони вдаються,
є дієвими, -
7:19 - 7:22але оскільки вони спираються
на власні внутрішні дані, -
7:22 - 7:25у нас немає можливості незалежної
перевірки, якою ж ситуація є насправді. -
7:26 - 7:30(Оплески)
-
7:30 - 7:33Також слід усвідомлювати,
що більшість змін стаються -
7:33 - 7:36лише після того,
коли журналісти здійснять розслідування -
7:36 - 7:37і знайдуть упереджену інформацію,
-
7:37 - 7:40чи контент, який порушує
правила їхньої спільноти. -
7:41 - 7:45Тож так, компанії мають відігравати
значну роль у цьому процесі, але вони -
7:45 - 7:47не можуть його контролювати.
-
7:48 - 7:49А як щодо влади?
-
7:50 - 7:53Багато хто вважає, що глобальне
регулювання – наша остання надія, -
7:53 - 7:56коли йдеться про очистку
нашої інформаційної екосистеми. -
7:56 - 7:59Але, за моїми спостереженнями,
законодавці намагаються -
7:59 - 8:01бігти навздогін за
швидкими змінами в технології. -
8:01 - 8:03Гірше того, вони діють всліпу,
-
8:03 - 8:05бо їм бракує даних,
-
8:05 - 8:08щоб зрозуміти,
що ж діється на цих платформах. -
8:08 - 8:11До того ж, урядам яких держав
ми б це довірили? -
8:11 - 8:14Потрібна глобальна відповідь,
а не національна. -
8:15 - 8:18Отож, ланка, якої бракує – це ми.
-
8:18 - 8:21Це ми використовуємо
дані технології щодня. -
8:21 - 8:26Можемо ми створити нову інфраструктуру,
щоб дбати про якість інформації? -
8:26 - 8:28Я вірю, що можемо,
-
8:28 - 8:31і в мене є кілька ідей,
що ми справді можемо зробити. -
8:31 - 8:34По-перше, якщо ми хочемо
залучити до цього публіку, -
8:34 - 8:37чи не могли б ми скористатись
досвідом Вікіпедії? -
8:37 - 8:38Вона демонструє, що для нас можливо.
-
8:38 - 8:40Так, вона не досконала,
-
8:40 - 8:42але вона показує, що хороша структура,
-
8:42 - 8:45глобальний масштаб
і значна, дуже значна прозорість -
8:45 - 8:48дозволяє створити продукт,
якому довірятиме більшість людей. -
8:48 - 8:51Адже нам потрібно знайти спосіб
залучити колективну мудрість -
8:51 - 8:53і досвід усіх користувачів.
-
8:54 - 8:56Особливо це стосується жінок,
представників расових -
8:56 - 8:58та інших меншин.
-
8:58 - 8:59Здогадуєтесь, чому?
-
8:59 - 9:01Вони експерти, коли йдеться
про ненависть і дезінформацію, -
9:02 - 9:05адже вони тривалий час
були жертвами таких кампаній. -
9:05 - 9:07Вони боролись роками,
-
9:07 - 9:09але їх не слухали.
-
9:09 - 9:10Це потрібно змінити.
-
9:11 - 9:15Хіба нам не вдалось створити Вікіпедію
на принципі довіри? -
9:15 - 9:19Хіба не можна знайти спосіб
справді враховувати думку користувачів? -
9:19 - 9:23В тому числі й думку щодо складних
рішень з приводу модерації змісту. -
9:23 - 9:25Зворотній зв'язок користувачів
-
9:25 - 9:28міг би впливати на зміни,
які впроваджуються на платформах. -
9:28 - 9:32По-друге, наш досвід взаємодії
з інформацією персоналізований. -
9:32 - 9:35Моя новинна стрічка у Фейсбуці
дуже відмінна від вашої. -
9:35 - 9:38Вам YouTube рекомендує для перегляду
інші відео, ніж мені. -
9:38 - 9:40Це унеможливлює для нас перевірку того,
-
9:40 - 9:42яку інформацію люди бачать.
-
9:43 - 9:44Тож чи не могли б ми уявити
-
9:44 - 9:49певний тип централізованого відкритого
репозитарію анонімних даних, -
9:49 - 9:52у якому враховано принципи
етики й приватності? -
9:52 - 9:54Адже уявіть, що б нам відкрилось,
-
9:54 - 9:57якби ми створили глобальну мережу
небайдужих громадян, -
9:57 - 10:01які б хотіли передати свої соціальні
дані для наукового використання. -
10:01 - 10:03Наразі нам дуже мало відомо
-
10:03 - 10:06про довготривалий вплив
ненависті й дезінформації -
10:06 - 10:08на установки й поведінку людей.
-
10:08 - 10:09А те, що нам відомо,
-
10:09 - 10:12спирається переважно на дані зі США,
-
10:12 - 10:14попри те, що йдеться
про глобальну проблему. -
10:14 - 10:16Тож нам треба працювати і над цим.
-
10:16 - 10:17І, по-третє,
-
10:17 - 10:20чи можемо ми поєднати всіх?
-
10:20 - 10:23Жодний сектор, чи то громадський,
чи стартапи, чи урядовий, -
10:23 - 10:25не може вирішити цю проблему.
-
10:25 - 10:27Але по всьому світу є дуже розумні люди,
-
10:27 - 10:29яких турбують ці виклики,
-
10:29 - 10:32це журналісти, громадські діячі,
науковці, активісти. -
10:32 - 10:34Ви бачите тут декотрих із них.
-
10:34 - 10:37Декотрі розробляють індикатори
надійності контенту. -
10:37 - 10:38Інші є факт-чекерами,
-
10:38 - 10:42вони допомагають платформам знижувати
рейтинги хибних заяв, відео і зображень. -
10:42 - 10:44Я співзасновниця громадської
організації First Draft, -
10:44 - 10:47мета якої – допомогти редакціям
з різних куточків світу -
10:47 - 10:51створити дослідницькі програми,
націлені на співпрацю. -
10:51 - 10:54А Денні Гілліс, архітектор
програмного забезпечення, -
10:54 - 10:56працює над новою системою
під назвою The Underlay, -
10:56 - 10:59яка стане підбіркою всіх публічно
озвучених фактів, -
10:59 - 11:00з посиланням на джерела,
-
11:00 - 11:04тож люди й алгоритми зможуть краще
визначати, що заслуговує на довіру. -
11:05 - 11:08А освітяни по всьому світу
випробовують різні техніки, -
11:08 - 11:12щоб підвищити здатність людей
критично сприймати інформацію. -
11:13 - 11:16Вони роблять чудову роботу,
але вони працюють розрізнено, -
11:16 - 11:18і чимало з них жахливо недофінансовані.
-
11:19 - 11:21А також сотні дуже розумних людей
-
11:21 - 11:22працюють в цих компаніях,
-
11:22 - 11:25та, знову ж таки,
їхні зусилля нескоординовані, -
11:25 - 11:29бо вони насправді працюють над різними
рішеннями одних і тих же проблем. -
11:29 - 11:31Чи можемо ми знайти спосіб
зібрати цих людей -
11:31 - 11:35в одному просторі,
на кілька днів чи тижнів, -
11:35 - 11:37щоб вони змогли взятись за ці
проблеми разом, -
11:37 - 11:39але виходячи зі своїх різних перспектив?
-
11:39 - 11:40Чи можемо ми це зробити?
-
11:40 - 11:44Чи можемо ми запропонувати
узгоджену, масштабну відповідь, -
11:44 - 11:47яка відповідатиме розмаху
і складності проблеми? -
11:48 - 11:49Я вважаю, ми справді можемо.
-
11:49 - 11:52Тож давайте разом перебудовувати
наш інформаційний простір. -
11:53 - 11:54Дякую.
-
11:54 - 11:58(Оплески)
- Title:
- Як можна допомогти трансформувати Інтернет у простір довіри
- Speaker:
- Клер Вордл
- Description:
-
Як ми можемо зупинити поширення оманливого, іноді небезпечного контенту, при цьому зберігаючи свободу вираження в Інтернеті? Експерт із вивчення дезінформації Клер Вордл досліджує нові виклики, породжені забрудненням нашого онлайн-середовища, і накреслює план трансформації Інтернету у простір довіри; план, що передбачає допомогу звичайних користувачів. "Давайте разом перебудовувати
наш інформаційний простір", - закликає вона. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Khrystyna Romashko approved Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Khrystyna Romashko accepted Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Khrystyna Romashko edited Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Мирослава Кругляк edited Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Мирослава Кругляк edited Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Мирослава Кругляк edited Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Мирослава Кругляк edited Ukrainian subtitles for How you can help transform the internet into a place of trust | ||
Мирослава Кругляк edited Ukrainian subtitles for How you can help transform the internet into a place of trust |