Як нам захистити правду в епоху дезінформації
-
0:01 - 0:07Якось, 23 квітня 2013 року,
-
0:07 - 0:12Associated Press розмістила
у Твіттері запис, -
0:12 - 0:15де було сказано:
-
0:15 - 0:16"Екстрене повідомлення:
-
0:16 - 0:17два вибухи у Білому домі,
-
0:17 - 0:20поранено Барака Обаму!"
-
0:20 - 0:26Це повідомлення набрало 4 тисячі ретвітів
менш, ніж за п'ять хвилин, -
0:26 - 0:28і згодом набуло вірусного поширення.
-
0:29 - 0:33Але ця новина була не справжньою,
її випустила не Associated Press. -
0:33 - 0:36Насправді це був фейк,
тобто, фейкова новина, -
0:36 - 0:39поширювана сирійськими хакерами,
-
0:39 - 0:44які зламали сторінку
Associated Press у Твіттері. -
0:44 - 0:48Хакери хотіли посіяти суспільну паніку,
але наслідки виявились значно гіршими. -
0:48 - 0:51Тому що автоматизовані алгоритми торгівлі
-
0:51 - 0:54відразу ж вловили настрій,
виражений у цьому твіті, -
0:54 - 0:57і почали робити поправку на те,
-
0:57 - 1:01що президент США був поранений
чи навіть загинув від вибуху. -
1:02 - 1:04Щойно вони почали твіттити,
-
1:04 - 1:08це відразу ж призвело до обвалу на біржі,
-
1:08 - 1:13який лише за один день завдав
збитків на 140 млрд. доларів. -
1:13 - 1:18Роберт Мюллер,
спеціальний прокурор США, -
1:18 - 1:21висунув обвинувачення
проти трьох російських компаній -
1:21 - 1:24і тринадцяти російських громадян,
-
1:24 - 1:27звинувативши їх у змові, що мала на меті
-
1:27 - 1:31за допомогою обману вплинути
на президентські вибори в США в 2016-му. -
1:32 - 1:35У обвинуваченні йдеться
-
1:35 - 1:39про діяльність
Агентства інтернет-досліджень, -
1:39 - 1:42що було тіньовою армією Кремля
в соціальних медіа. -
1:43 - 1:46Тільки впродовж
минулих президентських виборів -
1:46 - 1:48це інтернет-агентство
-
1:48 - 1:53охопило 126 мільйонів
користувачів Фейсбуку в США, -
1:53 - 1:56опублікувало 3 мільйони окремих твітів
-
1:56 - 2:00і відеоконтент на ютубі,
загальною тривалістю 43 години. -
2:00 - 2:02Весь цей контент був фейковим,
-
2:02 - 2:08дезінформацією з метою сіяти розбрат
під час президентських виборів у США. -
2:09 - 2:12Недавнє дослідження
Оксфордського університету -
2:12 - 2:15виявило, що під час минулих
виборів у Швеції -
2:15 - 2:19третина інформації,
поширюваної в соціальних медіа -
2:19 - 2:21з приводу виборів,
-
2:21 - 2:23була фейком чи дезінформацією.
-
2:23 - 2:28До того ж, такі види дезінформаційних
кампаній в соціальних медіа -
2:28 - 2:32можуть поширювати так звану
"пропаганду геноциду", -
2:32 - 2:35наприклад, проти рохінджа в М'янмі,
-
2:35 - 2:38що спровокувало погроми в Індії.
-
2:38 - 2:39Ми досліджували фейкові новини,
-
2:39 - 2:43і почали їх досліджувати ще до того,
як цей термін став популярним. -
2:43 - 2:48Недавно ми опублікували найбільше
з відомих довготривалих досліджень -
2:48 - 2:50щодо поширення фейкових новин.
-
2:50 - 2:54Воно вийшло на першій сторінці "Science"
в березні цього року. -
2:55 - 2:59Ми вивчали всі історії, істинність
чи хибність яких була встановлена, -
2:59 - 3:00з тих, що циркулювали в Твіттері,
-
3:00 - 3:04за період, починаючи від
заснування Твіттера в 2006-му до 2017-го. -
3:05 - 3:07При відборі інформації
-
3:07 - 3:10ми вивчали перевірені новини,
а саме, ті новини, -
3:10 - 3:14які були перевірені шістьма незалежними
факт-чекінговими організаціями. -
3:14 - 3:17Тож ми знали, які з них були правдивими,
-
3:17 - 3:19а які – неправдивими.
-
3:19 - 3:21Ми могли виміряти їхнє розповсюдження,
-
3:21 - 3:22швидкість їхнього поширення,
-
3:22 - 3:24як глибоко й широко
вони розповсюджувались, -
3:24 - 3:29скільки людей втягались
в цей інформаційний каскад, тощо. -
3:29 - 3:30І в згаданій статті
-
3:30 - 3:34ми порівняли поширення правдивих
та неправдивих новин. -
3:34 - 3:36І ось що ми виявили.
-
3:36 - 3:40Ми встановили, що неправдиві новини
поширюються більше, швидше, глибше -
3:40 - 3:42і ширше, ніж правдиві.
-
3:42 - 3:45Різні інформаційні сфери
суттєво відрізняються, -
3:45 - 3:47іноді на порядок,
за масштабами цього явища. -
3:48 - 3:51І, до речі, неправдиві політичні новини
поширюються найефективніше. -
3:51 - 3:55Вони розповсюджуються більше,
швидше, глибше і ширше -
3:55 - 3:57за будь-який інший тип неправдивих новин.
-
3:57 - 3:59Коли ми таке виявили,
-
3:59 - 4:02це нас стривожило,
але водночас і зацікавило. -
4:02 - 4:03Чому це так?
-
4:03 - 4:06Чому неправдиві новини поширюються
значно далі, швидше, більше -
4:06 - 4:08і ширше, ніж правдиві?
-
4:08 - 4:11Перша гіпотеза, яка нам спала на думку:
-
4:11 - 4:16можливо, поширювачі неправдивих новин
мають більше підписників і підписок; -
4:16 - 4:18чи пишуть частіше;
-
4:18 - 4:22чи серед них більше "підтверджених"
користувачів Твіттеру, що збільшує довіру; -
4:22 - 4:24чи вони вже тривалий час мають акаунт.
-
4:24 - 4:26Тож ми перевірили ці припущення,
-
4:27 - 4:30і виявили, що насправді все навпаки.
-
4:30 - 4:32Поширювачі неправдивих новин
мали менше підписників, -
4:32 - 4:34і менше підписок,
вони були менш активними, -
4:34 - 4:36зазвичай не "підтвердженими",
-
4:36 - 4:39і зареєстрованими не так давно.
-
4:39 - 4:40І тим не менш,
-
4:40 - 4:45неправдиві новини мали
на 70% більше поширень, ніж правдиві, -
4:45 - 4:48і це з поправкою на згадані,
а також на багато інших чинників. -
4:48 - 4:51Тож нам потрібно було
знайти інше пояснення. -
4:51 - 4:55Ми запропонували гіпотезу, яку назвали
"гіпотеза новизни". -
4:55 - 4:57У дослідницькій літературі
-
4:57 - 5:01широко відомий факт, що увагу людей
привертає новизна, -
5:01 - 5:03щось нове, щось незвичне
для їхнього середовища. -
5:03 - 5:05А якщо ви вивчали соціологію,
-
5:05 - 5:10то знаєте, що люди люблять
ділитись новою інформацією. -
5:10 - 5:14Це викликає враження, ніби вони
володіють інформацією для втаємничених, -
5:14 - 5:17і передача такого типу інформації
підвищує їхній статус. -
5:18 - 5:24Тож ми виміряли новизну правдивих
і неправдивих твітів, -
5:24 - 5:28порівняно з корпусом твітів,
які користувачі бачили -
5:28 - 5:31впродовж попередніх 60 днів.
-
5:31 - 5:34Проте це ще не все, адже ми подумали:
-
5:34 - 5:38"Може, у фейкових новин більше новизни
в інформаційно-теоретичному сенсі, -
5:38 - 5:41але, можливо, люди не вважають,
що в них більше новизни". -
5:42 - 5:46Тож щоб дослідити, як люди
сприймають фейкові новини, -
5:46 - 5:49ми вивчили зміст
і емоційний настрій коментарів -
5:50 - 5:54до правдивих і неправдивих новин.
-
5:54 - 5:55І ми виявили,
-
5:55 - 5:59що серед значної кількості
досліджуваних емоцій – -
5:59 - 6:03подиву, відрази, страху, суму,
-
6:03 - 6:05очікування, радощів і довіри –
-
6:05 - 6:11у коментарях до фейкових новин
були значно помітніше присутні -
6:11 - 6:14подив і відраза.
-
6:14 - 6:18А в коментарях до правдивих новин
значно більшою мірою -
6:18 - 6:20були присутні очікування,
-
6:20 - 6:22радощі та довіра.
-
6:22 - 6:26Дані про подив підтверджують
нашу гіпотезу новизни. -
6:26 - 6:31Якщо щось нове й незвичне, то більша
ймовірність, що ми це поширимо. -
6:31 - 6:34Разом із тим, були свідчення в Конгресі,
-
6:34 - 6:37перед обома палатами Конгресу
Сполучених Штатів, -
6:37 - 6:41у яких було заявлено про роль ботів
у поширенні дезінформації. -
6:41 - 6:42Тож ми дослідили і це,
-
6:42 - 6:46використавши численні
складні алгоритми, -
6:46 - 6:49щоб виявити ботів і виключити їх
із наших даних. -
6:49 - 6:52Зрештою, ми їх виключили,
а потім повернули знов, -
6:52 - 6:55і порівняли, як зміняться дані
наших вимірювань. -
6:55 - 6:57І ми встановили,
-
6:57 - 7:01що хоча боти справді прискорюють
поширення фейкових новин, -
7:01 - 7:04але вони прискорюють і поширення
правдивих новин -
7:04 - 7:06приблизно на тому ж рівні.
-
7:06 - 7:09Це означає, що боти не впливають
-
7:09 - 7:14на різницю в поширенні мережею
правди та брехні. -
7:14 - 7:17Ми не можемо
зняти із себе відповідальність, -
7:17 - 7:21адже це саме від нас, людей,
залежить, що буде поширюватись. -
7:22 - 7:26Все те, що я досі вам розповів,
-
7:26 - 7:28на жаль для всіх нас,
-
7:28 - 7:29є хорошими новинами.
-
7:31 - 7:35Я так кажу тому,
що далі може бути набагато гірше. -
7:36 - 7:40Є дві технології, які можуть зробити
ситуацію значно гіршою. -
7:40 - 7:45Ми стоїмо на порозі
величезної хвилі синтетичних медіа. -
7:45 - 7:51Фейкових відео, фейкових аудіо,
які виглядають дуже переконливо. -
7:51 - 7:54Вони спиратимуться на дві технології.
-
7:54 - 7:58Перша з них відома
як генеративна змагальна мережа. -
7:58 - 8:01Це модель машинного навчання,
яка містить дві мережі: -
8:01 - 8:02дискримінатор,
-
8:02 - 8:06який визначає
істинність чи хибність чогось, -
8:06 - 8:08і генератор,
-
8:08 - 8:11який створює синтезований контент.
-
8:11 - 8:16Отож, генератор створює
штучне відео чи аудіо, -
8:16 - 8:21а дискримінатор намагається визначити,
справжнє воно чи фейкове. -
8:21 - 8:24І, фактично, завдання генератора –
це створювати -
8:24 - 8:28якомога реалістичніші зображення,
які б змогли обдурити дискримінатора, -
8:28 - 8:32щоб він розцінив ці штучно
синтезовані відео й аудіо -
8:32 - 8:33як справжні.
-
8:33 - 8:36Уявіть машину,
яка з величезною швидкістю -
8:36 - 8:39вдосконалюється у мистецтві обману.
-
8:39 - 8:42І це поєднано з другою технологією,
-
8:42 - 8:47а саме, з все більшою доступністю
штучного інтелекту для пересічної людини, -
8:47 - 8:50можливістю для будь-кого
-
8:50 - 8:52без жодної освіти в галузі
штучного інтелекту -
8:52 - 8:54чи машинного навчання,
-
8:54 - 8:58користуватись цими алгоритмами,
щоб створювати штучний контент, -
8:58 - 9:02значно легше створювати відео.
-
9:02 - 9:07Білий дім поширив відредаговане відео,
-
9:07 - 9:11де журналіст хапає за руку стажерку,
що намагається забрати в нього мікрофон. -
9:11 - 9:13Це відео відкоригували так,
щоб здавалось, -
9:13 - 9:17ніби журналіст зробив
різкіший рух, ніж насправді. -
9:17 - 9:21І коли відеооператорів та каскадерів
-
9:21 - 9:23запитали про прийом,
застосований у тому відео, -
9:23 - 9:27вони сказали: "Так, ми постійно
використовуємо цей прийом, -
9:27 - 9:32щоб наші удари й копняки
виглядали різкіше й агресивніше". -
9:32 - 9:34Білий дім поширив це відео
-
9:34 - 9:37і використав його як одну з причин
-
9:37 - 9:41для відкликання акредитації
Джима Акости -
9:41 - 9:42на заходи в Білому домі.
-
9:42 - 9:47CNN мусила подати позов,
щоб відновити акредитацію. -
9:49 - 9:54На мою думку, існує півдесятка шляхів,
якими можна скористатись, -
9:54 - 9:58щоб спробувати розв'язати декотрі з цих
дуже складних сьогоднішніх проблем. -
9:58 - 10:00Кожен із них дає надію,
-
10:00 - 10:03але водночас кожен із них
породжує й виклики. -
10:03 - 10:05Перший шлях – це маркування.
-
10:05 - 10:07Давайте поміркуємо:
-
10:07 - 10:10коли ви йдете до бакалійної крамниці,
щоб купити харчі, -
10:10 - 10:12вони детально марковані.
-
10:12 - 10:14Ви знаєте, скільки вони
містять калорій, -
10:14 - 10:16який у них вміст жиру –
-
10:16 - 10:20однак коли ми споживаємо інформацію,
для неї не існує жодного маркування. -
10:20 - 10:22Що містить ця інформація?
-
10:22 - 10:24Чи варте довіри це джерело?
-
10:24 - 10:26Звідки отримано дану інформацію?
-
10:26 - 10:28У нас немає цих даних,
-
10:28 - 10:30коли ми споживаємо інформацію.
-
10:30 - 10:33Тут криється потенційна можливість,
та водночас є й виклики. -
10:33 - 10:40Наприклад, кому суспільство довірить
вирішувати, де істина, а де брехня? -
10:40 - 10:42Це будуть органи влади?
-
10:42 - 10:43Чи, може, Фейсбук?
-
10:44 - 10:47А, можливо, незалежний
консорціум факт-чекерів? -
10:47 - 10:50А хто перевірятиме факт-чекерів?
-
10:50 - 10:54Інша потенційна можливість
криється в спонуках. -
10:54 - 10:56Ми знаємо, що впродовж
президентських виборів у США -
10:56 - 11:00здійнялась хвиля дезінформації,
що походила з Македонії. -
11:00 - 11:02За цією хвилею не стояв
жоден політичний мотив, -
11:02 - 11:05зате був присутній економічний.
-
11:05 - 11:07Цей економічний мотив виник,
-
11:07 - 11:10бо фейкові новини поширюються
значно далі, швидше -
11:10 - 11:12і глибше, ніж правдиві,
-
11:13 - 11:17тож вони збільшують прибуток
від реклами, привертаючи увагу -
11:17 - 11:19більшої кількості користувачів.
-
11:19 - 11:23Але якщо можна сповільнити
поширення хибної інформації, -
11:23 - 11:26можливо, це зменшить
економічні стимули, -
11:26 - 11:29які змушують продукувати фейки.
-
11:29 - 11:31По-третє, можна обміркувати регулювання,
-
11:31 - 11:34таку можливість слід серйозно розглянути.
-
11:34 - 11:35Наразі в Сполучених Штатах
-
11:35 - 11:40ми досліджуємо, що може статись,
якщо регулювати Фейсбук та інші мережі. -
11:40 - 11:44Хоча потрібно розглянути можливість
регулювання політичної пропаганди, -
11:44 - 11:47маркування матеріалів,
які є політичною пропагандою, -
11:47 - 11:51перевірки, щоб іноземні сили
не спонсорували політичну пропаганду – -
11:51 - 11:53та всі ці заходи містять в собі небезпеку.
-
11:54 - 11:58Наприклад, у Малайзії прийняли закон,
який передбачає 6-річне ув'язнення -
11:58 - 12:01за поширення дезінформації.
-
12:02 - 12:04І за умов авторитарного режиму,
-
12:04 - 12:08такі засоби регулювання
можуть використовуватись -
12:08 - 12:12для придушення думки меншості
і для посилення репресій. -
12:13 - 12:16По-четверте, одним зі шляхів
може стати прозорість. -
12:17 - 12:21Ми хочемо знати,
як працюють алгоритми Фейсбуку. -
12:21 - 12:23Яким чином алгоритм
відбирає інформацію, -
12:23 - 12:26яку ми бачимо у своїй стрічці?
-
12:26 - 12:29Ми вимагаємо підняти завісу
-
12:29 - 12:33і показати деталі внутрішньої роботи
алгоритмів Фейсбуку. -
12:33 - 12:36І якщо ми хочемо дізнатись
про вплив соціальних мереж -
12:36 - 12:38на суспільство, потрібно, щоб вчені,
-
12:38 - 12:41дослідники та інші люди
мали доступ до такої інформації. -
12:41 - 12:43Але водночас
-
12:43 - 12:46ми просимо Фейсбук
підтримувати секретність, -
12:46 - 12:49щоб тримати наші дані у безпеці.
-
12:49 - 12:52Тож Фейсбук та інші
платформи соціальних медіа -
12:52 - 12:55стикаються з тим, що я називаю
парадоксом прозорості. -
12:55 - 12:58Ми хочемо, щоб вони були водночас
-
12:58 - 13:03відкритими та прозорими,
і разом з тим безпечними. -
13:03 - 13:05Це дуже складне завдання,
-
13:06 - 13:07але вони повинні будуть його виконати,
-
13:07 - 13:11якщо ми хочемо користуватись
благами соціальних технологій, -
13:11 - 13:13уникнувши при цьому небезпек.
-
13:13 - 13:18І, по-п'яте, нам потрібно подумати
про алгоритми й машинне навчання. -
13:18 - 13:23Технології для розпізнавання фейкових
новин та механізмів їх поширення, -
13:23 - 13:25з метою сповільнити їхній потік.
-
13:26 - 13:29Люди повинні бути в курсі,
як працюють ці технології, -
13:29 - 13:31бо ми ніколи не уникнемо того,
-
13:31 - 13:35що в основі будь-якого технологічного
рішення чи підходу, -
13:35 - 13:39лежать фундаментальні етичні
і філософські питання -
13:39 - 13:42про те, як визначати істину й хибність,
-
13:42 - 13:46кого ми наділяємо владою це робити,
-
13:46 - 13:48і чия думка є легітимною,
-
13:48 - 13:52які типи висловлювань
мають бути прийнятними і т.п. -
13:52 - 13:54Це вирішує не технологія.
-
13:54 - 13:58Ці питання має вирішувати
етика й філософія. -
13:59 - 14:02Майже кожна теорія прийняття рішень,
-
14:02 - 14:05людської співпраці й взаємодії
-
14:05 - 14:09спирається на певне розуміння правди.
-
14:09 - 14:11Та за умов зростання фейкових новин,
-
14:11 - 14:13фейкових відео
-
14:13 - 14:15та фейкових аудіо,
-
14:15 - 14:19ми балансуємо на межі кінця реальності,
-
14:19 - 14:23коли ми не можемо відрізнити
правду від фейку. -
14:23 - 14:26І це містить величезну
потенційну загрозу. -
14:27 - 14:31Ми маємо пильнувати,
ставши на захист істини -
14:31 - 14:32проти дезінформації,
-
14:33 - 14:36застосовуючи наші технології,
наші політичні засоби, -
14:36 - 14:38і, мабуть, найважливіше,
-
14:38 - 14:42нашу особисту відповідальність,
-
14:42 - 14:45рішення, поведінку і вчинки.
-
14:46 - 14:47Дуже дякую.
-
14:47 - 14:51(Оплески)
- Title:
- Як нам захистити правду в епоху дезінформації
- Speaker:
- Сінан Арал
- Description:
-
Фейкові новини можуть вплинути на вибори, підірвати економіку і посіяти розбрат у повсякденному житті. Сінан Арал, дослідник у галузі даних, показує механізм, чому і як фейки розповсюджуються так швидко – посилаючись на одне з найтриваліших досліджень дезінформації – і визначає п'ять стратегій, які допоможуть розплести заплутаний клубок правди й дезінформації.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Khrystyna Romashko approved Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Khrystyna Romashko accepted Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Khrystyna Romashko edited Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Khrystyna Romashko edited Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Мирослава Кругляк edited Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Мирослава Кругляк edited Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Мирослава Кругляк edited Ukrainian subtitles for How we can protect truth in the age of misinformation | ||
Мирослава Кругляк edited Ukrainian subtitles for How we can protect truth in the age of misinformation |