Return to Video

Як нам захистити правду в епоху дезінформації

  • 0:01 - 0:07
    Якось, 23 квітня 2013 року,
  • 0:07 - 0:12
    Associated Press розмістила
    у Твіттері запис,
  • 0:12 - 0:15
    де було сказано:
  • 0:15 - 0:16
    "Екстрене повідомлення:
  • 0:16 - 0:17
    два вибухи у Білому домі,
  • 0:17 - 0:20
    поранено Барака Обаму!"
  • 0:20 - 0:26
    Це повідомлення набрало 4 тисячі ретвітів
    менш, ніж за п'ять хвилин,
  • 0:26 - 0:28
    і згодом набуло вірусного поширення.
  • 0:29 - 0:33
    Але ця новина була не справжньою,
    її випустила не Associated Press.
  • 0:33 - 0:36
    Насправді це був фейк,
    тобто, фейкова новина,
  • 0:36 - 0:39
    поширювана сирійськими хакерами,
  • 0:39 - 0:44
    які зламали сторінку
    Associated Press у Твіттері.
  • 0:44 - 0:48
    Хакери хотіли посіяти суспільну паніку,
    але наслідки виявились значно гіршими.
  • 0:48 - 0:51
    Тому що автоматизовані алгоритми торгівлі
  • 0:51 - 0:54
    відразу ж вловили настрій,
    виражений у цьому твіті,
  • 0:54 - 0:57
    і почали робити поправку на те,
  • 0:57 - 1:01
    що президент США був поранений
    чи навіть загинув від вибуху.
  • 1:02 - 1:04
    Щойно вони почали твіттити,
  • 1:04 - 1:08
    це відразу ж призвело до обвалу на біржі,
  • 1:08 - 1:13
    який лише за один день завдав
    збитків на 140 млрд. доларів.
  • 1:13 - 1:18
    Роберт Мюллер,
    спеціальний прокурор США,
  • 1:18 - 1:21
    висунув обвинувачення
    проти трьох російських компаній
  • 1:21 - 1:24
    і тринадцяти російських громадян,
  • 1:24 - 1:27
    звинувативши їх у змові, що мала на меті
  • 1:27 - 1:31
    за допомогою обману вплинути
    на президентські вибори в США в 2016-му.
  • 1:32 - 1:35
    У обвинуваченні йдеться
  • 1:35 - 1:39
    про діяльність
    Агентства інтернет-досліджень,
  • 1:39 - 1:42
    що було тіньовою армією Кремля
    в соціальних медіа.
  • 1:43 - 1:46
    Тільки впродовж
    минулих президентських виборів
  • 1:46 - 1:48
    це інтернет-агентство
  • 1:48 - 1:53
    охопило 126 мільйонів
    користувачів Фейсбуку в США,
  • 1:53 - 1:56
    опублікувало 3 мільйони окремих твітів
  • 1:56 - 2:00
    і відеоконтент на ютубі,
    загальною тривалістю 43 години.
  • 2:00 - 2:02
    Весь цей контент був фейковим,
  • 2:02 - 2:08
    дезінформацією з метою сіяти розбрат
    під час президентських виборів у США.
  • 2:09 - 2:12
    Недавнє дослідження
    Оксфордського університету
  • 2:12 - 2:15
    виявило, що під час минулих
    виборів у Швеції
  • 2:15 - 2:19
    третина інформації,
    поширюваної в соціальних медіа
  • 2:19 - 2:21
    з приводу виборів,
  • 2:21 - 2:23
    була фейком чи дезінформацією.
  • 2:23 - 2:28
    До того ж, такі види дезінформаційних
    кампаній в соціальних медіа
  • 2:28 - 2:32
    можуть поширювати так звану
    "пропаганду геноциду",
  • 2:32 - 2:35
    наприклад, проти рохінджа в М'янмі,
  • 2:35 - 2:38
    що спровокувало погроми в Індії.
  • 2:38 - 2:39
    Ми досліджували фейкові новини,
  • 2:39 - 2:43
    і почали їх досліджувати ще до того,
    як цей термін став популярним.
  • 2:43 - 2:48
    Недавно ми опублікували найбільше
    з відомих довготривалих досліджень
  • 2:48 - 2:50
    щодо поширення фейкових новин.
  • 2:50 - 2:54
    Воно вийшло на першій сторінці "Science"
    в березні цього року.
  • 2:55 - 2:59
    Ми вивчали всі історії, істинність
    чи хибність яких була встановлена,
  • 2:59 - 3:00
    з тих, що циркулювали в Твіттері,
  • 3:00 - 3:04
    за період, починаючи від
    заснування Твіттера в 2006-му до 2017-го.
  • 3:05 - 3:07
    При відборі інформації
  • 3:07 - 3:10
    ми вивчали перевірені новини,
    а саме, ті новини,
  • 3:10 - 3:14
    які були перевірені шістьма незалежними
    факт-чекінговими організаціями.
  • 3:14 - 3:17
    Тож ми знали, які з них були правдивими,
  • 3:17 - 3:19
    а які – неправдивими.
  • 3:19 - 3:21
    Ми могли виміряти їхнє розповсюдження,
  • 3:21 - 3:22
    швидкість їхнього поширення,
  • 3:22 - 3:24
    як глибоко й широко
    вони розповсюджувались,
  • 3:24 - 3:29
    скільки людей втягались
    в цей інформаційний каскад, тощо.
  • 3:29 - 3:30
    І в згаданій статті
  • 3:30 - 3:34
    ми порівняли поширення правдивих
    та неправдивих новин.
  • 3:34 - 3:36
    І ось що ми виявили.
  • 3:36 - 3:40
    Ми встановили, що неправдиві новини
    поширюються більше, швидше, глибше
  • 3:40 - 3:42
    і ширше, ніж правдиві.
  • 3:42 - 3:45
    Різні інформаційні сфери
    суттєво відрізняються,
  • 3:45 - 3:47
    іноді на порядок,
    за масштабами цього явища.
  • 3:48 - 3:51
    І, до речі, неправдиві політичні новини
    поширюються найефективніше.
  • 3:51 - 3:55
    Вони розповсюджуються більше,
    швидше, глибше і ширше
  • 3:55 - 3:57
    за будь-який інший тип неправдивих новин.
  • 3:57 - 3:59
    Коли ми таке виявили,
  • 3:59 - 4:02
    це нас стривожило,
    але водночас і зацікавило.
  • 4:02 - 4:03
    Чому це так?
  • 4:03 - 4:06
    Чому неправдиві новини поширюються
    значно далі, швидше, більше
  • 4:06 - 4:08
    і ширше, ніж правдиві?
  • 4:08 - 4:11
    Перша гіпотеза, яка нам спала на думку:
  • 4:11 - 4:16
    можливо, поширювачі неправдивих новин
    мають більше підписників і підписок;
  • 4:16 - 4:18
    чи пишуть частіше;
  • 4:18 - 4:22
    чи серед них більше "підтверджених"
    користувачів Твіттеру, що збільшує довіру;
  • 4:22 - 4:24
    чи вони вже тривалий час мають акаунт.
  • 4:24 - 4:26
    Тож ми перевірили ці припущення,
  • 4:27 - 4:30
    і виявили, що насправді все навпаки.
  • 4:30 - 4:32
    Поширювачі неправдивих новин
    мали менше підписників,
  • 4:32 - 4:34
    і менше підписок,
    вони були менш активними,
  • 4:34 - 4:36
    зазвичай не "підтвердженими",
  • 4:36 - 4:39
    і зареєстрованими не так давно.
  • 4:39 - 4:40
    І тим не менш,
  • 4:40 - 4:45
    неправдиві новини мали
    на 70% більше поширень, ніж правдиві,
  • 4:45 - 4:48
    і це з поправкою на згадані,
    а також на багато інших чинників.
  • 4:48 - 4:51
    Тож нам потрібно було
    знайти інше пояснення.
  • 4:51 - 4:55
    Ми запропонували гіпотезу, яку назвали
    "гіпотеза новизни".
  • 4:55 - 4:57
    У дослідницькій літературі
  • 4:57 - 5:01
    широко відомий факт, що увагу людей
    привертає новизна,
  • 5:01 - 5:03
    щось нове, щось незвичне
    для їхнього середовища.
  • 5:03 - 5:05
    А якщо ви вивчали соціологію,
  • 5:05 - 5:10
    то знаєте, що люди люблять
    ділитись новою інформацією.
  • 5:10 - 5:14
    Це викликає враження, ніби вони
    володіють інформацією для втаємничених,
  • 5:14 - 5:17
    і передача такого типу інформації
    підвищує їхній статус.
  • 5:18 - 5:24
    Тож ми виміряли новизну правдивих
    і неправдивих твітів,
  • 5:24 - 5:28
    порівняно з корпусом твітів,
    які користувачі бачили
  • 5:28 - 5:31
    впродовж попередніх 60 днів.
  • 5:31 - 5:34
    Проте це ще не все, адже ми подумали:
  • 5:34 - 5:38
    "Може, у фейкових новин більше новизни
    в інформаційно-теоретичному сенсі,
  • 5:38 - 5:41
    але, можливо, люди не вважають,
    що в них більше новизни".
  • 5:42 - 5:46
    Тож щоб дослідити, як люди
    сприймають фейкові новини,
  • 5:46 - 5:49
    ми вивчили зміст
    і емоційний настрій коментарів
  • 5:50 - 5:54
    до правдивих і неправдивих новин.
  • 5:54 - 5:55
    І ми виявили,
  • 5:55 - 5:59
    що серед значної кількості
    досліджуваних емоцій –
  • 5:59 - 6:03
    подиву, відрази, страху, суму,
  • 6:03 - 6:05
    очікування, радощів і довіри –
  • 6:05 - 6:11
    у коментарях до фейкових новин
    були значно помітніше присутні
  • 6:11 - 6:14
    подив і відраза.
  • 6:14 - 6:18
    А в коментарях до правдивих новин
    значно більшою мірою
  • 6:18 - 6:20
    були присутні очікування,
  • 6:20 - 6:22
    радощі та довіра.
  • 6:22 - 6:26
    Дані про подив підтверджують
    нашу гіпотезу новизни.
  • 6:26 - 6:31
    Якщо щось нове й незвичне, то більша
    ймовірність, що ми це поширимо.
  • 6:31 - 6:34
    Разом із тим, були свідчення в Конгресі,
  • 6:34 - 6:37
    перед обома палатами Конгресу
    Сполучених Штатів,
  • 6:37 - 6:41
    у яких було заявлено про роль ботів
    у поширенні дезінформації.
  • 6:41 - 6:42
    Тож ми дослідили і це,
  • 6:42 - 6:46
    використавши численні
    складні алгоритми,
  • 6:46 - 6:49
    щоб виявити ботів і виключити їх
    із наших даних.
  • 6:49 - 6:52
    Зрештою, ми їх виключили,
    а потім повернули знов,
  • 6:52 - 6:55
    і порівняли, як зміняться дані
    наших вимірювань.
  • 6:55 - 6:57
    І ми встановили,
  • 6:57 - 7:01
    що хоча боти справді прискорюють
    поширення фейкових новин,
  • 7:01 - 7:04
    але вони прискорюють і поширення
    правдивих новин
  • 7:04 - 7:06
    приблизно на тому ж рівні.
  • 7:06 - 7:09
    Це означає, що боти не впливають
  • 7:09 - 7:14
    на різницю в поширенні мережею
    правди та брехні.
  • 7:14 - 7:17
    Ми не можемо
    зняти із себе відповідальність,
  • 7:17 - 7:21
    адже це саме від нас, людей,
    залежить, що буде поширюватись.
  • 7:22 - 7:26
    Все те, що я досі вам розповів,
  • 7:26 - 7:28
    на жаль для всіх нас,
  • 7:28 - 7:29
    є хорошими новинами.
  • 7:31 - 7:35
    Я так кажу тому,
    що далі може бути набагато гірше.
  • 7:36 - 7:40
    Є дві технології, які можуть зробити
    ситуацію значно гіршою.
  • 7:40 - 7:45
    Ми стоїмо на порозі
    величезної хвилі синтетичних медіа.
  • 7:45 - 7:51
    Фейкових відео, фейкових аудіо,
    які виглядають дуже переконливо.
  • 7:51 - 7:54
    Вони спиратимуться на дві технології.
  • 7:54 - 7:58
    Перша з них відома
    як генеративна змагальна мережа.
  • 7:58 - 8:01
    Це модель машинного навчання,
    яка містить дві мережі:
  • 8:01 - 8:02
    дискримінатор,
  • 8:02 - 8:06
    який визначає
    істинність чи хибність чогось,
  • 8:06 - 8:08
    і генератор,
  • 8:08 - 8:11
    який створює синтезований контент.
  • 8:11 - 8:16
    Отож, генератор створює
    штучне відео чи аудіо,
  • 8:16 - 8:21
    а дискримінатор намагається визначити,
    справжнє воно чи фейкове.
  • 8:21 - 8:24
    І, фактично, завдання генератора –
    це створювати
  • 8:24 - 8:28
    якомога реалістичніші зображення,
    які б змогли обдурити дискримінатора,
  • 8:28 - 8:32
    щоб він розцінив ці штучно
    синтезовані відео й аудіо
  • 8:32 - 8:33
    як справжні.
  • 8:33 - 8:36
    Уявіть машину,
    яка з величезною швидкістю
  • 8:36 - 8:39
    вдосконалюється у мистецтві обману.
  • 8:39 - 8:42
    І це поєднано з другою технологією,
  • 8:42 - 8:47
    а саме, з все більшою доступністю
    штучного інтелекту для пересічної людини,
  • 8:47 - 8:50
    можливістю для будь-кого
  • 8:50 - 8:52
    без жодної освіти в галузі
    штучного інтелекту
  • 8:52 - 8:54
    чи машинного навчання,
  • 8:54 - 8:58
    користуватись цими алгоритмами,
    щоб створювати штучний контент,
  • 8:58 - 9:02
    значно легше створювати відео.
  • 9:02 - 9:07
    Білий дім поширив відредаговане відео,
  • 9:07 - 9:11
    де журналіст хапає за руку стажерку,
    що намагається забрати в нього мікрофон.
  • 9:11 - 9:13
    Це відео відкоригували так,
    щоб здавалось,
  • 9:13 - 9:17
    ніби журналіст зробив
    різкіший рух, ніж насправді.
  • 9:17 - 9:21
    І коли відеооператорів та каскадерів
  • 9:21 - 9:23
    запитали про прийом,
    застосований у тому відео,
  • 9:23 - 9:27
    вони сказали: "Так, ми постійно
    використовуємо цей прийом,
  • 9:27 - 9:32
    щоб наші удари й копняки
    виглядали різкіше й агресивніше".
  • 9:32 - 9:34
    Білий дім поширив це відео
  • 9:34 - 9:37
    і використав його як одну з причин
  • 9:37 - 9:41
    для відкликання акредитації
    Джима Акости
  • 9:41 - 9:42
    на заходи в Білому домі.
  • 9:42 - 9:47
    CNN мусила подати позов,
    щоб відновити акредитацію.
  • 9:49 - 9:54
    На мою думку, існує півдесятка шляхів,
    якими можна скористатись,
  • 9:54 - 9:58
    щоб спробувати розв'язати декотрі з цих
    дуже складних сьогоднішніх проблем.
  • 9:58 - 10:00
    Кожен із них дає надію,
  • 10:00 - 10:03
    але водночас кожен із них
    породжує й виклики.
  • 10:03 - 10:05
    Перший шлях – це маркування.
  • 10:05 - 10:07
    Давайте поміркуємо:
  • 10:07 - 10:10
    коли ви йдете до бакалійної крамниці,
    щоб купити харчі,
  • 10:10 - 10:12
    вони детально марковані.
  • 10:12 - 10:14
    Ви знаєте, скільки вони
    містять калорій,
  • 10:14 - 10:16
    який у них вміст жиру –
  • 10:16 - 10:20
    однак коли ми споживаємо інформацію,
    для неї не існує жодного маркування.
  • 10:20 - 10:22
    Що містить ця інформація?
  • 10:22 - 10:24
    Чи варте довіри це джерело?
  • 10:24 - 10:26
    Звідки отримано дану інформацію?
  • 10:26 - 10:28
    У нас немає цих даних,
  • 10:28 - 10:30
    коли ми споживаємо інформацію.
  • 10:30 - 10:33
    Тут криється потенційна можливість,
    та водночас є й виклики.
  • 10:33 - 10:40
    Наприклад, кому суспільство довірить
    вирішувати, де істина, а де брехня?
  • 10:40 - 10:42
    Це будуть органи влади?
  • 10:42 - 10:43
    Чи, може, Фейсбук?
  • 10:44 - 10:47
    А, можливо, незалежний
    консорціум факт-чекерів?
  • 10:47 - 10:50
    А хто перевірятиме факт-чекерів?
  • 10:50 - 10:54
    Інша потенційна можливість
    криється в спонуках.
  • 10:54 - 10:56
    Ми знаємо, що впродовж
    президентських виборів у США
  • 10:56 - 11:00
    здійнялась хвиля дезінформації,
    що походила з Македонії.
  • 11:00 - 11:02
    За цією хвилею не стояв
    жоден політичний мотив,
  • 11:02 - 11:05
    зате був присутній економічний.
  • 11:05 - 11:07
    Цей економічний мотив виник,
  • 11:07 - 11:10
    бо фейкові новини поширюються
    значно далі, швидше
  • 11:10 - 11:12
    і глибше, ніж правдиві,
  • 11:13 - 11:17
    тож вони збільшують прибуток
    від реклами, привертаючи увагу
  • 11:17 - 11:19
    більшої кількості користувачів.
  • 11:19 - 11:23
    Але якщо можна сповільнити
    поширення хибної інформації,
  • 11:23 - 11:26
    можливо, це зменшить
    економічні стимули,
  • 11:26 - 11:29
    які змушують продукувати фейки.
  • 11:29 - 11:31
    По-третє, можна обміркувати регулювання,
  • 11:31 - 11:34
    таку можливість слід серйозно розглянути.
  • 11:34 - 11:35
    Наразі в Сполучених Штатах
  • 11:35 - 11:40
    ми досліджуємо, що може статись,
    якщо регулювати Фейсбук та інші мережі.
  • 11:40 - 11:44
    Хоча потрібно розглянути можливість
    регулювання політичної пропаганди,
  • 11:44 - 11:47
    маркування матеріалів,
    які є політичною пропагандою,
  • 11:47 - 11:51
    перевірки, щоб іноземні сили
    не спонсорували політичну пропаганду –
  • 11:51 - 11:53
    та всі ці заходи містять в собі небезпеку.
  • 11:54 - 11:58
    Наприклад, у Малайзії прийняли закон,
    який передбачає 6-річне ув'язнення
  • 11:58 - 12:01
    за поширення дезінформації.
  • 12:02 - 12:04
    І за умов авторитарного режиму,
  • 12:04 - 12:08
    такі засоби регулювання
    можуть використовуватись
  • 12:08 - 12:12
    для придушення думки меншості
    і для посилення репресій.
  • 12:13 - 12:16
    По-четверте, одним зі шляхів
    може стати прозорість.
  • 12:17 - 12:21
    Ми хочемо знати,
    як працюють алгоритми Фейсбуку.
  • 12:21 - 12:23
    Яким чином алгоритм
    відбирає інформацію,
  • 12:23 - 12:26
    яку ми бачимо у своїй стрічці?
  • 12:26 - 12:29
    Ми вимагаємо підняти завісу
  • 12:29 - 12:33
    і показати деталі внутрішньої роботи
    алгоритмів Фейсбуку.
  • 12:33 - 12:36
    І якщо ми хочемо дізнатись
    про вплив соціальних мереж
  • 12:36 - 12:38
    на суспільство, потрібно, щоб вчені,
  • 12:38 - 12:41
    дослідники та інші люди
    мали доступ до такої інформації.
  • 12:41 - 12:43
    Але водночас
  • 12:43 - 12:46
    ми просимо Фейсбук
    підтримувати секретність,
  • 12:46 - 12:49
    щоб тримати наші дані у безпеці.
  • 12:49 - 12:52
    Тож Фейсбук та інші
    платформи соціальних медіа
  • 12:52 - 12:55
    стикаються з тим, що я називаю
    парадоксом прозорості.
  • 12:55 - 12:58
    Ми хочемо, щоб вони були водночас
  • 12:58 - 13:03
    відкритими та прозорими,
    і разом з тим безпечними.
  • 13:03 - 13:05
    Це дуже складне завдання,
  • 13:06 - 13:07
    але вони повинні будуть його виконати,
  • 13:07 - 13:11
    якщо ми хочемо користуватись
    благами соціальних технологій,
  • 13:11 - 13:13
    уникнувши при цьому небезпек.
  • 13:13 - 13:18
    І, по-п'яте, нам потрібно подумати
    про алгоритми й машинне навчання.
  • 13:18 - 13:23
    Технології для розпізнавання фейкових
    новин та механізмів їх поширення,
  • 13:23 - 13:25
    з метою сповільнити їхній потік.
  • 13:26 - 13:29
    Люди повинні бути в курсі,
    як працюють ці технології,
  • 13:29 - 13:31
    бо ми ніколи не уникнемо того,
  • 13:31 - 13:35
    що в основі будь-якого технологічного
    рішення чи підходу,
  • 13:35 - 13:39
    лежать фундаментальні етичні
    і філософські питання
  • 13:39 - 13:42
    про те, як визначати істину й хибність,
  • 13:42 - 13:46
    кого ми наділяємо владою це робити,
  • 13:46 - 13:48
    і чия думка є легітимною,
  • 13:48 - 13:52
    які типи висловлювань
    мають бути прийнятними і т.п.
  • 13:52 - 13:54
    Це вирішує не технологія.
  • 13:54 - 13:58
    Ці питання має вирішувати
    етика й філософія.
  • 13:59 - 14:02
    Майже кожна теорія прийняття рішень,
  • 14:02 - 14:05
    людської співпраці й взаємодії
  • 14:05 - 14:09
    спирається на певне розуміння правди.
  • 14:09 - 14:11
    Та за умов зростання фейкових новин,
  • 14:11 - 14:13
    фейкових відео
  • 14:13 - 14:15
    та фейкових аудіо,
  • 14:15 - 14:19
    ми балансуємо на межі кінця реальності,
  • 14:19 - 14:23
    коли ми не можемо відрізнити
    правду від фейку.
  • 14:23 - 14:26
    І це містить величезну
    потенційну загрозу.
  • 14:27 - 14:31
    Ми маємо пильнувати,
    ставши на захист істини
  • 14:31 - 14:32
    проти дезінформації,
  • 14:33 - 14:36
    застосовуючи наші технології,
    наші політичні засоби,
  • 14:36 - 14:38
    і, мабуть, найважливіше,
  • 14:38 - 14:42
    нашу особисту відповідальність,
  • 14:42 - 14:45
    рішення, поведінку і вчинки.
  • 14:46 - 14:47
    Дуже дякую.
  • 14:47 - 14:51
    (Оплески)
Title:
Як нам захистити правду в епоху дезінформації
Speaker:
Сінан Арал
Description:

Фейкові новини можуть вплинути на вибори, підірвати економіку і посіяти розбрат у повсякденному житті. Сінан Арал, дослідник у галузі даних, показує механізм, чому і як фейки розповсюджуються так швидко – посилаючись на одне з найтриваліших досліджень дезінформації – і визначає п'ять стратегій, які допоможуть розплести заплутаний клубок правди й дезінформації.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Ukrainian subtitles

Revisions