Якось, 23 квітня 2013 року, Associated Press розмістила у Твіттері запис, де було сказано: "Екстрене повідомлення: два вибухи у Білому домі, поранено Барака Обаму!" Це повідомлення набрало 4 тисячі ретвітів менш, ніж за п'ять хвилин, і згодом набуло вірусного поширення. Але ця новина була не справжньою, її випустила не Associated Press. Насправді це був фейк, тобто, фейкова новина, поширювана сирійськими хакерами, які зламали сторінку Associated Press у Твіттері. Хакери хотіли посіяти суспільну паніку, але наслідки виявились значно гіршими. Тому що автоматизовані алгоритми торгівлі відразу ж вловили настрій, виражений у цьому твіті, і почали робити поправку на те, що президент США був поранений чи навіть загинув від вибуху. Щойно вони почали твіттити, це відразу ж призвело до обвалу на біржі, який лише за один день завдав збитків на 140 млрд. доларів. Роберт Мюллер, спеціальний прокурор США, висунув обвинувачення проти трьох російських компаній і тринадцяти російських громадян, звинувативши їх у змові, що мала на меті за допомогою обману вплинути на президентські вибори в США в 2016-му. У обвинуваченні йдеться про діяльність Агентства інтернет-досліджень, що було тіньовою армією Кремля в соціальних медіа. Тільки впродовж минулих президентських виборів це інтернет-агентство охопило 126 мільйонів користувачів Фейсбуку в США, опублікувало 3 мільйони окремих твітів і відеоконтент на ютубі, загальною тривалістю 43 години. Весь цей контент був фейковим, дезінформацією з метою сіяти розбрат під час президентських виборів у США. Недавнє дослідження Оксфордського університету виявило, що під час минулих виборів у Швеції третина інформації, поширюваної в соціальних медіа з приводу виборів, була фейком чи дезінформацією. До того ж, такі види дезінформаційних кампаній в соціальних медіа можуть поширювати так звану "пропаганду геноциду", наприклад, проти рохінджа в М'янмі, що спровокувало погроми в Індії. Ми досліджували фейкові новини, і почали їх досліджувати ще до того, як цей термін став популярним. Недавно ми опублікували найбільше з відомих довготривалих досліджень щодо поширення фейкових новин. Воно вийшло на першій сторінці "Science" в березні цього року. Ми вивчали всі історії, істинність чи хибність яких була встановлена, з тих, що циркулювали в Твіттері, за період, починаючи від заснування Твіттера в 2006-му до 2017-го. При відборі інформації ми вивчали перевірені новини, а саме, ті новини, які були перевірені шістьма незалежними факт-чекінговими організаціями. Тож ми знали, які з них були правдивими, а які – неправдивими. Ми могли виміряти їхнє розповсюдження, швидкість їхнього поширення, як глибоко й широко вони розповсюджувались, скільки людей втягались в цей інформаційний каскад, тощо. І в згаданій статті ми порівняли поширення правдивих та неправдивих новин. І ось що ми виявили. Ми встановили, що неправдиві новини поширюються більше, швидше, глибше і ширше, ніж правдиві. Різні інформаційні сфери суттєво відрізняються, іноді на порядок, за масштабами цього явища. І, до речі, неправдиві політичні новини поширюються найефективніше. Вони розповсюджуються більше, швидше, глибше і ширше за будь-який інший тип неправдивих новин. Коли ми таке виявили, це нас стривожило, але водночас і зацікавило. Чому це так? Чому неправдиві новини поширюються значно далі, швидше, більше і ширше, ніж правдиві? Перша гіпотеза, яка нам спала на думку: можливо, поширювачі неправдивих новин мають більше підписників і підписок; чи пишуть частіше; чи серед них більше "підтверджених" користувачів Твіттеру, що збільшує довіру; чи вони вже тривалий час мають акаунт. Тож ми перевірили ці припущення, і виявили, що насправді все навпаки. Поширювачі неправдивих новин мали менше підписників, і менше підписок, вони були менш активними, зазвичай не "підтвердженими", і зареєстрованими не так давно. І тим не менш, неправдиві новини мали на 70% більше поширень, ніж правдиві, і це з поправкою на згадані, а також на багато інших чинників. Тож нам потрібно було знайти інше пояснення. Ми запропонували гіпотезу, яку назвали "гіпотеза новизни". У дослідницькій літературі широко відомий факт, що увагу людей привертає новизна, щось нове, щось незвичне для їхнього середовища. А якщо ви вивчали соціологію, то знаєте, що люди люблять ділитись новою інформацією. Це викликає враження, ніби вони володіють інформацією для втаємничених, і передача такого типу інформації підвищує їхній статус. Тож ми виміряли новизну правдивих і неправдивих твітів, порівняно з корпусом твітів, які користувачі бачили впродовж попередніх 60 днів. Проте це ще не все, адже ми подумали: "Може, у фейкових новин більше новизни в інформаційно-теоретичному сенсі, але, можливо, люди не вважають, що в них більше новизни". Тож щоб дослідити, як люди сприймають фейкові новини, ми вивчили зміст і емоційний настрій коментарів до правдивих і неправдивих новин. І ми виявили, що серед значної кількості досліджуваних емоцій – подиву, відрази, страху, суму, очікування, радощів і довіри – у коментарях до фейкових новин були значно помітніше присутні подив і відраза. А в коментарях до правдивих новин значно більшою мірою були присутні очікування, радощі та довіра. Дані про подив підтверджують нашу гіпотезу новизни. Якщо щось нове й незвичне, то більша ймовірність, що ми це поширимо. Разом із тим, були свідчення в Конгресі, перед обома палатами Конгресу Сполучених Штатів, у яких було заявлено про роль ботів у поширенні дезінформації. Тож ми дослідили і це, використавши численні складні алгоритми, щоб виявити ботів і виключити їх із наших даних. Зрештою, ми їх виключили, а потім повернули знов, і порівняли, як зміняться дані наших вимірювань. І ми встановили, що хоча боти справді прискорюють поширення фейкових новин, але вони прискорюють і поширення правдивих новин приблизно на тому ж рівні. Це означає, що боти не впливають на різницю в поширенні мережею правди та брехні. Ми не можемо зняти із себе відповідальність, адже це саме від нас, людей, залежить, що буде поширюватись. Все те, що я досі вам розповів, на жаль для всіх нас, є хорошими новинами. Я так кажу тому, що далі може бути набагато гірше. Є дві технології, які можуть зробити ситуацію значно гіршою. Ми стоїмо на порозі величезної хвилі синтетичних медіа. Фейкових відео, фейкових аудіо, які виглядають дуже переконливо. Вони спиратимуться на дві технології. Перша з них відома як генеративна змагальна мережа. Це модель машинного навчання, яка містить дві мережі: дискримінатор, який визначає істинність чи хибність чогось, і генератор, який створює синтезований контент. Отож, генератор створює штучне відео чи аудіо, а дискримінатор намагається визначити, справжнє воно чи фейкове. І, фактично, завдання генератора – це створювати якомога реалістичніші зображення, які б змогли обдурити дискримінатора, щоб він розцінив ці штучно синтезовані відео й аудіо як справжні. Уявіть машину, яка з величезною швидкістю вдосконалюється у мистецтві обману. І це поєднано з другою технологією, а саме, з все більшою доступністю штучного інтелекту для пересічної людини, можливістю для будь-кого без жодної освіти в галузі штучного інтелекту чи машинного навчання, користуватись цими алгоритмами, щоб створювати штучний контент, значно легше створювати відео. Білий дім поширив відредаговане відео, де журналіст хапає за руку стажерку, що намагається забрати в нього мікрофон. Це відео відкоригували так, щоб здавалось, ніби журналіст зробив різкіший рух, ніж насправді. І коли відеооператорів та каскадерів запитали про прийом, застосований у тому відео, вони сказали: "Так, ми постійно використовуємо цей прийом, щоб наші удари й копняки виглядали різкіше й агресивніше". Білий дім поширив це відео і використав його як одну з причин для відкликання акредитації Джима Акости на заходи в Білому домі. CNN мусила подати позов, щоб відновити акредитацію. На мою думку, існує півдесятка шляхів, якими можна скористатись, щоб спробувати розв'язати декотрі з цих дуже складних сьогоднішніх проблем. Кожен із них дає надію, але водночас кожен із них породжує й виклики. Перший шлях – це маркування. Давайте поміркуємо: коли ви йдете до бакалійної крамниці, щоб купити харчі, вони детально марковані. Ви знаєте, скільки вони містять калорій, який у них вміст жиру – однак коли ми споживаємо інформацію, для неї не існує жодного маркування. Що містить ця інформація? Чи варте довіри це джерело? Звідки отримано дану інформацію? У нас немає цих даних, коли ми споживаємо інформацію. Тут криється потенційна можливість, та водночас є й виклики. Наприклад, кому суспільство довірить вирішувати, де істина, а де брехня? Це будуть органи влади? Чи, може, Фейсбук? А, можливо, незалежний консорціум факт-чекерів? А хто перевірятиме факт-чекерів? Інша потенційна можливість криється в спонуках. Ми знаємо, що впродовж президентських виборів у США здійнялась хвиля дезінформації, що походила з Македонії. За цією хвилею не стояв жоден політичний мотив, зате був присутній економічний. Цей економічний мотив виник, бо фейкові новини поширюються значно далі, швидше і глибше, ніж правдиві, тож вони збільшують прибуток від реклами, привертаючи увагу більшої кількості користувачів. Але якщо можна сповільнити поширення хибної інформації, можливо, це зменшить економічні стимули, які змушують продукувати фейки. По-третє, можна обміркувати регулювання, таку можливість слід серйозно розглянути. Наразі в Сполучених Штатах ми досліджуємо, що може статись, якщо регулювати Фейсбук та інші мережі. Хоча потрібно розглянути можливість регулювання політичної пропаганди, маркування матеріалів, які є політичною пропагандою, перевірки, щоб іноземні сили не спонсорували політичну пропаганду – та всі ці заходи містять в собі небезпеку. Наприклад, у Малайзії прийняли закон, який передбачає 6-річне ув'язнення за поширення дезінформації. І за умов авторитарного режиму, такі засоби регулювання можуть використовуватись для придушення думки меншості і для посилення репресій. По-четверте, одним зі шляхів може стати прозорість. Ми хочемо знати, як працюють алгоритми Фейсбуку. Яким чином алгоритм відбирає інформацію, яку ми бачимо у своїй стрічці? Ми вимагаємо підняти завісу і показати деталі внутрішньої роботи алгоритмів Фейсбуку. І якщо ми хочемо дізнатись про вплив соціальних мереж на суспільство, потрібно, щоб вчені, дослідники та інші люди мали доступ до такої інформації. Але водночас ми просимо Фейсбук підтримувати секретність, щоб тримати наші дані у безпеці. Тож Фейсбук та інші платформи соціальних медіа стикаються з тим, що я називаю парадоксом прозорості. Ми хочемо, щоб вони були водночас відкритими та прозорими, і разом з тим безпечними. Це дуже складне завдання, але вони повинні будуть його виконати, якщо ми хочемо користуватись благами соціальних технологій, уникнувши при цьому небезпек. І, по-п'яте, нам потрібно подумати про алгоритми й машинне навчання. Технології для розпізнавання фейкових новин та механізмів їх поширення, з метою сповільнити їхній потік. Люди повинні бути в курсі, як працюють ці технології, бо ми ніколи не уникнемо того, що в основі будь-якого технологічного рішення чи підходу, лежать фундаментальні етичні і філософські питання про те, як визначати істину й хибність, кого ми наділяємо владою це робити, і чия думка є легітимною, які типи висловлювань мають бути прийнятними і т.п. Це вирішує не технологія. Ці питання має вирішувати етика й філософія. Майже кожна теорія прийняття рішень, людської співпраці й взаємодії спирається на певне розуміння правди. Та за умов зростання фейкових новин, фейкових відео та фейкових аудіо, ми балансуємо на межі кінця реальності, коли ми не можемо відрізнити правду від фейку. І це містить величезну потенційну загрозу. Ми маємо пильнувати, ставши на захист істини проти дезінформації, застосовуючи наші технології, наші політичні засоби, і, мабуть, найважливіше, нашу особисту відповідальність, рішення, поведінку і вчинки. Дуже дякую. (Оплески)