0:00:01.468,0:00:06.690 Якось, 23 квітня 2013 року, 0:00:06.714,0:00:12.228 Associated Press розмістила[br]у Твіттері запис, 0:00:12.252,0:00:14.649 де було сказано: 0:00:14.673,0:00:15.958 "Екстрене повідомлення: 0:00:15.958,0:00:17.244 два вибухи у Білому домі, 0:00:17.268,0:00:19.601 поранено Барака Обаму!" 0:00:20.212,0:00:25.637 Це повідомлення набрало 4 тисячі ретвітів[br]менш, ніж за п'ять хвилин, 0:00:25.661,0:00:27.878 і згодом набуло вірусного поширення. 0:00:28.760,0:00:33.110 Але ця новина була не справжньою,[br]її випустила не Associated Press. 0:00:33.134,0:00:36.467 Насправді це був фейк,[br]тобто, фейкова новина, 0:00:36.491,0:00:39.316 поширювана сирійськими хакерами, 0:00:39.340,0:00:44.034 які зламали сторінку [br]Associated Press у Твіттері. 0:00:44.407,0:00:48.296 Хакери хотіли посіяти суспільну паніку,[br]але наслідки виявились значно гіршими. 0:00:48.320,0:00:50.796 Тому що автоматизовані алгоритми торгівлі 0:00:50.820,0:00:54.180 відразу ж вловили настрій,[br]виражений у цьому твіті, 0:00:54.204,0:00:57.172 і почали робити поправку на те, 0:00:57.196,0:01:00.577 що президент США був поранений[br]чи навіть загинув від вибуху. 0:01:02.188,0:01:04.180 Щойно вони почали твіттити, 0:01:04.204,0:01:07.553 це відразу ж призвело до обвалу на біржі, 0:01:07.577,0:01:12.744 який лише за один день завдав[br]збитків на 140 млрд. доларів. 0:01:13.062,0:01:17.538 Роберт Мюллер, [br]спеціальний прокурор США, 0:01:17.562,0:01:21.454 висунув обвинувачення[br]проти трьох російських компаній 0:01:21.478,0:01:24.097 і тринадцяти російських громадян, 0:01:24.121,0:01:27.288 звинувативши їх у змові, що мала на меті 0:01:27.312,0:01:31.092 за допомогою обману вплинути[br]на президентські вибори в США в 2016-му. 0:01:31.855,0:01:35.419 У обвинуваченні йдеться 0:01:35.443,0:01:38.585 про діяльність[br]Агентства інтернет-досліджень, 0:01:38.609,0:01:42.203 що було тіньовою армією Кремля[br]в соціальних медіа. 0:01:42.815,0:01:45.592 Тільки впродовж[br]минулих президентських виборів 0:01:45.616,0:01:47.505 це інтернет-агентство 0:01:47.529,0:01:52.696 охопило 126 мільйонів[br]користувачів Фейсбуку в США, 0:01:52.720,0:01:55.997 опублікувало 3 мільйони окремих твітів 0:01:56.021,0:01:59.863 і відеоконтент на ютубі,[br]загальною тривалістю 43 години. 0:01:59.887,0:02:01.539 Весь цей контент був фейковим, 0:02:01.563,0:02:07.886 дезінформацією з метою сіяти розбрат[br]під час президентських виборів у США. 0:02:08.996,0:02:11.646 Недавнє дослідження[br]Оксфордського університету 0:02:11.670,0:02:14.940 виявило, що під час минулих[br]виборів у Швеції 0:02:14.964,0:02:19.339 третина інформації,[br]поширюваної в соціальних медіа 0:02:19.363,0:02:20.561 з приводу виборів, 0:02:20.585,0:02:22.672 була фейком чи дезінформацією. 0:02:23.037,0:02:28.115 До того ж, такі види дезінформаційних[br]кампаній в соціальних медіа 0:02:28.139,0:02:32.290 можуть поширювати так звану[br]"пропаганду геноциду", 0:02:32.314,0:02:35.425 наприклад, проти рохінджа в М'янмі, 0:02:35.449,0:02:37.752 що спровокувало погроми в Індії. 0:02:37.776,0:02:39.270 Ми досліджували фейкові новини, 0:02:39.294,0:02:42.513 і почали їх досліджувати ще до того,[br]як цей термін став популярним. 0:02:43.030,0:02:48.070 Недавно ми опублікували найбільше[br]з відомих довготривалих досліджень 0:02:48.094,0:02:50.380 щодо поширення фейкових новин. 0:02:50.404,0:02:53.608 Воно вийшло на першій сторінці "Science"[br]в березні цього року. 0:02:54.523,0:02:58.684 Ми вивчали всі історії, істинність[br]чи хибність яких була встановлена, 0:02:58.708,0:03:00.461 з тих, що циркулювали в Твіттері, 0:03:00.485,0:03:04.303 за період, починаючи від[br]заснування Твіттера в 2006-му до 2017-го. 0:03:04.612,0:03:06.926 При відборі інформації 0:03:06.950,0:03:09.826 ми вивчали перевірені новини,[br]а саме, ті новини, 0:03:09.850,0:03:13.768 які були перевірені шістьма незалежними[br]факт-чекінговими організаціями. 0:03:13.792,0:03:16.554 Тож ми знали, які з них були правдивими, 0:03:16.578,0:03:18.704 а які – неправдивими. 0:03:18.728,0:03:20.601 Ми могли виміряти їхнє розповсюдження, 0:03:20.625,0:03:22.276 швидкість їхнього поширення, 0:03:22.300,0:03:24.395 як глибоко й широко[br]вони розповсюджувались, 0:03:24.419,0:03:28.561 скільки людей втягались[br]в цей інформаційний каскад, тощо. 0:03:28.942,0:03:30.426 І в згаданій статті 0:03:30.450,0:03:34.315 ми порівняли поширення правдивих[br]та неправдивих новин. 0:03:34.339,0:03:36.022 І ось що ми виявили. 0:03:36.046,0:03:40.025 Ми встановили, що неправдиві новини[br]поширюються більше, швидше, глибше 0:03:40.049,0:03:41.855 і ширше, ніж правдиві. 0:03:41.879,0:03:44.882 Різні інформаційні сфери[br]суттєво відрізняються, 0:03:44.906,0:03:47.405 іноді на порядок,[br]за масштабами цього явища. 0:03:47.842,0:03:51.366 І, до речі, неправдиві політичні новини[br]поширюються найефективніше. 0:03:51.390,0:03:54.537 Вони розповсюджуються більше,[br]швидше, глибше і ширше 0:03:54.561,0:03:57.363 за будь-який інший тип неправдивих новин. 0:03:57.387,0:03:58.680 Коли ми таке виявили, 0:03:58.704,0:04:01.545 це нас стривожило,[br]але водночас і зацікавило. 0:04:01.569,0:04:02.720 Чому це так? 0:04:02.744,0:04:06.117 Чому неправдиві новини поширюються[br]значно далі, швидше, більше 0:04:06.141,0:04:08.005 і ширше, ніж правдиві? 0:04:08.339,0:04:11.300 Перша гіпотеза, яка нам спала на думку: 0:04:11.324,0:04:16.116 можливо, поширювачі неправдивих новин[br]мають більше підписників і підписок; 0:04:16.140,0:04:17.697 чи пишуть частіше; 0:04:17.721,0:04:21.847 чи серед них більше "підтверджених"[br]користувачів Твіттеру, що збільшує довіру; 0:04:21.871,0:04:24.053 чи вони вже тривалий час мають акаунт. 0:04:24.077,0:04:26.375 Тож ми перевірили ці припущення, 0:04:26.691,0:04:29.611 і виявили, що насправді все навпаки. 0:04:29.635,0:04:32.071 Поширювачі неправдивих новин[br]мали менше підписників, 0:04:32.095,0:04:34.349 і менше підписок,[br]вони були менш активними, 0:04:34.373,0:04:35.833 зазвичай не "підтвердженими", 0:04:35.857,0:04:38.817 і зареєстрованими не так давно. 0:04:38.841,0:04:40.030 І тим не менш, 0:04:40.054,0:04:45.087 неправдиві новини мали[br]на 70% більше поширень, ніж правдиві, 0:04:45.111,0:04:48.474 і це з поправкою на згадані,[br]а також на багато інших чинників. 0:04:48.498,0:04:51.188 Тож нам потрібно було[br]знайти інше пояснення. 0:04:51.212,0:04:54.679 Ми запропонували гіпотезу, яку назвали[br]"гіпотеза новизни". 0:04:55.038,0:04:56.998 У дослідницькій літературі 0:04:57.022,0:05:00.776 широко відомий факт, що увагу людей[br]привертає новизна, 0:05:00.800,0:05:03.319 щось нове, щось незвичне[br]для їхнього середовища. 0:05:03.343,0:05:05.328 А якщо ви вивчали соціологію, 0:05:05.352,0:05:09.652 то знаєте, що люди люблять[br]ділитись новою інформацією. 0:05:09.676,0:05:13.514 Це викликає враження, ніби вони[br]володіють інформацією для втаємничених, 0:05:13.538,0:05:17.323 і передача такого типу інформації[br]підвищує їхній статус. 0:05:17.792,0:05:24.244 Тож ми виміряли новизну правдивих[br]і неправдивих твітів, 0:05:24.268,0:05:28.323 порівняно з корпусом твітів,[br]які користувачі бачили 0:05:28.347,0:05:31.299 впродовж попередніх 60 днів. 0:05:31.323,0:05:33.982 Проте це ще не все, адже ми подумали: 0:05:34.006,0:05:38.214 "Може, у фейкових новин більше новизни[br]в інформаційно-теоретичному сенсі, 0:05:38.238,0:05:41.496 але, можливо, люди не вважають,[br]що в них більше новизни". 0:05:41.849,0:05:45.776 Тож щоб дослідити, як люди[br]сприймають фейкові новини, 0:05:45.800,0:05:49.490 ми вивчили зміст[br]і емоційний настрій коментарів 0:05:49.514,0:05:53.720 до правдивих і неправдивих новин. 0:05:54.022,0:05:55.228 І ми виявили, 0:05:55.252,0:05:59.466 що серед значної кількості[br]досліджуваних емоцій – 0:05:59.490,0:06:02.791 подиву, відрази, страху, суму, 0:06:02.815,0:06:05.299 очікування, радощів і довіри – 0:06:05.323,0:06:11.180 у коментарях до фейкових новин[br]були значно помітніше присутні 0:06:11.204,0:06:14.010 подив і відраза. 0:06:14.392,0:06:18.181 А в коментарях до правдивих новин[br]значно більшою мірою 0:06:18.205,0:06:19.752 були присутні очікування, 0:06:19.776,0:06:22.323 радощі та довіра. 0:06:22.347,0:06:26.133 Дані про подив підтверджують[br]нашу гіпотезу новизни. 0:06:26.157,0:06:30.766 Якщо щось нове й незвичне, то більша[br]ймовірність, що ми це поширимо. 0:06:31.092,0:06:34.017 Разом із тим, були свідчення в Конгресі, 0:06:34.041,0:06:37.077 перед обома палатами Конгресу[br]Сполучених Штатів, 0:06:37.101,0:06:40.839 у яких було заявлено про роль ботів[br]у поширенні дезінформації. 0:06:40.863,0:06:42.217 Тож ми дослідили і це, 0:06:42.241,0:06:45.839 використавши численні[br]складні алгоритми, 0:06:45.863,0:06:48.937 щоб виявити ботів і виключити їх[br]із наших даних. 0:06:49.347,0:06:52.006 Зрештою, ми їх виключили,[br]а потім повернули знов, 0:06:52.030,0:06:55.149 і порівняли, як зміняться дані[br]наших вимірювань. 0:06:55.173,0:06:57.466 І ми встановили, 0:06:57.490,0:07:01.172 що хоча боти справді прискорюють[br]поширення фейкових новин, 0:07:01.196,0:07:03.847 але вони прискорюють і поширення[br]правдивих новин 0:07:03.871,0:07:06.276 приблизно на тому ж рівні. 0:07:06.300,0:07:09.158 Це означає, що боти не впливають 0:07:09.182,0:07:13.895 на різницю в поширенні мережею[br]правди та брехні. 0:07:13.919,0:07:16.768 Ми не можемо[br]зняти із себе відповідальність, 0:07:16.792,0:07:21.051 адже це саме від нас, людей,[br]залежить, що буде поширюватись. 0:07:22.472,0:07:25.806 Все те, що я досі вам розповів, 0:07:25.830,0:07:27.584 на жаль для всіх нас, 0:07:27.608,0:07:28.869 є хорошими новинами. 0:07:30.670,0:07:35.120 Я так кажу тому,[br]що далі може бути набагато гірше. 0:07:35.850,0:07:39.532 Є дві технології, які можуть зробити[br]ситуацію значно гіршою. 0:07:40.207,0:07:45.379 Ми стоїмо на порозі[br]величезної хвилі синтетичних медіа. 0:07:45.403,0:07:51.434 Фейкових відео, фейкових аудіо,[br]які виглядають дуже переконливо. 0:07:51.458,0:07:54.212 Вони спиратимуться на дві технології. 0:07:54.236,0:07:58.069 Перша з них відома[br]як генеративна змагальна мережа. 0:07:58.093,0:08:00.656 Це модель машинного навчання,[br]яка містить дві мережі: 0:08:00.680,0:08:02.227 дискримінатор, 0:08:02.251,0:08:06.451 який визначає [br]істинність чи хибність чогось, 0:08:06.475,0:08:07.642 і генератор, 0:08:07.666,0:08:10.816 який створює синтезований контент. 0:08:10.840,0:08:15.942 Отож, генератор створює[br]штучне відео чи аудіо, 0:08:15.966,0:08:20.641 а дискримінатор намагається визначити,[br]справжнє воно чи фейкове. 0:08:20.665,0:08:23.539 І, фактично, завдання генератора –[br]це створювати 0:08:23.563,0:08:27.998 якомога реалістичніші зображення,[br]які б змогли обдурити дискримінатора, 0:08:28.022,0:08:31.609 щоб він розцінив ці штучно[br]синтезовані відео й аудіо 0:08:31.633,0:08:33.363 як справжні. 0:08:33.387,0:08:35.760 Уявіть машину,[br]яка з величезною швидкістю 0:08:35.784,0:08:38.587 вдосконалюється у мистецтві обману. 0:08:39.114,0:08:41.614 І це поєднано з другою технологією, 0:08:41.638,0:08:47.360 а саме, з все більшою доступністю[br]штучного інтелекту для пересічної людини, 0:08:47.384,0:08:49.573 можливістю для будь-кого 0:08:49.597,0:08:52.427 без жодної освіти в галузі[br]штучного інтелекту 0:08:52.451,0:08:53.633 чи машинного навчання, 0:08:53.657,0:08:57.760 користуватись цими алгоритмами,[br]щоб створювати штучний контент, 0:08:57.784,0:09:02.331 значно легше створювати відео. 0:09:02.355,0:09:06.776 Білий дім поширив відредаговане відео, 0:09:06.800,0:09:11.088 де журналіст хапає за руку стажерку,[br]що намагається забрати в нього мікрофон. 0:09:11.427,0:09:13.426 Це відео відкоригували так,[br]щоб здавалось, 0:09:13.450,0:09:16.737 ніби журналіст зробив[br]різкіший рух, ніж насправді. 0:09:17.157,0:09:20.542 І коли відеооператорів та каскадерів 0:09:20.566,0:09:22.993 запитали про прийом,[br]застосований у тому відео, 0:09:23.017,0:09:26.845 вони сказали: "Так, ми постійно[br]використовуємо цей прийом, 0:09:26.869,0:09:31.632 щоб наші удари й копняки[br]виглядали різкіше й агресивніше". 0:09:32.268,0:09:34.135 Білий дім поширив це відео 0:09:34.159,0:09:36.659 і використав його як одну з причин 0:09:36.683,0:09:40.682 для відкликання акредитації[br]Джима Акости 0:09:40.706,0:09:42.045 на заходи в Білому домі. 0:09:42.069,0:09:46.878 CNN мусила подати позов,[br]щоб відновити акредитацію. 0:09:48.538,0:09:54.141 На мою думку, існує півдесятка шляхів,[br]якими можна скористатись, 0:09:54.165,0:09:57.904 щоб спробувати розв'язати декотрі з цих[br]дуже складних сьогоднішніх проблем. 0:09:58.379,0:10:00.189 Кожен із них дає надію, 0:10:00.213,0:10:03.212 але водночас кожен із них[br]породжує й виклики. 0:10:03.236,0:10:05.244 Перший шлях – це маркування. 0:10:05.268,0:10:06.625 Давайте поміркуємо: 0:10:06.649,0:10:10.260 коли ви йдете до бакалійної крамниці,[br]щоб купити харчі, 0:10:10.284,0:10:12.188 вони детально марковані. 0:10:12.212,0:10:14.204 Ви знаєте, скільки вони[br]містять калорій, 0:10:14.228,0:10:16.029 який у них вміст жиру – 0:10:16.053,0:10:20.331 однак коли ми споживаємо інформацію,[br]для неї не існує жодного маркування. 0:10:20.355,0:10:22.283 Що містить ця інформація? 0:10:22.307,0:10:23.760 Чи варте довіри це джерело? 0:10:23.784,0:10:26.101 Звідки отримано дану інформацію? 0:10:26.125,0:10:27.950 У нас немає цих даних, 0:10:27.974,0:10:30.077 коли ми споживаємо інформацію. 0:10:30.101,0:10:33.339 Тут криється потенційна можливість,[br]та водночас є й виклики. 0:10:33.363,0:10:39.814 Наприклад, кому суспільство довірить[br]вирішувати, де істина, а де брехня? 0:10:40.387,0:10:42.029 Це будуть органи влади? 0:10:42.053,0:10:43.203 Чи, може, Фейсбук? 0:10:43.601,0:10:47.363 А, можливо, незалежний[br]консорціум факт-чекерів? 0:10:47.387,0:10:49.853 А хто перевірятиме факт-чекерів? 0:10:50.427,0:10:53.511 Інша потенційна можливість[br]криється в спонуках. 0:10:53.535,0:10:56.169 Ми знаємо, що впродовж[br]президентських виборів у США 0:10:56.193,0:10:59.883 здійнялась хвиля дезінформації,[br]що походила з Македонії. 0:10:59.907,0:11:02.244 За цією хвилею не стояв[br]жоден політичний мотив, 0:11:02.268,0:11:04.728 зате був присутній економічний. 0:11:04.752,0:11:06.900 Цей економічний мотив виник, 0:11:06.924,0:11:10.448 бо фейкові новини поширюються[br]значно далі, швидше 0:11:10.472,0:11:12.482 і глибше, ніж правдиві, 0:11:12.506,0:11:17.466 тож вони збільшують прибуток[br]від реклами, привертаючи увагу 0:11:17.490,0:11:19.450 більшої кількості користувачів. 0:11:19.474,0:11:23.307 Але якщо можна сповільнити[br]поширення хибної інформації, 0:11:23.331,0:11:26.228 можливо, це зменшить[br]економічні стимули, 0:11:26.252,0:11:28.942 які змушують продукувати фейки. 0:11:28.966,0:11:31.466 По-третє, можна обміркувати регулювання, 0:11:31.490,0:11:33.815 таку можливість слід серйозно розглянути. 0:11:33.839,0:11:35.450 Наразі в Сполучених Штатах 0:11:35.474,0:11:40.322 ми досліджуємо, що може статись,[br]якщо регулювати Фейсбук та інші мережі. 0:11:40.346,0:11:44.147 Хоча потрібно розглянути можливість[br]регулювання політичної пропаганди, 0:11:44.171,0:11:46.679 маркування матеріалів,[br]які є політичною пропагандою, 0:11:46.703,0:11:50.522 перевірки, щоб іноземні сили[br]не спонсорували політичну пропаганду – 0:11:50.546,0:11:53.093 та всі ці заходи містять в собі небезпеку. 0:11:53.522,0:11:58.400 Наприклад, у Малайзії прийняли закон,[br]який передбачає 6-річне ув'язнення 0:11:58.424,0:12:01.158 за поширення дезінформації. 0:12:01.696,0:12:03.775 І за умов авторитарного режиму, 0:12:03.799,0:12:08.465 такі засоби регулювання[br]можуть використовуватись 0:12:08.489,0:12:11.997 для придушення думки меншості[br]і для посилення репресій. 0:12:12.680,0:12:16.223 По-четверте, одним зі шляхів[br]може стати прозорість. 0:12:16.843,0:12:20.557 Ми хочемо знати,[br]як працюють алгоритми Фейсбуку. 0:12:20.581,0:12:23.461 Яким чином алгоритм[br]відбирає інформацію, 0:12:23.485,0:12:26.323 яку ми бачимо у своїй стрічці? 0:12:26.347,0:12:28.696 Ми вимагаємо підняти завісу 0:12:28.720,0:12:32.934 і показати деталі внутрішньої роботи[br]алгоритмів Фейсбуку. 0:12:32.958,0:12:35.737 І якщо ми хочемо дізнатись[br]про вплив соціальних мереж 0:12:35.761,0:12:37.847 на суспільство, потрібно, щоб вчені, 0:12:37.871,0:12:41.014 дослідники та інші люди[br]мали доступ до такої інформації. 0:12:41.038,0:12:42.585 Але водночас 0:12:42.609,0:12:46.410 ми просимо Фейсбук[br]підтримувати секретність, 0:12:46.434,0:12:48.607 щоб тримати наші дані у безпеці. 0:12:48.631,0:12:51.790 Тож Фейсбук та інші[br]платформи соціальних медіа 0:12:51.814,0:12:54.948 стикаються з тим, що я називаю[br]парадоксом прозорості. 0:12:55.266,0:12:57.940 Ми хочемо, щоб вони були водночас 0:12:57.964,0:13:02.773 відкритими та прозорими,[br]і разом з тим безпечними. 0:13:02.797,0:13:05.488 Це дуже складне завдання, 0:13:05.512,0:13:07.425 але вони повинні будуть його виконати, 0:13:07.449,0:13:11.236 якщо ми хочемо користуватись[br]благами соціальних технологій, 0:13:11.260,0:13:12.902 уникнувши при цьому небезпек. 0:13:12.926,0:13:17.617 І, по-п'яте, нам потрібно подумати[br]про алгоритми й машинне навчання. 0:13:17.641,0:13:22.918 Технології для розпізнавання фейкових[br]новин та механізмів їх поширення, 0:13:22.942,0:13:25.273 з метою сповільнити їхній потік. 0:13:25.824,0:13:28.721 Люди повинні бути в курсі,[br]як працюють ці технології, 0:13:28.745,0:13:31.023 бо ми ніколи не уникнемо того, 0:13:31.047,0:13:35.085 що в основі будь-якого технологічного[br]рішення чи підходу, 0:13:35.109,0:13:39.156 лежать фундаментальні етичні[br]і філософські питання 0:13:39.180,0:13:42.450 про те, як визначати істину й хибність, 0:13:42.474,0:13:45.654 кого ми наділяємо владою це робити, 0:13:45.678,0:13:48.138 і чия думка є легітимною, 0:13:48.162,0:13:51.868 які типи висловлювань[br]мають бути прийнятними і т.п. 0:13:51.892,0:13:54.220 Це вирішує не технологія. 0:13:54.244,0:13:57.942 Ці питання має вирішувати[br]етика й філософія. 0:13:58.950,0:14:02.268 Майже кожна теорія прийняття рішень, 0:14:02.292,0:14:05.053 людської співпраці й взаємодії 0:14:05.077,0:14:08.751 спирається на певне розуміння правди. 0:14:09.347,0:14:11.403 Та за умов зростання фейкових новин, 0:14:11.427,0:14:12.870 фейкових відео 0:14:12.894,0:14:14.776 та фейкових аудіо, 0:14:14.800,0:14:18.724 ми балансуємо на межі кінця реальності, 0:14:18.748,0:14:22.637 коли ми не можемо відрізнити[br]правду від фейку. 0:14:22.661,0:14:25.700 І це містить величезну[br]потенційну загрозу. 0:14:26.931,0:14:30.879 Ми маємо пильнувати,[br]ставши на захист істини 0:14:30.903,0:14:32.437 проти дезінформації, 0:14:32.919,0:14:36.355 застосовуючи наші технології,[br]наші політичні засоби, 0:14:36.379,0:14:38.299 і, мабуть, найважливіше, 0:14:38.323,0:14:41.537 нашу особисту відповідальність, 0:14:41.561,0:14:45.116 рішення, поведінку і вчинки. 0:14:45.553,0:14:46.990 Дуже дякую. 0:14:47.014,0:14:50.531 (Оплески)