Така, на 23 април 2013 г., Асошиейтид Прес публикуваха следното в Туитър. В него се казваше: "Новини от последните минути: Две експлозии в Белия дом и Барак Обама е ранен". Този туийт беше ретуитнат 4000 пъти за по-малко от пет минути и след това стана широко популярен. Този туит не беше истинска новина качена от Асошиейтид Прес. Всъщност беше грешна новина или фалшива новина, разпространена от сирийски хакери, проникнали в туитър акаунта на Асошиейтид прес. Тяхната цел била да смутят обществото, но те смущават много повече. Тъй като автоматизираните алгоритми за търговия веднага прихванали настроението на този туийт, те започнали търгуване, основано на възможността президентът на Съединените Американски Щати да е ранен или убит при тази експлозия. Щом започнали да туитват веднага докарали фондовия пазар до срив унищожавайки 140 милиарда долара стойност на собствения капитал за един ден. Робърт Мюлер, специален адвокат прокурор в САЩ, издава обвинителни актове срещу три руски компании и 13 руснаци за конспирация с цел измама на САЩ като се намесват в президентските избори през 2016 г. Това, което обвинението разказва като история, е историята на Агенцията за проучвания в интернет, сенчестата ръка на Кремъл в социалните медии. Само по време на президентските избори усилията на Интернет агенцията достигат 126 милиона души във Фейсбук в САЩ, публикува 3 милиона отделни туийта и 43 часа съдържание в ЮТюб. Като всичкото е фалшиво -- дезинформация, създадена да сее раздор в президентските избори на САЩ. Скорошно изследване на Оксфордския университет показва, че в последните шведски избори една трета от цялата информация, разпространявана в интернет за изборите, била фалшива или дезинформация. Допълнително, тези типове кампании на дезинформация в социалните медии могат да разпространят т.нар. "геноцидна пропаганда", например срещу малцинството рохинджа в Бирма, което задейства масови убийства в Индия. Изучавахме фалшиви новини и започнахме да ги изучаваме преди да станат популярен термин. И скоро публикувахме най-голямото досега лонгитюдно изследване на разпространението на фалшиви новини онлайн на корицата на "Сайънс" през март тази година. Изследвахме всички потвърдени верни и неверни новини, разпространявани в Туитър от създаването му през 2006 г. до 2017 г. И след това изследвахме тази информация, изследвахме потвърдените новини, които бяха потвърдени от шест независими организации, проверяващи факти. Така че знаехме кои истории са верни и кои истории са неверни. Можем да измерим тяхното разпространение, скоростта на това разпространение, дълбочината и обхвата на разпространението, колко хора са били въвличани в тази информационна каскада и т.н. Това, което направихме с труда, бе да сравним разпространението на истинските спрямо неверните новини. И ето какво открихме. Открихме, че неверните новини се разпростират повече, по-бързо и по-дълбоко и в по-голям обхват от истината във всички категории информация, които изследвахме, понякога с огромна разлика. Действително неверните политически новини бяха най-широко разпространени. Разпространяваха се далеч, по-бързо, по-дълбоко и в по-голям обхват от много други типове неверни новини. Щом видяхме това веднага се разтревожихме, но бяхме и любопитни. Защо? Защо неверните новини пътуват толкова по-надалеч, по-бързо и по-дълбоко и в по-голям обхват от истината? Първата хипотеза, която съставихме, беше: "Може би хората, които разпространяват неверните новини имат повече последователи или следват повече хора, или туийтват по-често. Или може би те са "потвърдени" Туитър потребители, с повече правдоподобност, или са в Туитър по-дълго време". Проверихме всяко едно от тези неща. И това, което открихме, беше точно обратното. Разпространяващите неверни новини, имаха по-малко последователи, следваха по-малко хора, по-малко активни са, по-рядко са "потвърдени" и ползват Туитър от по-кратък период. И все пак вероятността неверните новини да бъдат ретуитнати беше 70% по-висока от тази на истината, като се вземат предвид тези и много други фактори. Така че трябваше да намерим други обяснения. И създадохме т. нар. "хипотеза на новостта". Ако прочетете литературата, добре известно е, че човешкото внимание се привлича от новостите, нещата, които са нови в средата. Ако четете литературата на социологията, знаете, че обичаме да споделяме нова информация. Кара ни да изглеждаме все едно имаме достъп до вътрешна информация и покачваме статута си като разпространяваме такава информация. Измерихме новостта на постъпващ верен и неверен туит сравнено с всичко, което човек е видял през 60-те дни преди това в Туитър. Но това не беше достатъчно, защото се замислихме "Може би неверните новини са по-нови в информационно-теоретичен смисъл, но може би хората не ги възприемат като по-нови" За да разберем възприятията на хората спрямо неверните новини разгледахме информацията и усещанията, съдържащи се в отговорите на истински и неистински туитове. И това, което открихме, беше, че сред няколко различни мерки на усещане -- изненада, отвращение, страх, тъга, очакване, радост и доверие -- при неверните новини се наблюдаваше значително повече изненада и отвращение в отговорите на неверните туитове. А сред истинските новини се наблюдаваше значително повече очакване, радост и доверие в отговорите на верните туитове. Изненадата потвърди нашата теория на новостта. Това е ново и изненадващо, затова сме по-склонни да го споделим. Междувременно се случваха конгресните изслушвания пред двете камари на Конгреса в САЩ, където се разглеждаше ролята на ботовете при разпространението на дезинформацията. Затова разгледахме и това -- използвахме множество изпипани алгоритми за засичане на ботове, за да открием ботовете в нашите данни и да ги извадим от изследването. Изтеглихме ги, после ги вкарахме отново и сравнихме какво се случва с измерванията ни. И открихме, че действително ботовете увеличават скоростта на разпространение на неверни новини онлайн, но те ускоряват и разпространението на истинските новини с приблизително същия темп. Което означава, че ботовете не са причината за диференциалното разпространение на истината и неистината онлайн. Не можем да избегнем отговорност, защото ние хората сме отговорни за това разпространение. Всичко, което ви казах досега, за съжаление на всички нас, е добрата новина. Причината е, защото сега ще стане много по-лошо. И две конкретни технологии ще влошат нещата. Ще видим възхода на огромна вълна на синтетичните медии. Фалшиви видеа, фалшиво аудио, които са много убедителни за човешкото око. И това ще бъде задвижено от две технологии. Първата е позната като "генеративно-състезателни мрежи". Това е модел на машинно самообучение с две мрежи: дискриминатор, чиято работа е да определи дали нещо е истина или лъжа, и генератор, чиято работа е да генерира синтетична медия. Синтетичният генератор създава синтетично видео или аудио, а дискриминаторът се опитва да различи "дали това е истинско, или е фалшиво?" И всъщност е работа на генератора да максимизира вероятността, да заблуди дискриминатора, че синтетичното видео или аудио, което създава, е всъщност истинско. Представете си машина в хиперлууп, опитваща се да стане по-добра и по-добра в това да ни заблуждава. Това в комбинация с втората технология, която по същество е демократизацията на изкуствения интелект към хората, възможността всеки, без какъвто и да е опит с изкуствения интелект или машинното самообучение, да използва такъв вид алгоритми, за да генерира синтетични медии, по същество прави създаването на видеа много по-лесно. Белият дом публикува невярно и подправено видео от спречкването на журналист със стажант, който опитва да му вземе микрофона. Изрязани са кадри от видеото, за да изглеждат действията му по-груби. И когато видеографи и каскадьори са интервюирани за този вид техника те казват "Да, използваме я във филмите през цялото време, за да изглеждат ударите и ритниците по-резки и по-агресивни." След това пуснаха това видео и в известна степен го използваха като оправдание да изземат журналистическия пропуск на репортера Джим Акоста от Белия дом. И СиЕнЕн трябваше да водят дело, за да възстановят журналистическия пропуск. Има около 5 различни пътя, за които се сещам и, по които можем да поемем, за да се опитаме да решим някои от тези много трудни проблеми днес. Всеки от тях дава надежда, но всеки от тях има своите предизвикателства. Първият е "поставяне на етикети". Помислете по следния начин: когато отидете в магазина, за да си купите храна за консумация тя е с информативен етикет. Знаете колко калории има в нея, колко мазнини съдържа -- но когато консумираме информация, няма никакви етикети. Какво се съдържа в тази информация? Източникът надежден ли е? Откъде е събрана тази информация? Не разполагаме с тази информация, когато консумираме информация. Това е потенциално решение, но то съдържа предизвикателства. Например, кой в обществото ще решава кое е вярно и кое е невярно? Правителствата? Фейсбук? Независим консорциум на проверяващите фактите? И кой проверява проверяващите? Друг възможен път е този на стимулите. Знаем, че по време на президентските избори в САЩ имаше вълна на дезинформация с произход Македония, която нямаше политически мотив, а вместо това имаше икономически мотив. И този икономически мотив съществуваше, защото неверните новини се движат по-далеч, по-бързо, и по-дълбоко от истината и можеш да спечелиш пари от реклама докато събираш погледи и внимание с този вид информация. Ако можем да ограничим разпространението на тази информация това вероятно ще намали икономическия стимул за самото ѝ създаване. Трето, можем да мислим за регулации и със сигурност трябва да помислим за този вариант. В САЩ в момента разглеждаме какво може да се случи, ако Фейсбук и други се регулират. Докато трябва да помислим за неща като това да регулираме политическата реч, да обозначим факта, че е политическа реч, да се уверим, че чуждестранни лица не могат да финансират политическа реч, това също води до своите опасности. Например, Малайзия тъкмо въведе шестгодишна ефективна присъда за всеки, който разпространява дезинформация. И в авторитарните режими този тип политики могат да се използват за потискане на мнението на малцинствата и за продължаване на репресиите. Четвъртата възможност е прозрачността. Искаме да знаем как работят алгоритмите на Фейсбук. Как данните се комбинират с алгоритмите, за да произвеждат резултатите, които виждаме? Искаме да отворят кимоното и да ни покажат точно зъбните колела на начина на работа на Фейсбук. И ако искаме да разберем ефектът на социалните медии върху обществото трябва учени, изследователи и други да имат достъп до този вид информация. Но същевременно, искаме Фейсбук да заключи всичко, да съхранява данните по сигурен начин. Фейсбук и другите платформи на социалните медии са изправени пред това, което наричам парадоск на прозрачността. Едновременно искаме от тях да са отворени и прозрачни, и в същотото време, да са сигурни. Това е много трудна игла за вдяване, но те ще трябва да вдянат конеца в иглата, ако искаме да достигнем потенциала на социалните технологии, и да избегнем рисковете им. Последното нещо, за което се сетихме са алгоритмите и машинното самообучение. Технология, създадена, да намира и разбира фалшивите новини, разпространението им и да се опита да ограничи потока им. Хората трябва да са в течение с тази технология, защото не можем да избягаме от това, че при всяко технологично решение или подход съществува фундаментален етически и философски въпрос как да дефинираме истината и неистната, на кого даваме властта да дефинира истината и неистината и кои мнения са легитимни, кой тип реч трябва да се позволява и т.н. Технологията не е решение за това. Етиката и философията са решение за това. Почти всяка теория за взимането на решения от хората, сътрудничеството и координацията между хората в същността си има идея за истината. Но с възхода на фалшивите новини, възхода на фалшивите видеа, възхода на фалшивото аудио, пълзим по ръба на края на реалността. където не можем да кажем кое е истинско и кое - фалшиво. И това потенциално е невероятно опасно. Трябва да сме бдителни при защитаването на истината срещу дезинформацията. С нашите технологии, с нашите политики и може би най-важното с нашите индивидуални отговорности, решения, поведение и действия. Много ви благодаря. (аплодисменти)