Return to Video

Как можем да защитим истината в епохата на дезинформацията

  • 0:00 - 0:07
    Така, на 23 април 2013 г.,
  • 0:07 - 0:12
    Асошиейтид Прес
    публикуваха следното в Туитър.
  • 0:12 - 0:15
    В него се казваше:
    "Новини от последните минути:
  • 0:15 - 0:17
    Две експлозии в Белия дом
  • 0:17 - 0:20
    и Барак Обама е ранен".
  • 0:20 - 0:26
    Този туийт беше ретуитнат 4000 пъти
    за по-малко от пет минути
  • 0:26 - 0:28
    и след това стана широко популярен.
  • 0:29 - 0:33
    Този туит не беше истинска новина
    качена от Асошиейтид Прес.
  • 0:33 - 0:36
    Всъщност беше грешна новина
    или фалшива новина,
  • 0:36 - 0:39
    разпространена от
    сирийски хакери,
  • 0:39 - 0:44
    проникнали в туитър акаунта
    на Асошиейтид прес.
  • 0:44 - 0:48
    Тяхната цел била да смутят обществото,
    но те смущават много повече.
  • 0:48 - 0:51
    Тъй като автоматизираните алгоритми
    за търговия
  • 0:51 - 0:54
    веднага прихванали настроението
    на този туийт,
  • 0:54 - 0:57
    те започнали търгуване, основано
    на възможността
  • 0:57 - 1:01
    президентът на Съединените Американски
    Щати да е ранен или убит
  • 1:01 - 1:02
    при тази експлозия.
  • 1:02 - 1:04
    Щом започнали да туитват
  • 1:04 - 1:08
    веднага докарали фондовия
    пазар до срив
  • 1:08 - 1:13
    унищожавайки 140 милиарда долара стойност
    на собствения капитал за един ден.
  • 1:13 - 1:18
    Робърт Мюлер, специален адвокат
    прокурор в САЩ,
  • 1:18 - 1:21
    издава обвинителни актове
    срещу три руски компании
  • 1:21 - 1:24
    и 13 руснаци
  • 1:24 - 1:27
    за конспирация с цел
    измама на САЩ
  • 1:27 - 1:31
    като се намесват в президентските
    избори през 2016 г.
  • 1:32 - 1:35
    Това, което обвинението разказва
    като история,
  • 1:35 - 1:39
    е историята на Агенцията за
    проучвания в интернет,
  • 1:39 - 1:42
    сенчестата ръка на Кремъл
    в социалните медии.
  • 1:43 - 1:46
    Само по време на президентските избори
  • 1:46 - 1:48
    усилията на Интернет агенцията
  • 1:48 - 1:53
    достигат 126 милиона души във
    Фейсбук в САЩ,
  • 1:53 - 1:56
    публикува 3 милиона отделни туийта
  • 1:56 - 2:00
    и 43 часа съдържание в ЮТюб.
  • 2:00 - 2:02
    Като всичкото е фалшиво --
  • 2:02 - 2:08
    дезинформация, създадена да сее
    раздор в президентските избори на САЩ.
  • 2:09 - 2:12
    Скорошно изследване на
    Оксфордския университет
  • 2:12 - 2:15
    показва, че в последните
    шведски избори
  • 2:15 - 2:19
    една трета от цялата информация,
    разпространявана в интернет
  • 2:19 - 2:21
    за изборите,
  • 2:21 - 2:23
    била фалшива или дезинформация.
  • 2:23 - 2:28
    Допълнително, тези типове кампании
    на дезинформация в социалните медии
  • 2:28 - 2:32
    могат да разпространят т.нар.
    "геноцидна пропаганда",
  • 2:32 - 2:35
    например срещу малцинството
    рохинджа в Бирма,
  • 2:35 - 2:38
    което задейства масови убийства в Индия.
  • 2:38 - 2:39
    Изучавахме фалшиви новини
  • 2:39 - 2:43
    и започнахме да ги изучаваме преди
    да станат популярен термин.
  • 2:43 - 2:48
    И скоро публикувахме най-голямото
    досега лонгитюдно изследване
  • 2:48 - 2:50
    на разпространението на фалшиви
    новини онлайн
  • 2:50 - 2:54
    на корицата на "Сайънс" през
    март тази година.
  • 2:55 - 2:59
    Изследвахме всички потвърдени
    верни и неверни новини,
  • 2:59 - 3:00
    разпространявани в Туитър
  • 3:00 - 3:04
    от създаването му през 2006 г. до 2017 г.
  • 3:05 - 3:07
    И след това изследвахме тази информация,
  • 3:07 - 3:10
    изследвахме потвърдените новини,
  • 3:10 - 3:14
    които бяха потвърдени от шест независими
    организации, проверяващи факти.
  • 3:14 - 3:16
    Така че знаехме кои истории са верни
  • 3:16 - 3:19
    и кои истории са неверни.
  • 3:19 - 3:21
    Можем да измерим тяхното разпространение,
  • 3:21 - 3:22
    скоростта на това разпространение,
  • 3:22 - 3:25
    дълбочината и обхвата
    на разпространението,
  • 3:25 - 3:29
    колко хора са били въвличани в
    тази информационна каскада и т.н.
  • 3:29 - 3:30
    Това, което направихме
    с труда,
  • 3:30 - 3:34
    бе да сравним разпространението на
    истинските спрямо неверните новини.
  • 3:34 - 3:36
    И ето какво открихме.
  • 3:36 - 3:40
    Открихме, че неверните новини се
    разпростират повече, по-бързо и по-дълбоко
  • 3:40 - 3:42
    и в по-голям обхват от истината
  • 3:42 - 3:45
    във всички категории информация,
    които изследвахме,
  • 3:45 - 3:47
    понякога с огромна разлика.
  • 3:48 - 3:51
    Действително неверните политически
    новини бяха най-широко разпространени.
  • 3:51 - 3:55
    Разпространяваха се далеч, по-бързо,
    по-дълбоко и в по-голям обхват
  • 3:55 - 3:57
    от много други типове неверни новини.
  • 3:57 - 3:59
    Щом видяхме това
  • 3:59 - 4:02
    веднага се разтревожихме,
    но бяхме и любопитни.
  • 4:02 - 4:03
    Защо?
  • 4:03 - 4:06
    Защо неверните новини пътуват
    толкова по-надалеч, по-бързо и по-дълбоко
  • 4:06 - 4:08
    и в по-голям обхват от истината?
  • 4:08 - 4:11
    Първата хипотеза,
    която съставихме, беше:
  • 4:11 - 4:15
    "Може би хората, които разпространяват
    неверните новини имат повече последователи
  • 4:15 - 4:18
    или следват повече хора, или
    туийтват по-често.
  • 4:18 - 4:22
    Или може би те са "потвърдени" Туитър
    потребители, с повече правдоподобност,
  • 4:22 - 4:24
    или са в Туитър по-дълго време".
  • 4:24 - 4:26
    Проверихме всяко едно от тези неща.
  • 4:27 - 4:30
    И това, което открихме,
    беше точно обратното.
  • 4:30 - 4:33
    Разпространяващите неверни новини,
    имаха по-малко последователи,
  • 4:33 - 4:35
    следваха по-малко хора,
    по-малко активни са,
  • 4:35 - 4:36
    по-рядко са "потвърдени"
  • 4:36 - 4:39
    и ползват Туитър от
    по-кратък период.
  • 4:39 - 4:40
    И все пак вероятността
  • 4:40 - 4:45
    неверните новини да бъдат ретуитнати
    беше 70% по-висока от тази на истината,
  • 4:45 - 4:48
    като се вземат предвид тези и
    много други фактори.
  • 4:48 - 4:51
    Така че трябваше да намерим
    други обяснения.
  • 4:51 - 4:55
    И създадохме т. нар.
    "хипотеза на новостта".
  • 4:55 - 4:57
    Ако прочетете литературата,
  • 4:57 - 5:01
    добре известно е, че човешкото внимание
    се привлича от новостите,
  • 5:01 - 5:03
    нещата, които са нови в средата.
  • 5:03 - 5:05
    Ако четете литературата
    на социологията,
  • 5:05 - 5:10
    знаете, че обичаме да
    споделяме нова информация.
  • 5:10 - 5:14
    Кара ни да изглеждаме все едно
    имаме достъп до вътрешна информация
  • 5:14 - 5:17
    и покачваме статута си като
    разпространяваме такава информация.
  • 5:18 - 5:24
    Измерихме новостта на
    постъпващ верен и неверен туит
  • 5:24 - 5:28
    сравнено с всичко, което
    човек е видял
  • 5:28 - 5:31
    през 60-те дни преди това в Туитър.
  • 5:31 - 5:34
    Но това не беше достатъчно,
    защото се замислихме
  • 5:34 - 5:38
    "Може би неверните новини са по-нови
    в информационно-теоретичен смисъл,
  • 5:38 - 5:41
    но може би хората
    не ги възприемат като по-нови"
  • 5:42 - 5:46
    За да разберем възприятията
    на хората спрямо неверните новини
  • 5:46 - 5:49
    разгледахме информацията
    и усещанията,
  • 5:50 - 5:54
    съдържащи се в отговорите на
    истински и неистински туитове.
  • 5:54 - 5:55
    И това, което открихме,
  • 5:55 - 5:59
    беше, че сред няколко
    различни мерки на усещане --
  • 5:59 - 6:03
    изненада, отвращение, страх, тъга,
  • 6:03 - 6:05
    очакване, радост и доверие --
  • 6:05 - 6:11
    при неверните новини се наблюдаваше
    значително повече изненада и отвращение
  • 6:11 - 6:14
    в отговорите на неверните туитове.
  • 6:14 - 6:18
    А сред истинските новини се наблюдаваше
    значително повече очакване,
  • 6:18 - 6:20
    радост и доверие
  • 6:20 - 6:22
    в отговорите на верните туитове.
  • 6:22 - 6:26
    Изненадата потвърди
    нашата теория на новостта.
  • 6:26 - 6:31
    Това е ново и изненадващо,
    затова сме по-склонни да го споделим.
  • 6:31 - 6:34
    Междувременно се случваха
    конгресните изслушвания
  • 6:34 - 6:37
    пред двете камари
    на Конгреса в САЩ,
  • 6:37 - 6:41
    където се разглеждаше ролята на ботовете
    при разпространението на дезинформацията.
  • 6:41 - 6:42
    Затова разгледахме и това --
  • 6:42 - 6:46
    използвахме множество изпипани
    алгоритми за засичане на ботове,
  • 6:46 - 6:49
    за да открием ботовете в нашите данни
    и да ги извадим от изследването.
  • 6:49 - 6:52
    Изтеглихме ги,
    после ги вкарахме отново
  • 6:52 - 6:55
    и сравнихме какво се
    случва с измерванията ни.
  • 6:55 - 6:57
    И открихме, че действително
  • 6:57 - 7:01
    ботовете увеличават скоростта на
    разпространение на неверни новини онлайн,
  • 7:01 - 7:04
    но те ускоряват и разпространението
    на истинските новини
  • 7:04 - 7:06
    с приблизително същия темп.
  • 7:06 - 7:09
    Което означава, че ботовете
    не са причината
  • 7:09 - 7:14
    за диференциалното разпространение
    на истината и неистината онлайн.
  • 7:14 - 7:17
    Не можем да избегнем отговорност,
  • 7:17 - 7:21
    защото ние хората сме
    отговорни за това разпространение.
  • 7:22 - 7:26
    Всичко, което ви
    казах досега,
  • 7:26 - 7:28
    за съжаление на всички нас,
  • 7:28 - 7:29
    е добрата новина.
  • 7:31 - 7:35
    Причината е, защото
    сега ще стане много по-лошо.
  • 7:36 - 7:40
    И две конкретни технологии
    ще влошат нещата.
  • 7:40 - 7:45
    Ще видим възхода на
    огромна вълна на синтетичните медии.
  • 7:45 - 7:51
    Фалшиви видеа, фалшиво аудио, които са
    много убедителни за човешкото око.
  • 7:51 - 7:54
    И това ще бъде задвижено
    от две технологии.
  • 7:54 - 7:58
    Първата е позната като
    "генеративно-състезателни мрежи".
  • 7:58 - 8:01
    Това е модел на машинно самообучение
    с две мрежи:
  • 8:01 - 8:02
    дискриминатор,
  • 8:02 - 8:06
    чиято работа е да определи дали
    нещо е истина или лъжа,
  • 8:06 - 8:08
    и генератор,
  • 8:08 - 8:11
    чиято работа е да генерира
    синтетична медия.
  • 8:11 - 8:16
    Синтетичният генератор
    създава синтетично видео или аудио,
  • 8:16 - 8:21
    а дискриминаторът се опитва да различи
    "дали това е истинско, или е фалшиво?"
  • 8:21 - 8:24
    И всъщност е работа
    на генератора
  • 8:24 - 8:28
    да максимизира вероятността,
    да заблуди дискриминатора,
  • 8:28 - 8:32
    че синтетичното видео
    или аудио, което създава,
  • 8:32 - 8:33
    е всъщност истинско.
  • 8:33 - 8:36
    Представете си машина в хиперлууп,
  • 8:36 - 8:39
    опитваща се да стане по-добра
    и по-добра в това да ни заблуждава.
  • 8:39 - 8:42
    Това в комбинация с втората технология,
  • 8:42 - 8:47
    която по същество е демократизацията на
    изкуствения интелект към хората,
  • 8:47 - 8:50
    възможността всеки,
  • 8:50 - 8:52
    без какъвто и да е опит с
    изкуствения интелект
  • 8:52 - 8:54
    или машинното самообучение,
  • 8:54 - 8:58
    да използва такъв вид алгоритми,
    за да генерира синтетични медии,
  • 8:58 - 9:02
    по същество прави създаването на
    видеа много по-лесно.
  • 9:02 - 9:07
    Белият дом публикува невярно
    и подправено видео
  • 9:07 - 9:11
    от спречкването на журналист със стажант,
    който опитва да му вземе микрофона.
  • 9:11 - 9:13
    Изрязани са кадри от видеото,
  • 9:13 - 9:17
    за да изглеждат действията му
    по-груби.
  • 9:17 - 9:21
    И когато видеографи и
    каскадьори
  • 9:21 - 9:23
    са интервюирани за
    този вид техника
  • 9:23 - 9:27
    те казват "Да, използваме я
    във филмите през цялото време,
  • 9:27 - 9:32
    за да изглеждат ударите и ритниците
    по-резки и по-агресивни."
  • 9:32 - 9:34
    След това пуснаха това видео
  • 9:34 - 9:37
    и в известна степен го използваха
    като оправдание
  • 9:37 - 9:41
    да изземат журналистическия пропуск
    на репортера Джим Акоста
  • 9:41 - 9:42
    от Белия дом.
  • 9:42 - 9:47
    И СиЕнЕн трябваше да водят дело, за да
    възстановят журналистическия пропуск.
  • 9:48 - 9:54
    Има около 5 различни пътя, за които
    се сещам и, по които можем да поемем,
  • 9:54 - 9:58
    за да се опитаме да решим някои
    от тези много трудни проблеми днес.
  • 9:58 - 10:00
    Всеки от тях дава надежда,
  • 10:00 - 10:03
    но всеки от тях
    има своите предизвикателства.
  • 10:03 - 10:05
    Първият е "поставяне на етикети".
  • 10:05 - 10:07
    Помислете по следния начин:
  • 10:07 - 10:10
    когато отидете в магазина,
    за да си купите храна за консумация
  • 10:10 - 10:12
    тя е с информативен етикет.
  • 10:12 - 10:14
    Знаете колко калории има в нея,
  • 10:14 - 10:16
    колко мазнини съдържа --
  • 10:16 - 10:20
    но когато консумираме информация,
    няма никакви етикети.
  • 10:20 - 10:22
    Какво се съдържа в тази информация?
  • 10:22 - 10:24
    Източникът надежден ли е?
  • 10:24 - 10:26
    Откъде е събрана тази информация?
  • 10:26 - 10:28
    Не разполагаме с тази информация,
  • 10:28 - 10:30
    когато консумираме информация.
  • 10:30 - 10:33
    Това е потенциално решение,
    но то съдържа предизвикателства.
  • 10:33 - 10:40
    Например, кой в обществото ще решава
    кое е вярно и кое е невярно?
  • 10:40 - 10:42
    Правителствата?
  • 10:42 - 10:43
    Фейсбук?
  • 10:44 - 10:47
    Независим консорциум на
    проверяващите фактите?
  • 10:47 - 10:50
    И кой проверява проверяващите?
  • 10:50 - 10:54
    Друг възможен път е този на стимулите.
  • 10:54 - 10:56
    Знаем, че по време на
    президентските избори в САЩ
  • 10:56 - 11:00
    имаше вълна на дезинформация
    с произход Македония,
  • 11:00 - 11:02
    която нямаше политически мотив,
  • 11:02 - 11:05
    а вместо това имаше икономически мотив.
  • 11:05 - 11:07
    И този икономически мотив съществуваше,
  • 11:07 - 11:10
    защото неверните новини се движат
    по-далеч, по-бързо,
  • 11:10 - 11:12
    и по-дълбоко от истината
  • 11:13 - 11:17
    и можеш да спечелиш пари от реклама
    докато събираш погледи и внимание
  • 11:17 - 11:19
    с този вид информация.
  • 11:19 - 11:23
    Ако можем да ограничим
    разпространението на тази информация
  • 11:23 - 11:26
    това вероятно ще намали
    икономическия стимул
  • 11:26 - 11:29
    за самото ѝ създаване.
  • 11:29 - 11:31
    Трето, можем да мислим за регулации
  • 11:31 - 11:34
    и със сигурност трябва да помислим
    за този вариант.
  • 11:34 - 11:35
    В САЩ в момента
  • 11:35 - 11:40
    разглеждаме какво може да се случи,
    ако Фейсбук и други се регулират.
  • 11:40 - 11:44
    Докато трябва да помислим за неща като
    това да регулираме политическата реч,
  • 11:44 - 11:47
    да обозначим факта, че е
    политическа реч,
  • 11:47 - 11:51
    да се уверим, че чуждестранни лица
    не могат да финансират политическа реч,
  • 11:51 - 11:53
    това също води до своите опасности.
  • 11:54 - 11:58
    Например, Малайзия тъкмо въведе
    шестгодишна ефективна присъда
  • 11:58 - 12:02
    за всеки, който
    разпространява дезинформация.
  • 12:02 - 12:04
    И в авторитарните режими
  • 12:04 - 12:08
    този тип политики могат да се използват
    за потискане на мнението на малцинствата
  • 12:08 - 12:12
    и за продължаване на репресиите.
  • 12:13 - 12:16
    Четвъртата възможност
    е прозрачността.
  • 12:17 - 12:21
    Искаме да знаем как
    работят алгоритмите на Фейсбук.
  • 12:21 - 12:23
    Как данните се комбинират
    с алгоритмите,
  • 12:23 - 12:26
    за да произвеждат резултатите,
    които виждаме?
  • 12:26 - 12:29
    Искаме да отворят кимоното
  • 12:29 - 12:33
    и да ни покажат точно зъбните колела
    на начина на работа на Фейсбук.
  • 12:33 - 12:36
    И ако искаме да разберем ефектът
    на социалните медии върху обществото
  • 12:36 - 12:38
    трябва учени, изследователи
  • 12:38 - 12:41
    и други да имат достъп до
    този вид информация.
  • 12:41 - 12:43
    Но същевременно,
  • 12:43 - 12:46
    искаме Фейсбук да
    заключи всичко,
  • 12:46 - 12:49
    да съхранява данните по сигурен начин.
  • 12:49 - 12:52
    Фейсбук и другите платформи
    на социалните медии
  • 12:52 - 12:55
    са изправени пред това, което
    наричам парадоск на прозрачността.
  • 12:55 - 12:58
    Едновременно искаме от тях
  • 12:58 - 13:03
    да са отворени и прозрачни,
    и в същотото време, да са сигурни.
  • 13:03 - 13:05
    Това е много трудна игла за вдяване,
  • 13:06 - 13:08
    но те ще трябва да вдянат конеца в иглата,
  • 13:08 - 13:11
    ако искаме да достигнем потенциала
    на социалните технологии,
  • 13:11 - 13:13
    и да избегнем рисковете им.
  • 13:13 - 13:18
    Последното нещо, за което се сетихме
    са алгоритмите и машинното самообучение.
  • 13:18 - 13:23
    Технология, създадена, да намира и разбира
    фалшивите новини, разпространението им
  • 13:23 - 13:25
    и да се опита да ограничи потока им.
  • 13:26 - 13:29
    Хората трябва да са в течение
    с тази технология,
  • 13:29 - 13:31
    защото не можем да избягаме
  • 13:31 - 13:35
    от това, че при всяко технологично
    решение или подход
  • 13:35 - 13:39
    съществува фундаментален етически
    и философски въпрос
  • 13:39 - 13:42
    как да дефинираме истината и неистната,
  • 13:42 - 13:46
    на кого даваме властта да дефинира
    истината и неистината
  • 13:46 - 13:48
    и кои мнения са легитимни,
  • 13:48 - 13:52
    кой тип реч
    трябва да се позволява и т.н.
  • 13:52 - 13:54
    Технологията не е решение за това.
  • 13:54 - 13:58
    Етиката и философията са
    решение за това.
  • 13:59 - 14:02
    Почти всяка теория за
    взимането на решения от хората,
  • 14:02 - 14:05
    сътрудничеството и координацията
    между хората
  • 14:05 - 14:09
    в същността си има идея за истината.
  • 14:09 - 14:11
    Но с възхода на фалшивите новини,
  • 14:11 - 14:13
    възхода на фалшивите видеа,
  • 14:13 - 14:15
    възхода на фалшивото аудио,
  • 14:15 - 14:19
    пълзим по ръба на края
    на реалността.
  • 14:19 - 14:23
    където не можем да кажем
    кое е истинско и кое - фалшиво.
  • 14:23 - 14:26
    И това потенциално
    е невероятно опасно.
  • 14:27 - 14:31
    Трябва да сме бдителни
    при защитаването на истината
  • 14:31 - 14:32
    срещу дезинформацията.
  • 14:33 - 14:36
    С нашите технологии, с нашите политики
  • 14:36 - 14:38
    и може би най-важното
  • 14:38 - 14:42
    с нашите индивидуални отговорности,
  • 14:42 - 14:45
    решения, поведение и действия.
  • 14:46 - 14:47
    Много ви благодаря.
  • 14:47 - 14:51
    (аплодисменти)
Title:
Как можем да защитим истината в епохата на дезинформацията
Speaker:
Синан Арал
Description:

Фалшивите новини могат да променят изборите, да потопят икономики и да сеят раздор в ежедневието. Ученият по данните Синан Арал демистифицира как и защо те се разпространяват толкова бързо -- цитирайки едно от най-големите изследвания на дезинформацията -- и идентифицира пет стратегии, които да ни помогнат да разплетем заплетената мрежа между вярното и невярното.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Bulgarian subtitles

Revisions