Как можем да защитим истината в епохата на дезинформацията
-
0:00 - 0:07Така, на 23 април 2013 г.,
-
0:07 - 0:12Асошиейтид Прес
публикуваха следното в Туитър. -
0:12 - 0:15В него се казваше:
"Новини от последните минути: -
0:15 - 0:17Две експлозии в Белия дом
-
0:17 - 0:20и Барак Обама е ранен".
-
0:20 - 0:26Този туийт беше ретуитнат 4000 пъти
за по-малко от пет минути -
0:26 - 0:28и след това стана широко популярен.
-
0:29 - 0:33Този туит не беше истинска новина
качена от Асошиейтид Прес. -
0:33 - 0:36Всъщност беше грешна новина
или фалшива новина, -
0:36 - 0:39разпространена от
сирийски хакери, -
0:39 - 0:44проникнали в туитър акаунта
на Асошиейтид прес. -
0:44 - 0:48Тяхната цел била да смутят обществото,
но те смущават много повече. -
0:48 - 0:51Тъй като автоматизираните алгоритми
за търговия -
0:51 - 0:54веднага прихванали настроението
на този туийт, -
0:54 - 0:57те започнали търгуване, основано
на възможността -
0:57 - 1:01президентът на Съединените Американски
Щати да е ранен или убит -
1:01 - 1:02при тази експлозия.
-
1:02 - 1:04Щом започнали да туитват
-
1:04 - 1:08веднага докарали фондовия
пазар до срив -
1:08 - 1:13унищожавайки 140 милиарда долара стойност
на собствения капитал за един ден. -
1:13 - 1:18Робърт Мюлер, специален адвокат
прокурор в САЩ, -
1:18 - 1:21издава обвинителни актове
срещу три руски компании -
1:21 - 1:24и 13 руснаци
-
1:24 - 1:27за конспирация с цел
измама на САЩ -
1:27 - 1:31като се намесват в президентските
избори през 2016 г. -
1:32 - 1:35Това, което обвинението разказва
като история, -
1:35 - 1:39е историята на Агенцията за
проучвания в интернет, -
1:39 - 1:42сенчестата ръка на Кремъл
в социалните медии. -
1:43 - 1:46Само по време на президентските избори
-
1:46 - 1:48усилията на Интернет агенцията
-
1:48 - 1:53достигат 126 милиона души във
Фейсбук в САЩ, -
1:53 - 1:56публикува 3 милиона отделни туийта
-
1:56 - 2:00и 43 часа съдържание в ЮТюб.
-
2:00 - 2:02Като всичкото е фалшиво --
-
2:02 - 2:08дезинформация, създадена да сее
раздор в президентските избори на САЩ. -
2:09 - 2:12Скорошно изследване на
Оксфордския университет -
2:12 - 2:15показва, че в последните
шведски избори -
2:15 - 2:19една трета от цялата информация,
разпространявана в интернет -
2:19 - 2:21за изборите,
-
2:21 - 2:23била фалшива или дезинформация.
-
2:23 - 2:28Допълнително, тези типове кампании
на дезинформация в социалните медии -
2:28 - 2:32могат да разпространят т.нар.
"геноцидна пропаганда", -
2:32 - 2:35например срещу малцинството
рохинджа в Бирма, -
2:35 - 2:38което задейства масови убийства в Индия.
-
2:38 - 2:39Изучавахме фалшиви новини
-
2:39 - 2:43и започнахме да ги изучаваме преди
да станат популярен термин. -
2:43 - 2:48И скоро публикувахме най-голямото
досега лонгитюдно изследване -
2:48 - 2:50на разпространението на фалшиви
новини онлайн -
2:50 - 2:54на корицата на "Сайънс" през
март тази година. -
2:55 - 2:59Изследвахме всички потвърдени
верни и неверни новини, -
2:59 - 3:00разпространявани в Туитър
-
3:00 - 3:04от създаването му през 2006 г. до 2017 г.
-
3:05 - 3:07И след това изследвахме тази информация,
-
3:07 - 3:10изследвахме потвърдените новини,
-
3:10 - 3:14които бяха потвърдени от шест независими
организации, проверяващи факти. -
3:14 - 3:16Така че знаехме кои истории са верни
-
3:16 - 3:19и кои истории са неверни.
-
3:19 - 3:21Можем да измерим тяхното разпространение,
-
3:21 - 3:22скоростта на това разпространение,
-
3:22 - 3:25дълбочината и обхвата
на разпространението, -
3:25 - 3:29колко хора са били въвличани в
тази информационна каскада и т.н. -
3:29 - 3:30Това, което направихме
с труда, -
3:30 - 3:34бе да сравним разпространението на
истинските спрямо неверните новини. -
3:34 - 3:36И ето какво открихме.
-
3:36 - 3:40Открихме, че неверните новини се
разпростират повече, по-бързо и по-дълбоко -
3:40 - 3:42и в по-голям обхват от истината
-
3:42 - 3:45във всички категории информация,
които изследвахме, -
3:45 - 3:47понякога с огромна разлика.
-
3:48 - 3:51Действително неверните политически
новини бяха най-широко разпространени. -
3:51 - 3:55Разпространяваха се далеч, по-бързо,
по-дълбоко и в по-голям обхват -
3:55 - 3:57от много други типове неверни новини.
-
3:57 - 3:59Щом видяхме това
-
3:59 - 4:02веднага се разтревожихме,
но бяхме и любопитни. -
4:02 - 4:03Защо?
-
4:03 - 4:06Защо неверните новини пътуват
толкова по-надалеч, по-бързо и по-дълбоко -
4:06 - 4:08и в по-голям обхват от истината?
-
4:08 - 4:11Първата хипотеза,
която съставихме, беше: -
4:11 - 4:15"Може би хората, които разпространяват
неверните новини имат повече последователи -
4:15 - 4:18или следват повече хора, или
туийтват по-често. -
4:18 - 4:22Или може би те са "потвърдени" Туитър
потребители, с повече правдоподобност, -
4:22 - 4:24или са в Туитър по-дълго време".
-
4:24 - 4:26Проверихме всяко едно от тези неща.
-
4:27 - 4:30И това, което открихме,
беше точно обратното. -
4:30 - 4:33Разпространяващите неверни новини,
имаха по-малко последователи, -
4:33 - 4:35следваха по-малко хора,
по-малко активни са, -
4:35 - 4:36по-рядко са "потвърдени"
-
4:36 - 4:39и ползват Туитър от
по-кратък период. -
4:39 - 4:40И все пак вероятността
-
4:40 - 4:45неверните новини да бъдат ретуитнати
беше 70% по-висока от тази на истината, -
4:45 - 4:48като се вземат предвид тези и
много други фактори. -
4:48 - 4:51Така че трябваше да намерим
други обяснения. -
4:51 - 4:55И създадохме т. нар.
"хипотеза на новостта". -
4:55 - 4:57Ако прочетете литературата,
-
4:57 - 5:01добре известно е, че човешкото внимание
се привлича от новостите, -
5:01 - 5:03нещата, които са нови в средата.
-
5:03 - 5:05Ако четете литературата
на социологията, -
5:05 - 5:10знаете, че обичаме да
споделяме нова информация. -
5:10 - 5:14Кара ни да изглеждаме все едно
имаме достъп до вътрешна информация -
5:14 - 5:17и покачваме статута си като
разпространяваме такава информация. -
5:18 - 5:24Измерихме новостта на
постъпващ верен и неверен туит -
5:24 - 5:28сравнено с всичко, което
човек е видял -
5:28 - 5:31през 60-те дни преди това в Туитър.
-
5:31 - 5:34Но това не беше достатъчно,
защото се замислихме -
5:34 - 5:38"Може би неверните новини са по-нови
в информационно-теоретичен смисъл, -
5:38 - 5:41но може би хората
не ги възприемат като по-нови" -
5:42 - 5:46За да разберем възприятията
на хората спрямо неверните новини -
5:46 - 5:49разгледахме информацията
и усещанията, -
5:50 - 5:54съдържащи се в отговорите на
истински и неистински туитове. -
5:54 - 5:55И това, което открихме,
-
5:55 - 5:59беше, че сред няколко
различни мерки на усещане -- -
5:59 - 6:03изненада, отвращение, страх, тъга,
-
6:03 - 6:05очакване, радост и доверие --
-
6:05 - 6:11при неверните новини се наблюдаваше
значително повече изненада и отвращение -
6:11 - 6:14в отговорите на неверните туитове.
-
6:14 - 6:18А сред истинските новини се наблюдаваше
значително повече очакване, -
6:18 - 6:20радост и доверие
-
6:20 - 6:22в отговорите на верните туитове.
-
6:22 - 6:26Изненадата потвърди
нашата теория на новостта. -
6:26 - 6:31Това е ново и изненадващо,
затова сме по-склонни да го споделим. -
6:31 - 6:34Междувременно се случваха
конгресните изслушвания -
6:34 - 6:37пред двете камари
на Конгреса в САЩ, -
6:37 - 6:41където се разглеждаше ролята на ботовете
при разпространението на дезинформацията. -
6:41 - 6:42Затова разгледахме и това --
-
6:42 - 6:46използвахме множество изпипани
алгоритми за засичане на ботове, -
6:46 - 6:49за да открием ботовете в нашите данни
и да ги извадим от изследването. -
6:49 - 6:52Изтеглихме ги,
после ги вкарахме отново -
6:52 - 6:55и сравнихме какво се
случва с измерванията ни. -
6:55 - 6:57И открихме, че действително
-
6:57 - 7:01ботовете увеличават скоростта на
разпространение на неверни новини онлайн, -
7:01 - 7:04но те ускоряват и разпространението
на истинските новини -
7:04 - 7:06с приблизително същия темп.
-
7:06 - 7:09Което означава, че ботовете
не са причината -
7:09 - 7:14за диференциалното разпространение
на истината и неистината онлайн. -
7:14 - 7:17Не можем да избегнем отговорност,
-
7:17 - 7:21защото ние хората сме
отговорни за това разпространение. -
7:22 - 7:26Всичко, което ви
казах досега, -
7:26 - 7:28за съжаление на всички нас,
-
7:28 - 7:29е добрата новина.
-
7:31 - 7:35Причината е, защото
сега ще стане много по-лошо. -
7:36 - 7:40И две конкретни технологии
ще влошат нещата. -
7:40 - 7:45Ще видим възхода на
огромна вълна на синтетичните медии. -
7:45 - 7:51Фалшиви видеа, фалшиво аудио, които са
много убедителни за човешкото око. -
7:51 - 7:54И това ще бъде задвижено
от две технологии. -
7:54 - 7:58Първата е позната като
"генеративно-състезателни мрежи". -
7:58 - 8:01Това е модел на машинно самообучение
с две мрежи: -
8:01 - 8:02дискриминатор,
-
8:02 - 8:06чиято работа е да определи дали
нещо е истина или лъжа, -
8:06 - 8:08и генератор,
-
8:08 - 8:11чиято работа е да генерира
синтетична медия. -
8:11 - 8:16Синтетичният генератор
създава синтетично видео или аудио, -
8:16 - 8:21а дискриминаторът се опитва да различи
"дали това е истинско, или е фалшиво?" -
8:21 - 8:24И всъщност е работа
на генератора -
8:24 - 8:28да максимизира вероятността,
да заблуди дискриминатора, -
8:28 - 8:32че синтетичното видео
или аудио, което създава, -
8:32 - 8:33е всъщност истинско.
-
8:33 - 8:36Представете си машина в хиперлууп,
-
8:36 - 8:39опитваща се да стане по-добра
и по-добра в това да ни заблуждава. -
8:39 - 8:42Това в комбинация с втората технология,
-
8:42 - 8:47която по същество е демократизацията на
изкуствения интелект към хората, -
8:47 - 8:50възможността всеки,
-
8:50 - 8:52без какъвто и да е опит с
изкуствения интелект -
8:52 - 8:54или машинното самообучение,
-
8:54 - 8:58да използва такъв вид алгоритми,
за да генерира синтетични медии, -
8:58 - 9:02по същество прави създаването на
видеа много по-лесно. -
9:02 - 9:07Белият дом публикува невярно
и подправено видео -
9:07 - 9:11от спречкването на журналист със стажант,
който опитва да му вземе микрофона. -
9:11 - 9:13Изрязани са кадри от видеото,
-
9:13 - 9:17за да изглеждат действията му
по-груби. -
9:17 - 9:21И когато видеографи и
каскадьори -
9:21 - 9:23са интервюирани за
този вид техника -
9:23 - 9:27те казват "Да, използваме я
във филмите през цялото време, -
9:27 - 9:32за да изглеждат ударите и ритниците
по-резки и по-агресивни." -
9:32 - 9:34След това пуснаха това видео
-
9:34 - 9:37и в известна степен го използваха
като оправдание -
9:37 - 9:41да изземат журналистическия пропуск
на репортера Джим Акоста -
9:41 - 9:42от Белия дом.
-
9:42 - 9:47И СиЕнЕн трябваше да водят дело, за да
възстановят журналистическия пропуск. -
9:48 - 9:54Има около 5 различни пътя, за които
се сещам и, по които можем да поемем, -
9:54 - 9:58за да се опитаме да решим някои
от тези много трудни проблеми днес. -
9:58 - 10:00Всеки от тях дава надежда,
-
10:00 - 10:03но всеки от тях
има своите предизвикателства. -
10:03 - 10:05Първият е "поставяне на етикети".
-
10:05 - 10:07Помислете по следния начин:
-
10:07 - 10:10когато отидете в магазина,
за да си купите храна за консумация -
10:10 - 10:12тя е с информативен етикет.
-
10:12 - 10:14Знаете колко калории има в нея,
-
10:14 - 10:16колко мазнини съдържа --
-
10:16 - 10:20но когато консумираме информация,
няма никакви етикети. -
10:20 - 10:22Какво се съдържа в тази информация?
-
10:22 - 10:24Източникът надежден ли е?
-
10:24 - 10:26Откъде е събрана тази информация?
-
10:26 - 10:28Не разполагаме с тази информация,
-
10:28 - 10:30когато консумираме информация.
-
10:30 - 10:33Това е потенциално решение,
но то съдържа предизвикателства. -
10:33 - 10:40Например, кой в обществото ще решава
кое е вярно и кое е невярно? -
10:40 - 10:42Правителствата?
-
10:42 - 10:43Фейсбук?
-
10:44 - 10:47Независим консорциум на
проверяващите фактите? -
10:47 - 10:50И кой проверява проверяващите?
-
10:50 - 10:54Друг възможен път е този на стимулите.
-
10:54 - 10:56Знаем, че по време на
президентските избори в САЩ -
10:56 - 11:00имаше вълна на дезинформация
с произход Македония, -
11:00 - 11:02която нямаше политически мотив,
-
11:02 - 11:05а вместо това имаше икономически мотив.
-
11:05 - 11:07И този икономически мотив съществуваше,
-
11:07 - 11:10защото неверните новини се движат
по-далеч, по-бързо, -
11:10 - 11:12и по-дълбоко от истината
-
11:13 - 11:17и можеш да спечелиш пари от реклама
докато събираш погледи и внимание -
11:17 - 11:19с този вид информация.
-
11:19 - 11:23Ако можем да ограничим
разпространението на тази информация -
11:23 - 11:26това вероятно ще намали
икономическия стимул -
11:26 - 11:29за самото ѝ създаване.
-
11:29 - 11:31Трето, можем да мислим за регулации
-
11:31 - 11:34и със сигурност трябва да помислим
за този вариант. -
11:34 - 11:35В САЩ в момента
-
11:35 - 11:40разглеждаме какво може да се случи,
ако Фейсбук и други се регулират. -
11:40 - 11:44Докато трябва да помислим за неща като
това да регулираме политическата реч, -
11:44 - 11:47да обозначим факта, че е
политическа реч, -
11:47 - 11:51да се уверим, че чуждестранни лица
не могат да финансират политическа реч, -
11:51 - 11:53това също води до своите опасности.
-
11:54 - 11:58Например, Малайзия тъкмо въведе
шестгодишна ефективна присъда -
11:58 - 12:02за всеки, който
разпространява дезинформация. -
12:02 - 12:04И в авторитарните режими
-
12:04 - 12:08този тип политики могат да се използват
за потискане на мнението на малцинствата -
12:08 - 12:12и за продължаване на репресиите.
-
12:13 - 12:16Четвъртата възможност
е прозрачността. -
12:17 - 12:21Искаме да знаем как
работят алгоритмите на Фейсбук. -
12:21 - 12:23Как данните се комбинират
с алгоритмите, -
12:23 - 12:26за да произвеждат резултатите,
които виждаме? -
12:26 - 12:29Искаме да отворят кимоното
-
12:29 - 12:33и да ни покажат точно зъбните колела
на начина на работа на Фейсбук. -
12:33 - 12:36И ако искаме да разберем ефектът
на социалните медии върху обществото -
12:36 - 12:38трябва учени, изследователи
-
12:38 - 12:41и други да имат достъп до
този вид информация. -
12:41 - 12:43Но същевременно,
-
12:43 - 12:46искаме Фейсбук да
заключи всичко, -
12:46 - 12:49да съхранява данните по сигурен начин.
-
12:49 - 12:52Фейсбук и другите платформи
на социалните медии -
12:52 - 12:55са изправени пред това, което
наричам парадоск на прозрачността. -
12:55 - 12:58Едновременно искаме от тях
-
12:58 - 13:03да са отворени и прозрачни,
и в същотото време, да са сигурни. -
13:03 - 13:05Това е много трудна игла за вдяване,
-
13:06 - 13:08но те ще трябва да вдянат конеца в иглата,
-
13:08 - 13:11ако искаме да достигнем потенциала
на социалните технологии, -
13:11 - 13:13и да избегнем рисковете им.
-
13:13 - 13:18Последното нещо, за което се сетихме
са алгоритмите и машинното самообучение. -
13:18 - 13:23Технология, създадена, да намира и разбира
фалшивите новини, разпространението им -
13:23 - 13:25и да се опита да ограничи потока им.
-
13:26 - 13:29Хората трябва да са в течение
с тази технология, -
13:29 - 13:31защото не можем да избягаме
-
13:31 - 13:35от това, че при всяко технологично
решение или подход -
13:35 - 13:39съществува фундаментален етически
и философски въпрос -
13:39 - 13:42как да дефинираме истината и неистната,
-
13:42 - 13:46на кого даваме властта да дефинира
истината и неистината -
13:46 - 13:48и кои мнения са легитимни,
-
13:48 - 13:52кой тип реч
трябва да се позволява и т.н. -
13:52 - 13:54Технологията не е решение за това.
-
13:54 - 13:58Етиката и философията са
решение за това. -
13:59 - 14:02Почти всяка теория за
взимането на решения от хората, -
14:02 - 14:05сътрудничеството и координацията
между хората -
14:05 - 14:09в същността си има идея за истината.
-
14:09 - 14:11Но с възхода на фалшивите новини,
-
14:11 - 14:13възхода на фалшивите видеа,
-
14:13 - 14:15възхода на фалшивото аудио,
-
14:15 - 14:19пълзим по ръба на края
на реалността. -
14:19 - 14:23където не можем да кажем
кое е истинско и кое - фалшиво. -
14:23 - 14:26И това потенциално
е невероятно опасно. -
14:27 - 14:31Трябва да сме бдителни
при защитаването на истината -
14:31 - 14:32срещу дезинформацията.
-
14:33 - 14:36С нашите технологии, с нашите политики
-
14:36 - 14:38и може би най-важното
-
14:38 - 14:42с нашите индивидуални отговорности,
-
14:42 - 14:45решения, поведение и действия.
-
14:46 - 14:47Много ви благодаря.
-
14:47 - 14:51(аплодисменти)
- Title:
- Как можем да защитим истината в епохата на дезинформацията
- Speaker:
- Синан Арал
- Description:
-
Фалшивите новини могат да променят изборите, да потопят икономики и да сеят раздор в ежедневието. Ученият по данните Синан Арал демистифицира как и защо те се разпространяват толкова бързо -- цитирайки едно от най-големите изследвания на дезинформацията -- и идентифицира пет стратегии, които да ни помогнат да разплетем заплетената мрежа между вярното и невярното.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Anton Hikov approved Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Petya Pavlova accepted Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Petya Pavlova edited Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Petya Pavlova edited Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Petya Pavlova edited Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Petya Pavlova edited Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Petya Pavlova edited Bulgarian subtitles for How we can protect truth in the age of misinformation | ||
Niya Koleva edited Bulgarian subtitles for How we can protect truth in the age of misinformation |