0:00:01.548,0:00:04.064 Bez obzira na to ko ste ili gde živite, 0:00:04.088,0:00:06.444 pretpostavljam da imate[br]barem jednog rođaka 0:00:06.468,0:00:09.112 koji voli da prosleđuje one mejlove. 0:00:09.136,0:00:10.576 Znate o kojima govorim - 0:00:10.606,0:00:14.284 one sa sumnjivim tvrdnjama[br]ili video-snimcima zavera. 0:00:14.315,0:00:16.983 I verovatno ste ih već[br]blokirali na Fejsbuku 0:00:17.007,0:00:19.355 zbog toga što dele objave poput ove. 0:00:19.379,0:00:20.783 Ovo je slika banane 0:00:20.807,0:00:23.474 kroz čiju sredinu ide čudan crveni krst. 0:00:23.498,0:00:25.637 A tekst oko slike upozorava ljude 0:00:25.661,0:00:27.819 da ne jedu voće koje ovako izgleda, 0:00:27.843,0:00:29.871 jer je navodno u njega ubrizgana krv 0:00:29.895,0:00:32.025 zaražena virusom HIV-a. 0:00:32.049,0:00:34.652 A poruka iznad jednostavno kaže: 0:00:34.676,0:00:37.635 „Molim vas, prosledite[br]da biste spasili živote.“ 0:00:37.672,0:00:40.966 Ljudi koji se bave proveravanjem činjenica[br]opovrgavaju to godinama, 0:00:40.990,0:00:43.863 ali ovo je jedna od onih glasina[br]koja jednostavno ne nestaje. 0:00:43.893,0:00:45.374 Zombi glasina. 0:00:45.393,0:00:48.156 I naravno, potpuno je lažna. 0:00:48.180,0:00:51.139 Možda vas vuče da se nasmejete[br]ovakvom primeru i kažete: 0:00:51.163,0:00:53.397 „Ko bi uopšte poverovao u to?“ 0:00:53.419,0:00:55.045 Ali ovo je zombi glasina 0:00:55.069,0:00:58.958 zbog toga što zadire u najdublje[br]ljudske strahove o ličnoj bezbednosti, 0:00:58.982,0:01:01.157 kao i o bezbednosti onih koje vole. 0:01:01.783,0:01:05.056 I ako posmatrate dezinformacije[br]onoliko dugo koliko ih ja posmatram, 0:01:05.080,0:01:07.500 znate da je ovo samo jedan[br]od mnogih primera 0:01:07.524,0:01:10.571 koji zadiru u najdublje[br]ljudske strahove i osetljivosti. 0:01:11.214,0:01:15.583 Svakog dana širom sveta[br]vidimo gomile novih memova na Instagramu 0:01:15.607,0:01:18.646 koji podstiču roditelje[br]da ne vakcinišu svoju decu. 0:01:18.670,0:01:23.202 Na Jutjubu vidimo snimke koji govore[br]da su klimatske promene prevara. 0:01:23.226,0:01:27.528 Na svim platformama viđamo objave[br]koje su napravljene da demonizuju druge 0:01:27.552,0:01:31.053 na osnovu njihove rase,[br]religije ili seksualnosti. 0:01:32.314,0:01:35.614 Dobro došli u jedan od glavnih[br]izazova našeg vremena. 0:01:35.647,0:01:39.672 Kako da održimo internet[br]koji u srži nosi slobodu govora, 0:01:39.696,0:01:42.999 dok u isto vreme vodimo računa[br]da sadržaj koji se plasira 0:01:43.023,0:01:46.909 ne uzrokuje nepopravljivu štetu[br]našim demokratijama, zajednicama, 0:01:46.933,0:01:49.171 i našem fizičkom i mentalnom blagostanju? 0:01:49.998,0:01:52.085 Živimo u informacijskom dobu, 0:01:52.109,0:01:55.656 a ipak, glavna valuta[br]od koje svi zavisimo - informacija - 0:01:55.680,0:01:58.037 se više ne smatra vrednom poverenja 0:01:58.061,0:02:00.779 i ponekad deluje potpuno opasno. 0:02:00.811,0:02:04.748 To je delom zbog neobuzdanog rasta[br]društvenih platformi 0:02:04.772,0:02:06.414 koje nam omogućavaju da listamo, 0:02:06.438,0:02:08.794 gde se laži i činjenice[br]nalaze jedne pored drugih, 0:02:08.824,0:02:12.235 bez ikakvih uvreženih znakova sigurnosti. 0:02:12.268,0:02:15.887 I zaboga, i naš jezik oko ovoga[br]je neverovatno haotičan. 0:02:15.911,0:02:19.014 Ljudi su još uvek opsednuti[br]frazom „lažne vesti“, 0:02:19.038,0:02:21.569 uprkos činjenici da ona uopšte ne pomaže 0:02:21.593,0:02:25.053 i koristi se da objasni nekoliko stvari[br]koje su zapravo veoma različite: 0:02:25.077,0:02:28.893 laži, tračeve, prevare,[br]zavere, propagandu. 0:02:28.911,0:02:31.823 I volela bih da prestanemo[br]da koristimo frazu 0:02:31.847,0:02:34.709 koju su političari širom sveta prisvojili, 0:02:34.733,0:02:36.204 i levica i desnica, 0:02:36.228,0:02:39.450 i koriste je kao oružje[br]da napadaju slobodnu i nezavisnu štampu. 0:02:40.307,0:02:45.009 (Aplauz) 0:02:45.033,0:02:48.855 Sada su nam profesionalni mediji[br]potrebniji nego ikad. 0:02:48.882,0:02:52.255 Osim toga, većina ovih sadržaja[br]se ne i pretvara da su vesti. 0:02:52.279,0:02:54.921 To su memovi, snimci, društvene objave. 0:02:54.945,0:02:58.398 I većina nije lažna nego obmanjujuća. 0:02:58.422,0:03:01.437 Imamo tendenciju da se uhvatimo[br]za lažno ili istinito. 0:03:01.461,0:03:05.493 Ali najveća briga je zapravo[br]pretvaranje konteksta u oružje. 0:03:06.855,0:03:08.823 Jer najubedljivija dezinformacija 0:03:08.847,0:03:11.895 je oduvek bila ona[br]koja u sebi sadrži zrno istine. 0:03:11.919,0:03:15.395 Uzmimo ovaj primer iz Londona,[br]iz marta 2017. godine. 0:03:15.419,0:03:16.959 Proširio se jedan tvit 0:03:16.983,0:03:20.570 nakon terorističkog incidenta[br]na mostu Vestminster. 0:03:20.594,0:03:23.022 Ovo je prava fotografija, nije lažna. 0:03:23.046,0:03:25.715 Žena koja se pojavljuje na slici[br]je kasnije intervjuisana 0:03:25.755,0:03:28.648 i objasnila je da bila potpuno traumirana. 0:03:28.672,0:03:30.410 Razgovarala je sa voljenom osobom 0:03:30.434,0:03:33.052 i nije gledala u žrtvu iz poštovanja. 0:03:33.076,0:03:37.036 Ali ipak je tvit proširen[br]u ovom kontekstu islamofobije, 0:03:37.060,0:03:40.396 sa mnogim heštegovima,[br]uključujući #BanIslam. 0:03:40.425,0:03:42.823 Sad, da radite u Tviteru,[br]šta biste učinili? 0:03:42.847,0:03:45.409 Da li biste to skinuli ili ostavili? 0:03:46.553,0:03:49.982 Moja prva, emocionalna reakcija[br]je da se to skine. 0:03:50.006,0:03:52.558 Mrzim kako je ova slika predstavljena. 0:03:52.585,0:03:54.973 Ali sloboda izražavanja je ljudsko pravo 0:03:54.997,0:03:58.232 i ako počnemo da uklanjamo sadržaje[br]zbog kojih se osećamo neprijatno, 0:03:58.246,0:03:59.476 bićemo u nevolji. 0:03:59.500,0:04:01.794 Ovo možda izgleda kao jasan slučaj, 0:04:01.818,0:04:03.516 ali većina govora to nije. 0:04:03.540,0:04:05.976 Veoma je teško postaviti granice. 0:04:06.000,0:04:08.281 Ono što je za jednu osobu[br]dobronamerna odluka, 0:04:08.305,0:04:10.722 za drugu je direktna cenzura. 0:04:10.759,0:04:13.688 Sada znamo da je ovaj nalog,[br]Texas Lone Star, 0:04:13.712,0:04:16.942 bio deo šire ruske[br]kampanje dezinformisanja, 0:04:16.966,0:04:19.117 koja je od tada skinuta. 0:04:19.141,0:04:21.288 Da li bi to promenilo vaše mišljenje? 0:04:21.322,0:04:22.481 Promenilo bi moje, 0:04:22.505,0:04:24.516 jer sad je to slučaj organizovane kampanje 0:04:24.536,0:04:26.045 da se napravi razdor. 0:04:26.069,0:04:27.610 Za vas koji mislite 0:04:27.640,0:04:30.885 da će veštačka inteligencija[br]rešiti sve naše probleme, 0:04:30.909,0:04:32.964 mislim da možemo[br]da se složimo da smo daleko 0:04:32.984,0:04:35.795 od veštačke inteligencije koja može[br]da razume ovakve objave. 0:04:36.856,0:04:39.363 Želim da objasnim tri[br]međusobno prepletena problema 0:04:39.387,0:04:41.760 koji ovo čine tako složenim 0:04:41.784,0:04:45.321 i onda da razmotrimo načine[br]na koje možemo misliti o ovim izazovima. 0:04:45.348,0:04:49.238 Prvo, mi jednostavno nemamo[br]racionalan odnos sa informacijama, 0:04:49.262,0:04:50.730 taj odnos je emotivan. 0:04:50.754,0:04:54.548 Nije istina da će više[br]činjenica popraviti sve, 0:04:54.572,0:04:57.672 jer algoritmi koji određuju[br]koji sadržaj vidimo, 0:04:57.696,0:05:00.823 pa, oni su programirani[br]da nagrade naše emotivne odgovore. 0:05:00.847,0:05:02.228 A kada se plašimo, 0:05:02.252,0:05:05.426 pojednostavljene priče,[br]zaverenička objašnjenja 0:05:05.450,0:05:08.868 i jezik koji demonizuje druge[br]su mnogo učinkovitiji. 0:05:09.538,0:05:11.412 Osim toga, za mnoge od ovih kompanija 0:05:11.436,0:05:13.982 je poslovni model povezan sa pažnjom, 0:05:14.006,0:05:17.696 što znači da će algoritmi[br]uvek biti naklonjeni emocijama. 0:05:18.371,0:05:23.049 Drugo, većina govora[br]o kojima govorim ovde su legalni. 0:05:23.081,0:05:26.406 Bilo bi drugačije da govorim o slikama[br]seksualnog zlostavljanja dece, 0:05:26.436,0:05:28.843 ili o sadržaju koji podstiče nasilje. 0:05:28.867,0:05:32.137 Može biti savršeno legalno[br]objaviti potpunu laž. 0:05:33.130,0:05:37.164 Ali ljudi govore o uklanjanju[br]„problematičnog“ ili „štetnog“ sadržaja, 0:05:37.188,0:05:39.497 bez jasne definicije[br]šta pod tim podrazumevaju, 0:05:39.527,0:05:41.009 uključujući i Marka Zakerberga, 0:05:41.039,0:05:44.851 koji je nedavno zatražio globalnu[br]regulaciju za kontrolisanje javnog govora. 0:05:44.870,0:05:47.085 Mene zabrinjava što vidimo vlade 0:05:47.109,0:05:48.401 širom sveta 0:05:48.425,0:05:51.101 kako donose ishitrene odluke 0:05:51.125,0:05:53.871 koje će možda pokrenuti[br]mnogo ozbiljnije posledice 0:05:53.895,0:05:55.979 kada se radi o našem govoru. 0:05:56.006,0:05:59.712 Čak i kada bismo mogli da odlučimo[br]kakav govor da skinemo ili ostavimo, 0:05:59.736,0:06:01.910 nikada nije bilo toliko javnog govora. 0:06:01.934,0:06:04.065 Svake sekunde, širom sveta, 0:06:04.089,0:06:06.196 ljudi objavljuju milione sadržaja 0:06:06.220,0:06:07.388 na različitim jezicima, 0:06:07.412,0:06:10.180 u različitim kulturnim kontekstima. 0:06:10.204,0:06:12.736 Jednostavno nikad nismo imali[br]dobre mehanizme 0:06:12.760,0:06:14.498 da proveravamo toliko sadržaja, 0:06:14.522,0:06:17.323 bilo da ga kreiraju ljudi ili tehnologija. 0:06:18.284,0:06:22.228 I treće, ove kompanije -[br]Gugl, Tviter, Fejsbuk, Votsap - 0:06:22.252,0:06:25.093 one su deo šireg informacionog ekosistema. 0:06:25.117,0:06:28.469 Volimo da ih okrivimo za sve, ali zapravo, 0:06:28.493,0:06:32.323 masovni mediji i odabrani političari[br]mogu imati jednaku ulogu 0:06:32.347,0:06:35.050 u podsticanju glasina[br]i zavera kada to žele. 0:06:35.800,0:06:40.744 Kao i mi, kada bez razmišljanja[br]prosledimo obmanjujuć ili razdoran sadržaj 0:06:40.768,0:06:42.053 bez truda. 0:06:42.077,0:06:43.877 Dodajemo zagađenju. 0:06:45.236,0:06:47.854 Znam da svi tražimo jednostavno rešenje. 0:06:47.878,0:06:49.935 Ali takvo ne postoji. 0:06:49.950,0:06:54.395 Bilo kakvo rešenje će morati da se primeni[br]na ogromnom nivou, na nivou interneta, 0:06:54.419,0:06:57.680 i da, platforme su navikle[br]da rade na tom nivou. 0:06:57.704,0:07:01.636 Ali da li možemo i da li bi trebalo[br]da im dozvolimo da reše ove probleme? 0:07:01.668,0:07:02.900 Svakako da pokušavaju. 0:07:02.924,0:07:07.010 Ali većina nas bi se složila da zapravo[br]ne želimo da globalne korporacije 0:07:07.034,0:07:09.366 budu čuvari istine i pravde na internetu. 0:07:09.390,0:07:12.227 Mislim da bi se i platforme[br]složile sa tim. 0:07:12.257,0:07:15.138 A trenutno oni sami sebe ocenjuju. 0:07:15.162,0:07:16.360 Vole da nam govore 0:07:16.384,0:07:18.273 kako njihove intervencije funkcionišu, 0:07:18.303,0:07:21.307 ali oni pišu svoje izveštaje[br]o transparentnosti, 0:07:21.337,0:07:25.169 pa mi ne možemo nezavisno[br]da proverimo šta se zapravo dešava. 0:07:26.431,0:07:29.773 (Aplauz) 0:07:29.797,0:07:32.749 I neka bude jasno[br]da se većina promena koje vidimo 0:07:32.773,0:07:35.767 dešava tek pošto novinari pokrenu istrage 0:07:35.791,0:07:37.402 i pronađu dokaze o pristrasnosti 0:07:37.426,0:07:40.255 ili sadržaj koji krši njihove pravilnike. 0:07:40.815,0:07:45.410 Dakle, da, ove kompanije moraju imati[br]važnu ulogu u ovom procesu, 0:07:45.434,0:07:46.994 ali ne mogu da ga kontrolišu. 0:07:47.855,0:07:49.823 A šta je sa vladama? 0:07:49.863,0:07:52.959 Mnogi veruju da je globalna regulacija[br]naša poslednja nada, 0:07:52.983,0:07:55.863 u smislu raščišćavanja[br]našeg informacionog ekosistema. 0:07:55.887,0:07:59.053 Ali ja vidim zakonodavce[br]koji se muče da budu u toku 0:07:59.077,0:08:01.418 sa brzim promenama u tehnologiji. 0:08:01.442,0:08:03.346 I još gore, oni rade u mraku, 0:08:03.370,0:08:05.191 jer nemaju pristup podacima 0:08:05.215,0:08:08.225 da bi razumeli šta se dešava[br]na ovim platformama. 0:08:08.260,0:08:11.331 Uostalom, kojim vladama[br]bismo verovali da ovo rade? 0:08:11.355,0:08:14.125 Potreban nam je globalni,[br]a ne nacionalni dogovor. 0:08:15.419,0:08:17.696 Karika koja nedostaje smo mi. 0:08:17.720,0:08:21.233 Ljudi koji svakog dana[br]koriste te tehnologije. 0:08:21.260,0:08:23.963 Da li možemo da napravimo[br]novu infrastrukturu 0:08:23.983,0:08:26.371 koja će da podrži kvalitetne informacije? 0:08:26.371,0:08:27.601 Pa, ja verujem da možemo, 0:08:27.625,0:08:30.982 i imam nekoliko ideja[br]šta bismo mogli da uradimo. 0:08:31.006,0:08:34.109 Prvo, ako ozbiljno želimo[br]da u ovo uključimo javnost, 0:08:34.133,0:08:36.514 da li možemo da uzmemo[br]Vikipediju kao inspiraciju? 0:08:36.538,0:08:38.362 Oni su pokazali šta je moguće. 0:08:38.386,0:08:39.537 Da, nije savršeno, 0:08:39.561,0:08:41.615 ali pokazali su da sa pravim strukturama, 0:08:41.645,0:08:44.434 sa globalnim stavom i mnogo,[br]mnogo transparentnosti, 0:08:44.464,0:08:47.974 možete da napravite nešto[br]čemu će mnogo ljudi verovati. 0:08:47.998,0:08:51.160 Moramo da pronađemo način[br]da iskoristimo kolektivnu mudrost 0:08:51.184,0:08:53.493 i iskustvo svih korisnika. 0:08:53.517,0:08:56.163 Ovo naročito važi za žene,[br]ljude tamne kože, 0:08:56.187,0:08:57.533 i marginalizovane grupe. 0:08:57.557,0:08:58.723 Jer, znate šta? 0:08:58.747,0:09:01.472 Oni su stručnjaci kad se radi[br]o mržnji i dezinformacijama, 0:09:01.502,0:09:05.022 jer oni su već dugo mete ovih kampanja. 0:09:05.046,0:09:07.396 Tokom godina skreću pažnju, 0:09:07.420,0:09:09.085 ali niko ih ne sluša. 0:09:09.109,0:09:10.749 To mora da se promeni. 0:09:10.777,0:09:15.133 Da li bismo mogli da napravimo[br]Vikipediju za poverenje? 0:09:15.157,0:09:19.346 Da li možemo da pronađemo način[br]da korisnici daju predloge? 0:09:19.370,0:09:23.067 Mogli bi da daju predloge u vezi sa[br]teškim odlukama o upravljanju sadržajem. 0:09:23.091,0:09:24.898 Mogli bi da daju povratnu informaciju 0:09:24.898,0:09:27.619 kada platforme odluče da unesu promene. 0:09:28.241,0:09:32.403 Drugo, iskustva ljudi[br]sa informacijama su lična. 0:09:32.427,0:09:35.070 Moje vesti na Fejsbuku[br]su mnogo drugačije od vaših. 0:09:35.094,0:09:37.839 Vaši predlozi na Jutjubu[br]su veoma drugačiji od mojih. 0:09:37.863,0:09:40.355 To nam onemogućava da pregledamo 0:09:40.379,0:09:42.782 koje informacije ljudi vide. 0:09:42.815,0:09:44.388 Da li bismo mogli da zamislimo 0:09:44.388,0:09:49.006 da razvijemo nekakvo centralizovano[br]otvoreno skladište anonimnih podataka 0:09:49.030,0:09:52.174 u koje su već ugrađene[br]privatnost i etičke norme? 0:09:52.220,0:09:53.998 Zamislite šta bismo mogli da saznamo 0:09:54.022,0:09:57.283 ako bismo izgradili globalnu mrežu[br]zainteresovanih građana 0:09:57.307,0:10:01.081 koji žele da doniraju[br]svoje društvene podatke nauci. 0:10:01.121,0:10:02.863 Jer mi veoma malo znamo 0:10:02.887,0:10:05.768 o dugoročnim posledicama[br]mržnje i dezinformacija 0:10:05.792,0:10:08.217 na stavove i ponašanja ljudi. 0:10:08.236,0:10:09.403 A većina onoga što znamo 0:10:09.427,0:10:11.620 je sprovedena u SAD-u, 0:10:11.644,0:10:14.025 uprkos činjenici[br]da je ovo globalni problem. 0:10:14.049,0:10:16.154 Moramo i na tome da radimo. 0:10:16.192,0:10:17.182 I treće, 0:10:17.212,0:10:19.676 možemo li da pronađemo način[br]da složimo kockice? 0:10:19.700,0:10:23.138 Nijedan sektor, a kamoli[br]nevladina organizacija, startap ili vlada 0:10:23.162,0:10:24.584 neće ovo rešiti. 0:10:24.608,0:10:27.172 Ali širom sveta postoje[br]veoma pametni ljudi 0:10:27.196,0:10:28.577 koji rade na ovim izazovima, 0:10:28.601,0:10:32.177 od novinskih redakcija, civilnog društva,[br]akademaca, grupa aktivista. 0:10:32.201,0:10:34.099 Neke možete videti ovde. 0:10:34.123,0:10:37.050 Neki prave indikatore[br]kredibilnosti sadržaja. 0:10:37.074,0:10:38.444 Drugi proveravaju činjenice, 0:10:38.444,0:10:41.935 kako bi platforme mogle da potisnu[br]lažne tvrdnje, snimke i slike. 0:10:41.959,0:10:44.970 Neprofitna organizacija[br]čije sam osnivanje pomogla, First Draft, 0:10:44.970,0:10:48.088 radi sa novinskim redakcijama[br]širom sveta koje su inače konkurenti 0:10:48.088,0:10:51.231 i pomaže da izgrade[br]istraživačke programe koji sarađuju. 0:10:51.231,0:10:53.540 A Deni Hilis, softverski arhitekta, 0:10:53.564,0:10:55.945 programira novi sistem[br]koji se zove The Underlay, 0:10:55.969,0:10:58.744 koji će biti baza svih[br]javnih izjava činjenica 0:10:58.768,0:11:00.097 povezanih sa izvorima, 0:11:00.121,0:11:03.775 kako bi ljudi i algoritmi[br]bolje prosudili šta je pouzdano. 0:11:04.800,0:11:08.156 A edukatori širom sveta[br]testiraju razne tehnike 0:11:08.180,0:11:11.664 za nalaženje načina da ljudi kritički[br]razmatraju sadržaj koju konzumiraju. 0:11:12.633,0:11:15.774 Svi ovi napori su izuzetni,[br]ali svi rade izolovano 0:11:15.798,0:11:18.478 i mnogi nisu dovoljno finansirani. 0:11:18.502,0:11:20.555 Postoje takođe stotine[br]veoma pametnih ljudi 0:11:20.579,0:11:22.231 koji rade u ovim kompanijama, 0:11:22.255,0:11:24.580 ali opet, ovi napori deluju nepovezano 0:11:24.604,0:11:28.541 jer razvijaju različita rešenja[br]za iste probleme. 0:11:29.205,0:11:31.474 Kako možemo dovesti ljude 0:11:31.498,0:11:34.776 na jedno fizičko mesto[br]na nekoliko dana ili nedelja, 0:11:34.800,0:11:37.196 kako bi radili zajedno na ovim problemima, 0:11:37.220,0:11:39.038 ali iz svojih drugačijih perspektiva? 0:11:39.062,0:11:40.402 Možemo li to da uradimo? 0:11:40.426,0:11:43.665 Da li možemo da napravimo[br]koordinisani, ambiciozni odgovor, 0:11:43.689,0:11:47.798 koji odgovara veličini[br]i složenosti problema? 0:11:47.819,0:11:49.192 Stvarno mislim da možemo. 0:11:49.216,0:11:52.805 Hajde da zajedno ponovo izgradimo[br]naše informaciono zajedničko dobro. 0:11:52.819,0:11:54.009 Hvala vam. 0:11:54.033,0:11:57.761 (Aplauz)