1 00:00:01,548 --> 00:00:04,064 Bez obzira na to ko ste ili gde živite, 2 00:00:04,088 --> 00:00:06,444 pretpostavljam da imate barem jednog rođaka 3 00:00:06,468 --> 00:00:09,112 koji voli da prosleđuje one mejlove. 4 00:00:09,136 --> 00:00:10,576 Znate o kojima govorim - 5 00:00:10,606 --> 00:00:14,284 one sa sumnjivim tvrdnjama ili video-snimcima zavera. 6 00:00:14,315 --> 00:00:16,983 I verovatno ste ih već blokirali na Fejsbuku 7 00:00:17,007 --> 00:00:19,355 zbog toga što dele objave poput ove. 8 00:00:19,379 --> 00:00:20,783 Ovo je slika banane 9 00:00:20,807 --> 00:00:23,474 kroz čiju sredinu ide čudan crveni krst. 10 00:00:23,498 --> 00:00:25,637 A tekst oko slike upozorava ljude 11 00:00:25,661 --> 00:00:27,819 da ne jedu voće koje ovako izgleda, 12 00:00:27,843 --> 00:00:29,871 jer je navodno u njega ubrizgana krv 13 00:00:29,895 --> 00:00:32,025 zaražena virusom HIV-a. 14 00:00:32,049 --> 00:00:34,652 A poruka iznad jednostavno kaže: 15 00:00:34,676 --> 00:00:37,635 „Molim vas, prosledite da biste spasili živote.“ 16 00:00:37,672 --> 00:00:40,966 Ljudi koji se bave proveravanjem činjenica opovrgavaju to godinama, 17 00:00:40,990 --> 00:00:43,863 ali ovo je jedna od onih glasina koja jednostavno ne nestaje. 18 00:00:43,893 --> 00:00:45,374 Zombi glasina. 19 00:00:45,393 --> 00:00:48,156 I naravno, potpuno je lažna. 20 00:00:48,180 --> 00:00:51,139 Možda vas vuče da se nasmejete ovakvom primeru i kažete: 21 00:00:51,163 --> 00:00:53,397 „Ko bi uopšte poverovao u to?“ 22 00:00:53,419 --> 00:00:55,045 Ali ovo je zombi glasina 23 00:00:55,069 --> 00:00:58,958 zbog toga što zadire u najdublje ljudske strahove o ličnoj bezbednosti, 24 00:00:58,982 --> 00:01:01,157 kao i o bezbednosti onih koje vole. 25 00:01:01,783 --> 00:01:05,056 I ako posmatrate dezinformacije onoliko dugo koliko ih ja posmatram, 26 00:01:05,080 --> 00:01:07,500 znate da je ovo samo jedan od mnogih primera 27 00:01:07,524 --> 00:01:10,571 koji zadiru u najdublje ljudske strahove i osetljivosti. 28 00:01:11,214 --> 00:01:15,583 Svakog dana širom sveta vidimo gomile novih memova na Instagramu 29 00:01:15,607 --> 00:01:18,646 koji podstiču roditelje da ne vakcinišu svoju decu. 30 00:01:18,670 --> 00:01:23,202 Na Jutjubu vidimo snimke koji govore da su klimatske promene prevara. 31 00:01:23,226 --> 00:01:27,528 Na svim platformama viđamo objave koje su napravljene da demonizuju druge 32 00:01:27,552 --> 00:01:31,053 na osnovu njihove rase, religije ili seksualnosti. 33 00:01:32,314 --> 00:01:35,614 Dobro došli u jedan od glavnih izazova našeg vremena. 34 00:01:35,647 --> 00:01:39,672 Kako da održimo internet koji u srži nosi slobodu govora, 35 00:01:39,696 --> 00:01:42,999 dok u isto vreme vodimo računa da sadržaj koji se plasira 36 00:01:43,023 --> 00:01:46,909 ne uzrokuje nepopravljivu štetu našim demokratijama, zajednicama, 37 00:01:46,933 --> 00:01:49,171 i našem fizičkom i mentalnom blagostanju? 38 00:01:49,998 --> 00:01:52,085 Živimo u informacijskom dobu, 39 00:01:52,109 --> 00:01:55,656 a ipak, glavna valuta od koje svi zavisimo - informacija - 40 00:01:55,680 --> 00:01:58,037 se više ne smatra vrednom poverenja 41 00:01:58,061 --> 00:02:00,779 i ponekad deluje potpuno opasno. 42 00:02:00,811 --> 00:02:04,748 To je delom zbog neobuzdanog rasta društvenih platformi 43 00:02:04,772 --> 00:02:06,414 koje nam omogućavaju da listamo, 44 00:02:06,438 --> 00:02:08,794 gde se laži i činjenice nalaze jedne pored drugih, 45 00:02:08,824 --> 00:02:12,235 bez ikakvih uvreženih znakova sigurnosti. 46 00:02:12,268 --> 00:02:15,887 I zaboga, i naš jezik oko ovoga je neverovatno haotičan. 47 00:02:15,911 --> 00:02:19,014 Ljudi su još uvek opsednuti frazom „lažne vesti“, 48 00:02:19,038 --> 00:02:21,569 uprkos činjenici da ona uopšte ne pomaže 49 00:02:21,593 --> 00:02:25,053 i koristi se da objasni nekoliko stvari koje su zapravo veoma različite: 50 00:02:25,077 --> 00:02:28,893 laži, tračeve, prevare, zavere, propagandu. 51 00:02:28,911 --> 00:02:31,823 I volela bih da prestanemo da koristimo frazu 52 00:02:31,847 --> 00:02:34,709 koju su političari širom sveta prisvojili, 53 00:02:34,733 --> 00:02:36,204 i levica i desnica, 54 00:02:36,228 --> 00:02:39,450 i koriste je kao oružje da napadaju slobodnu i nezavisnu štampu. 55 00:02:40,307 --> 00:02:45,009 (Aplauz) 56 00:02:45,033 --> 00:02:48,855 Sada su nam profesionalni mediji potrebniji nego ikad. 57 00:02:48,882 --> 00:02:52,255 Osim toga, većina ovih sadržaja se ne i pretvara da su vesti. 58 00:02:52,279 --> 00:02:54,921 To su memovi, snimci, društvene objave. 59 00:02:54,945 --> 00:02:58,398 I većina nije lažna nego obmanjujuća. 60 00:02:58,422 --> 00:03:01,437 Imamo tendenciju da se uhvatimo za lažno ili istinito. 61 00:03:01,461 --> 00:03:05,493 Ali najveća briga je zapravo pretvaranje konteksta u oružje. 62 00:03:06,855 --> 00:03:08,823 Jer najubedljivija dezinformacija 63 00:03:08,847 --> 00:03:11,895 je oduvek bila ona koja u sebi sadrži zrno istine. 64 00:03:11,919 --> 00:03:15,395 Uzmimo ovaj primer iz Londona, iz marta 2017. godine. 65 00:03:15,419 --> 00:03:16,959 Proširio se jedan tvit 66 00:03:16,983 --> 00:03:20,570 nakon terorističkog incidenta na mostu Vestminster. 67 00:03:20,594 --> 00:03:23,022 Ovo je prava fotografija, nije lažna. 68 00:03:23,046 --> 00:03:25,715 Žena koja se pojavljuje na slici je kasnije intervjuisana 69 00:03:25,755 --> 00:03:28,648 i objasnila je da bila potpuno traumirana. 70 00:03:28,672 --> 00:03:30,410 Razgovarala je sa voljenom osobom 71 00:03:30,434 --> 00:03:33,052 i nije gledala u žrtvu iz poštovanja. 72 00:03:33,076 --> 00:03:37,036 Ali ipak je tvit proširen u ovom kontekstu islamofobije, 73 00:03:37,060 --> 00:03:40,396 sa mnogim heštegovima, uključujući #BanIslam. 74 00:03:40,425 --> 00:03:42,823 Sad, da radite u Tviteru, šta biste učinili? 75 00:03:42,847 --> 00:03:45,409 Da li biste to skinuli ili ostavili? 76 00:03:46,553 --> 00:03:49,982 Moja prva, emocionalna reakcija je da se to skine. 77 00:03:50,006 --> 00:03:52,558 Mrzim kako je ova slika predstavljena. 78 00:03:52,585 --> 00:03:54,973 Ali sloboda izražavanja je ljudsko pravo 79 00:03:54,997 --> 00:03:58,232 i ako počnemo da uklanjamo sadržaje zbog kojih se osećamo neprijatno, 80 00:03:58,246 --> 00:03:59,476 bićemo u nevolji. 81 00:03:59,500 --> 00:04:01,794 Ovo možda izgleda kao jasan slučaj, 82 00:04:01,818 --> 00:04:03,516 ali većina govora to nije. 83 00:04:03,540 --> 00:04:05,976 Veoma je teško postaviti granice. 84 00:04:06,000 --> 00:04:08,281 Ono što je za jednu osobu dobronamerna odluka, 85 00:04:08,305 --> 00:04:10,722 za drugu je direktna cenzura. 86 00:04:10,759 --> 00:04:13,688 Sada znamo da je ovaj nalog, Texas Lone Star, 87 00:04:13,712 --> 00:04:16,942 bio deo šire ruske kampanje dezinformisanja, 88 00:04:16,966 --> 00:04:19,117 koja je od tada skinuta. 89 00:04:19,141 --> 00:04:21,288 Da li bi to promenilo vaše mišljenje? 90 00:04:21,322 --> 00:04:22,481 Promenilo bi moje, 91 00:04:22,505 --> 00:04:24,516 jer sad je to slučaj organizovane kampanje 92 00:04:24,536 --> 00:04:26,045 da se napravi razdor. 93 00:04:26,069 --> 00:04:27,610 Za vas koji mislite 94 00:04:27,640 --> 00:04:30,885 da će veštačka inteligencija rešiti sve naše probleme, 95 00:04:30,909 --> 00:04:32,964 mislim da možemo da se složimo da smo daleko 96 00:04:32,984 --> 00:04:35,795 od veštačke inteligencije koja može da razume ovakve objave. 97 00:04:36,856 --> 00:04:39,363 Želim da objasnim tri međusobno prepletena problema 98 00:04:39,387 --> 00:04:41,760 koji ovo čine tako složenim 99 00:04:41,784 --> 00:04:45,321 i onda da razmotrimo načine na koje možemo misliti o ovim izazovima. 100 00:04:45,348 --> 00:04:49,238 Prvo, mi jednostavno nemamo racionalan odnos sa informacijama, 101 00:04:49,262 --> 00:04:50,730 taj odnos je emotivan. 102 00:04:50,754 --> 00:04:54,548 Nije istina da će više činjenica popraviti sve, 103 00:04:54,572 --> 00:04:57,672 jer algoritmi koji određuju koji sadržaj vidimo, 104 00:04:57,696 --> 00:05:00,823 pa, oni su programirani da nagrade naše emotivne odgovore. 105 00:05:00,847 --> 00:05:02,228 A kada se plašimo, 106 00:05:02,252 --> 00:05:05,426 pojednostavljene priče, zaverenička objašnjenja 107 00:05:05,450 --> 00:05:08,868 i jezik koji demonizuje druge su mnogo učinkovitiji. 108 00:05:09,538 --> 00:05:11,412 Osim toga, za mnoge od ovih kompanija 109 00:05:11,436 --> 00:05:13,982 je poslovni model povezan sa pažnjom, 110 00:05:14,006 --> 00:05:17,696 što znači da će algoritmi uvek biti naklonjeni emocijama. 111 00:05:18,371 --> 00:05:23,049 Drugo, većina govora o kojima govorim ovde su legalni. 112 00:05:23,081 --> 00:05:26,406 Bilo bi drugačije da govorim o slikama seksualnog zlostavljanja dece, 113 00:05:26,436 --> 00:05:28,843 ili o sadržaju koji podstiče nasilje. 114 00:05:28,867 --> 00:05:32,137 Može biti savršeno legalno objaviti potpunu laž. 115 00:05:33,130 --> 00:05:37,164 Ali ljudi govore o uklanjanju „problematičnog“ ili „štetnog“ sadržaja, 116 00:05:37,188 --> 00:05:39,497 bez jasne definicije šta pod tim podrazumevaju, 117 00:05:39,527 --> 00:05:41,009 uključujući i Marka Zakerberga, 118 00:05:41,039 --> 00:05:44,851 koji je nedavno zatražio globalnu regulaciju za kontrolisanje javnog govora. 119 00:05:44,870 --> 00:05:47,085 Mene zabrinjava što vidimo vlade 120 00:05:47,109 --> 00:05:48,401 širom sveta 121 00:05:48,425 --> 00:05:51,101 kako donose ishitrene odluke 122 00:05:51,125 --> 00:05:53,871 koje će možda pokrenuti mnogo ozbiljnije posledice 123 00:05:53,895 --> 00:05:55,979 kada se radi o našem govoru. 124 00:05:56,006 --> 00:05:59,712 Čak i kada bismo mogli da odlučimo kakav govor da skinemo ili ostavimo, 125 00:05:59,736 --> 00:06:01,910 nikada nije bilo toliko javnog govora. 126 00:06:01,934 --> 00:06:04,065 Svake sekunde, širom sveta, 127 00:06:04,089 --> 00:06:06,196 ljudi objavljuju milione sadržaja 128 00:06:06,220 --> 00:06:07,388 na različitim jezicima, 129 00:06:07,412 --> 00:06:10,180 u različitim kulturnim kontekstima. 130 00:06:10,204 --> 00:06:12,736 Jednostavno nikad nismo imali dobre mehanizme 131 00:06:12,760 --> 00:06:14,498 da proveravamo toliko sadržaja, 132 00:06:14,522 --> 00:06:17,323 bilo da ga kreiraju ljudi ili tehnologija. 133 00:06:18,284 --> 00:06:22,228 I treće, ove kompanije - Gugl, Tviter, Fejsbuk, Votsap - 134 00:06:22,252 --> 00:06:25,093 one su deo šireg informacionog ekosistema. 135 00:06:25,117 --> 00:06:28,469 Volimo da ih okrivimo za sve, ali zapravo, 136 00:06:28,493 --> 00:06:32,323 masovni mediji i odabrani političari mogu imati jednaku ulogu 137 00:06:32,347 --> 00:06:35,050 u podsticanju glasina i zavera kada to žele. 138 00:06:35,800 --> 00:06:40,744 Kao i mi, kada bez razmišljanja prosledimo obmanjujuć ili razdoran sadržaj 139 00:06:40,768 --> 00:06:42,053 bez truda. 140 00:06:42,077 --> 00:06:43,877 Dodajemo zagađenju. 141 00:06:45,236 --> 00:06:47,854 Znam da svi tražimo jednostavno rešenje. 142 00:06:47,878 --> 00:06:49,935 Ali takvo ne postoji. 143 00:06:49,950 --> 00:06:54,395 Bilo kakvo rešenje će morati da se primeni na ogromnom nivou, na nivou interneta, 144 00:06:54,419 --> 00:06:57,680 i da, platforme su navikle da rade na tom nivou. 145 00:06:57,704 --> 00:07:01,636 Ali da li možemo i da li bi trebalo da im dozvolimo da reše ove probleme? 146 00:07:01,668 --> 00:07:02,900 Svakako da pokušavaju. 147 00:07:02,924 --> 00:07:07,010 Ali većina nas bi se složila da zapravo ne želimo da globalne korporacije 148 00:07:07,034 --> 00:07:09,366 budu čuvari istine i pravde na internetu. 149 00:07:09,390 --> 00:07:12,227 Mislim da bi se i platforme složile sa tim. 150 00:07:12,257 --> 00:07:15,138 A trenutno oni sami sebe ocenjuju. 151 00:07:15,162 --> 00:07:16,360 Vole da nam govore 152 00:07:16,384 --> 00:07:18,273 kako njihove intervencije funkcionišu, 153 00:07:18,303 --> 00:07:21,307 ali oni pišu svoje izveštaje o transparentnosti, 154 00:07:21,337 --> 00:07:25,169 pa mi ne možemo nezavisno da proverimo šta se zapravo dešava. 155 00:07:26,431 --> 00:07:29,773 (Aplauz) 156 00:07:29,797 --> 00:07:32,749 I neka bude jasno da se većina promena koje vidimo 157 00:07:32,773 --> 00:07:35,767 dešava tek pošto novinari pokrenu istrage 158 00:07:35,791 --> 00:07:37,402 i pronađu dokaze o pristrasnosti 159 00:07:37,426 --> 00:07:40,255 ili sadržaj koji krši njihove pravilnike. 160 00:07:40,815 --> 00:07:45,410 Dakle, da, ove kompanije moraju imati važnu ulogu u ovom procesu, 161 00:07:45,434 --> 00:07:46,994 ali ne mogu da ga kontrolišu. 162 00:07:47,855 --> 00:07:49,823 A šta je sa vladama? 163 00:07:49,863 --> 00:07:52,959 Mnogi veruju da je globalna regulacija naša poslednja nada, 164 00:07:52,983 --> 00:07:55,863 u smislu raščišćavanja našeg informacionog ekosistema. 165 00:07:55,887 --> 00:07:59,053 Ali ja vidim zakonodavce koji se muče da budu u toku 166 00:07:59,077 --> 00:08:01,418 sa brzim promenama u tehnologiji. 167 00:08:01,442 --> 00:08:03,346 I još gore, oni rade u mraku, 168 00:08:03,370 --> 00:08:05,191 jer nemaju pristup podacima 169 00:08:05,215 --> 00:08:08,225 da bi razumeli šta se dešava na ovim platformama. 170 00:08:08,260 --> 00:08:11,331 Uostalom, kojim vladama bismo verovali da ovo rade? 171 00:08:11,355 --> 00:08:14,125 Potreban nam je globalni, a ne nacionalni dogovor. 172 00:08:15,419 --> 00:08:17,696 Karika koja nedostaje smo mi. 173 00:08:17,720 --> 00:08:21,233 Ljudi koji svakog dana koriste te tehnologije. 174 00:08:21,260 --> 00:08:23,963 Da li možemo da napravimo novu infrastrukturu 175 00:08:23,983 --> 00:08:26,371 koja će da podrži kvalitetne informacije? 176 00:08:26,371 --> 00:08:27,601 Pa, ja verujem da možemo, 177 00:08:27,625 --> 00:08:30,982 i imam nekoliko ideja šta bismo mogli da uradimo. 178 00:08:31,006 --> 00:08:34,109 Prvo, ako ozbiljno želimo da u ovo uključimo javnost, 179 00:08:34,133 --> 00:08:36,514 da li možemo da uzmemo Vikipediju kao inspiraciju? 180 00:08:36,538 --> 00:08:38,362 Oni su pokazali šta je moguće. 181 00:08:38,386 --> 00:08:39,537 Da, nije savršeno, 182 00:08:39,561 --> 00:08:41,615 ali pokazali su da sa pravim strukturama, 183 00:08:41,645 --> 00:08:44,434 sa globalnim stavom i mnogo, mnogo transparentnosti, 184 00:08:44,464 --> 00:08:47,974 možete da napravite nešto čemu će mnogo ljudi verovati. 185 00:08:47,998 --> 00:08:51,160 Moramo da pronađemo način da iskoristimo kolektivnu mudrost 186 00:08:51,184 --> 00:08:53,493 i iskustvo svih korisnika. 187 00:08:53,517 --> 00:08:56,163 Ovo naročito važi za žene, ljude tamne kože, 188 00:08:56,187 --> 00:08:57,533 i marginalizovane grupe. 189 00:08:57,557 --> 00:08:58,723 Jer, znate šta? 190 00:08:58,747 --> 00:09:01,472 Oni su stručnjaci kad se radi o mržnji i dezinformacijama, 191 00:09:01,502 --> 00:09:05,022 jer oni su već dugo mete ovih kampanja. 192 00:09:05,046 --> 00:09:07,396 Tokom godina skreću pažnju, 193 00:09:07,420 --> 00:09:09,085 ali niko ih ne sluša. 194 00:09:09,109 --> 00:09:10,749 To mora da se promeni. 195 00:09:10,777 --> 00:09:15,133 Da li bismo mogli da napravimo Vikipediju za poverenje? 196 00:09:15,157 --> 00:09:19,346 Da li možemo da pronađemo način da korisnici daju predloge? 197 00:09:19,370 --> 00:09:23,067 Mogli bi da daju predloge u vezi sa teškim odlukama o upravljanju sadržajem. 198 00:09:23,091 --> 00:09:24,898 Mogli bi da daju povratnu informaciju 199 00:09:24,898 --> 00:09:27,619 kada platforme odluče da unesu promene. 200 00:09:28,241 --> 00:09:32,403 Drugo, iskustva ljudi sa informacijama su lična. 201 00:09:32,427 --> 00:09:35,070 Moje vesti na Fejsbuku su mnogo drugačije od vaših. 202 00:09:35,094 --> 00:09:37,839 Vaši predlozi na Jutjubu su veoma drugačiji od mojih. 203 00:09:37,863 --> 00:09:40,355 To nam onemogućava da pregledamo 204 00:09:40,379 --> 00:09:42,782 koje informacije ljudi vide. 205 00:09:42,815 --> 00:09:44,388 Da li bismo mogli da zamislimo 206 00:09:44,388 --> 00:09:49,006 da razvijemo nekakvo centralizovano otvoreno skladište anonimnih podataka 207 00:09:49,030 --> 00:09:52,174 u koje su već ugrađene privatnost i etičke norme? 208 00:09:52,220 --> 00:09:53,998 Zamislite šta bismo mogli da saznamo 209 00:09:54,022 --> 00:09:57,283 ako bismo izgradili globalnu mrežu zainteresovanih građana 210 00:09:57,307 --> 00:10:01,081 koji žele da doniraju svoje društvene podatke nauci. 211 00:10:01,121 --> 00:10:02,863 Jer mi veoma malo znamo 212 00:10:02,887 --> 00:10:05,768 o dugoročnim posledicama mržnje i dezinformacija 213 00:10:05,792 --> 00:10:08,217 na stavove i ponašanja ljudi. 214 00:10:08,236 --> 00:10:09,403 A većina onoga što znamo 215 00:10:09,427 --> 00:10:11,620 je sprovedena u SAD-u, 216 00:10:11,644 --> 00:10:14,025 uprkos činjenici da je ovo globalni problem. 217 00:10:14,049 --> 00:10:16,154 Moramo i na tome da radimo. 218 00:10:16,192 --> 00:10:17,182 I treće, 219 00:10:17,212 --> 00:10:19,676 možemo li da pronađemo način da složimo kockice? 220 00:10:19,700 --> 00:10:23,138 Nijedan sektor, a kamoli nevladina organizacija, startap ili vlada 221 00:10:23,162 --> 00:10:24,584 neće ovo rešiti. 222 00:10:24,608 --> 00:10:27,172 Ali širom sveta postoje veoma pametni ljudi 223 00:10:27,196 --> 00:10:28,577 koji rade na ovim izazovima, 224 00:10:28,601 --> 00:10:32,177 od novinskih redakcija, civilnog društva, akademaca, grupa aktivista. 225 00:10:32,201 --> 00:10:34,099 Neke možete videti ovde. 226 00:10:34,123 --> 00:10:37,050 Neki prave indikatore kredibilnosti sadržaja. 227 00:10:37,074 --> 00:10:38,444 Drugi proveravaju činjenice, 228 00:10:38,444 --> 00:10:41,935 kako bi platforme mogle da potisnu lažne tvrdnje, snimke i slike. 229 00:10:41,959 --> 00:10:44,970 Neprofitna organizacija čije sam osnivanje pomogla, First Draft, 230 00:10:44,970 --> 00:10:48,088 radi sa novinskim redakcijama širom sveta koje su inače konkurenti 231 00:10:48,088 --> 00:10:51,231 i pomaže da izgrade istraživačke programe koji sarađuju. 232 00:10:51,231 --> 00:10:53,540 A Deni Hilis, softverski arhitekta, 233 00:10:53,564 --> 00:10:55,945 programira novi sistem koji se zove The Underlay, 234 00:10:55,969 --> 00:10:58,744 koji će biti baza svih javnih izjava činjenica 235 00:10:58,768 --> 00:11:00,097 povezanih sa izvorima, 236 00:11:00,121 --> 00:11:03,775 kako bi ljudi i algoritmi bolje prosudili šta je pouzdano. 237 00:11:04,800 --> 00:11:08,156 A edukatori širom sveta testiraju razne tehnike 238 00:11:08,180 --> 00:11:11,664 za nalaženje načina da ljudi kritički razmatraju sadržaj koju konzumiraju. 239 00:11:12,633 --> 00:11:15,774 Svi ovi napori su izuzetni, ali svi rade izolovano 240 00:11:15,798 --> 00:11:18,478 i mnogi nisu dovoljno finansirani. 241 00:11:18,502 --> 00:11:20,555 Postoje takođe stotine veoma pametnih ljudi 242 00:11:20,579 --> 00:11:22,231 koji rade u ovim kompanijama, 243 00:11:22,255 --> 00:11:24,580 ali opet, ovi napori deluju nepovezano 244 00:11:24,604 --> 00:11:28,541 jer razvijaju različita rešenja za iste probleme. 245 00:11:29,205 --> 00:11:31,474 Kako možemo dovesti ljude 246 00:11:31,498 --> 00:11:34,776 na jedno fizičko mesto na nekoliko dana ili nedelja, 247 00:11:34,800 --> 00:11:37,196 kako bi radili zajedno na ovim problemima, 248 00:11:37,220 --> 00:11:39,038 ali iz svojih drugačijih perspektiva? 249 00:11:39,062 --> 00:11:40,402 Možemo li to da uradimo? 250 00:11:40,426 --> 00:11:43,665 Da li možemo da napravimo koordinisani, ambiciozni odgovor, 251 00:11:43,689 --> 00:11:47,798 koji odgovara veličini i složenosti problema? 252 00:11:47,819 --> 00:11:49,192 Stvarno mislim da možemo. 253 00:11:49,216 --> 00:11:52,805 Hajde da zajedno ponovo izgradimo naše informaciono zajedničko dobro. 254 00:11:52,819 --> 00:11:54,009 Hvala vam. 255 00:11:54,033 --> 00:11:57,761 (Aplauz)