1 00:00:01,373 --> 00:00:03,117 Da li je do mene, 2 00:00:03,141 --> 00:00:05,473 ili ovde ima i drugih ljudi 3 00:00:05,497 --> 00:00:07,841 koji su malo razočarani u demokratiju? 4 00:00:08,986 --> 00:00:11,322 (Aplauz) 5 00:00:12,141 --> 00:00:14,212 Pogledajmo neke brojke. 6 00:00:14,934 --> 00:00:17,107 Ako pogledamo širom sveta, 7 00:00:17,131 --> 00:00:21,023 prosečna izlaznost na predsedničkim izborima 8 00:00:21,047 --> 00:00:22,698 u proteklih 30 godina 9 00:00:22,722 --> 00:00:25,344 je bila svega 67 procenata. 10 00:00:26,329 --> 00:00:28,302 Ako pođemo do Evrope 11 00:00:28,326 --> 00:00:32,754 i pogledamo ljude koji su učestvovali na parlamentarnim izborima EU, 12 00:00:32,778 --> 00:00:34,849 prosečna izlaznost na tim izborima 13 00:00:34,873 --> 00:00:36,977 je svega 42 procenta. 14 00:00:38,125 --> 00:00:39,794 Pođimo sad u Njujork, 15 00:00:39,818 --> 00:00:44,499 i pogledajmo koliko je ljudi glasalo na poslednjim izborima za gradonačelnika. 16 00:00:44,523 --> 00:00:48,340 Otkrićemo da se svega 24 procenta ljudi pojavilo na glasanju. 17 00:00:49,063 --> 00:00:52,158 To znači da kad bi se i dalje prikazivali „Prijatelji”, 18 00:00:52,182 --> 00:00:55,530 Džoi i možda Fibi bi se pojavili na glasanju. 19 00:00:55,554 --> 00:00:57,404 (Smeh) 20 00:00:57,434 --> 00:01:01,860 I ne možete da ih krivite, jer je ljudima dosta političara. 21 00:01:01,884 --> 00:01:05,771 I ljudima je dosta drugih ljudi koji koriste podatke koje su oni stvorili 22 00:01:05,795 --> 00:01:07,993 da bi razgovarali sa prijateljima i porodicom, 23 00:01:08,017 --> 00:01:10,491 kako bi usmeravali političku propagandu na njih. 24 00:01:10,519 --> 00:01:13,247 Međutim, radi se o tome da ovo nije novina. 25 00:01:13,271 --> 00:01:16,496 Danas ljudi koriste lajkove radi ciljane propagande ka vama, 26 00:01:16,520 --> 00:01:19,893 a nekad su koristili poštanski broj, vaš pol ili vaš uzrast, 27 00:01:19,917 --> 00:01:23,487 jer je ideja ciljanja ljudi u svrhe političke propagande 28 00:01:23,511 --> 00:01:25,513 stara koliko i politika. 29 00:01:25,530 --> 00:01:27,808 A razlog zašto je ta ideja prisutna 30 00:01:27,832 --> 00:01:31,674 je zato što demokratija ima osnovnu ranjivost. 31 00:01:31,710 --> 00:01:33,452 A radi se o ideji zastupnika. 32 00:01:34,049 --> 00:01:37,993 U principu, demokratija je mogućnost da ljudi vrše vlast. 33 00:01:38,017 --> 00:01:41,835 U praksi, međutim, moramo da delegiramo tu moć zastupniku 34 00:01:41,859 --> 00:01:44,524 koji može da vrši vlast za nas. 35 00:01:44,561 --> 00:01:46,386 Taj zastupnik je usko grlo, 36 00:01:46,410 --> 00:01:47,707 ili slaba tačka. 37 00:01:47,731 --> 00:01:51,680 To je mesto koje biste ciljali, ako želite da napadnete demokratiju, 38 00:01:51,704 --> 00:01:55,193 jer možete da kontrolišete demokratiju bilo kontrolisanjem tog zastupnika 39 00:01:55,217 --> 00:01:57,925 ili kontrolisanjem načina na koji ga ljudi biraju. 40 00:01:57,945 --> 00:01:59,481 Veliko pitanje glasi: 41 00:01:59,505 --> 00:02:01,209 da li je ovo kraj istorije? 42 00:02:01,989 --> 00:02:05,092 Da li je ovo najbolje što možemo 43 00:02:05,878 --> 00:02:08,945 ili zapravo postoje alternative? 44 00:02:10,130 --> 00:02:12,484 Neki ljudi su razmišljali o alternativama, 45 00:02:12,508 --> 00:02:16,187 a jedna od zamisli u opticaju je zamisao o direktnoj demokratiji. 46 00:02:16,790 --> 00:02:19,369 Radi se o zamisli zaobilaženja političara u potpunosti, 47 00:02:19,369 --> 00:02:21,696 gde ljudi direktno glasaju o pitanjima, 48 00:02:21,720 --> 00:02:24,385 direktno glasaju za predloge zakona. 49 00:02:24,415 --> 00:02:25,801 Međutim, ova ideja je naivna, 50 00:02:25,801 --> 00:02:28,946 jer ima previše stvari koje bismo morali da biramo. 51 00:02:28,970 --> 00:02:31,752 Ako pogledate 114. kongres SAD-a, 52 00:02:31,776 --> 00:02:34,263 videćete da je Predstavnički dom 53 00:02:34,287 --> 00:02:37,176 razmatrao preko 6 000 predloga zakona, 54 00:02:37,200 --> 00:02:39,856 Senat je razmatrao preko 3 000 predloga zakona, 55 00:02:39,880 --> 00:02:42,688 a odobrili su preko 300 zakona. 56 00:02:42,712 --> 00:02:44,291 To bi bile brojne odluke 57 00:02:44,315 --> 00:02:46,502 koje bi svaka osoba morala nedeljno da donese, 58 00:02:46,526 --> 00:02:48,668 o temama o kojima malo znaju. 59 00:02:49,229 --> 00:02:51,570 Dakle, imamo veliki problem sa kognitivnim opsegom 60 00:02:51,570 --> 00:02:55,526 ako ćemo da razmišljamo o direktnoj demokratiji kao mogućoj alternativi. 61 00:02:56,205 --> 00:03:00,640 Pa neki ljudi razmatraju ideju tečne demokratije ili fluidne demokratije, 62 00:03:00,664 --> 00:03:04,440 a to je ideja da date punomoć za vašu političku moć nekome, 63 00:03:04,464 --> 00:03:06,234 ko može tu punomoć dati nekom drugom, 64 00:03:06,234 --> 00:03:08,729 da biste na kraju stvorili veliku mrežu pratilaca 65 00:03:08,753 --> 00:03:12,047 u kojoj se na kraju nalazi nekolicina ljudi koja donosi odluke, 66 00:03:12,071 --> 00:03:15,214 u ime svih njihovih pratilaca i pratilaca tih pratilaca. 67 00:03:16,326 --> 00:03:20,455 Međutim, ni ova ideja ne rešava problem kognitivnog opsega, 68 00:03:20,479 --> 00:03:24,146 i iskreno, prilično je slična ideji da imate zastupnika. 69 00:03:24,795 --> 00:03:27,917 Zato ću ja danas da budem malo provokativan, 70 00:03:27,937 --> 00:03:30,577 pa ću vas pitati: 71 00:03:30,601 --> 00:03:37,163 šta ako bismo umesto pokušavanja da zaobiđemo političare, 72 00:03:37,187 --> 00:03:39,387 pokušali da ih automatizujemo? 73 00:03:45,871 --> 00:03:48,797 Ideja automatizacije nije nova. 74 00:03:48,821 --> 00:03:50,901 Pokrenuta je pre više od 300 godina, 75 00:03:50,925 --> 00:03:53,993 kada su francuski tkači odlučili da automatizuju razboj. 76 00:03:54,820 --> 00:03:59,180 Pobednik tog industrijskog rata je bio Žozef-Mari Žakard. 77 00:03:59,204 --> 00:04:00,985 On je bio francuski tkalac i trgovac 78 00:04:00,985 --> 00:04:03,419 koji je spojio razboj sa parnim motorom 79 00:04:03,443 --> 00:04:05,633 kako bi napravio automatski razboj. 80 00:04:05,657 --> 00:04:08,410 Sa tim automatskim razbojima on je pridobio kontrolu. 81 00:04:08,434 --> 00:04:12,319 Sada je mogao da pravi materijale koji su složeniji i prefinjeniji 82 00:04:12,343 --> 00:04:14,471 od onih koji su pravljeni ručno. 83 00:04:15,193 --> 00:04:17,825 Međutim, pobedom u tom industrijskom ratu 84 00:04:17,849 --> 00:04:21,373 postavio je i temelje nečemu što će postati obrazac automatizacije. 85 00:04:22,135 --> 00:04:25,005 Način na koji automatizujemo stvari u proteklih 300 godina 86 00:04:25,029 --> 00:04:26,411 je oduvek bio isti: 87 00:04:27,006 --> 00:04:29,515 prvo identifikujemo potrebu, 88 00:04:29,539 --> 00:04:32,723 potom napravimo oruđe da zadovoljimo potrebu, 89 00:04:32,747 --> 00:04:34,787 poput razboja u ovom slučaju, 90 00:04:34,811 --> 00:04:37,202 a potom izučavamo kako ljudi koriste to oruđe 91 00:04:37,226 --> 00:04:39,221 da bismo automatizovali korisnika. 92 00:04:39,242 --> 00:04:42,303 Tako smo prešli sa mehaničkog razboja 93 00:04:42,327 --> 00:04:44,223 na automatski razboj, 94 00:04:44,247 --> 00:04:46,367 a za to nam je bilo potrebno hiljadu godina. 95 00:04:46,391 --> 00:04:48,462 Bilo nam je potrebno svega sto godina 96 00:04:48,486 --> 00:04:51,697 da korstimo isti scenario da automatizujemo automobil. 97 00:04:53,286 --> 00:04:55,738 Međutim, radi se o tome da je ovaj put 98 00:04:55,762 --> 00:04:57,891 automatizacije nekako stvarna. 99 00:04:57,915 --> 00:05:01,236 Ovo je snimak koji je moj kolega iz Tošibe podelio sa mnom. 100 00:05:01,260 --> 00:05:04,519 On pokazuje fabriku koja proizvodi poluprovodničke diskove. 101 00:05:04,543 --> 00:05:06,561 Čitava fabrika je robot. 102 00:05:06,585 --> 00:05:08,510 Nema ljudi u fabrici. 103 00:05:09,033 --> 00:05:11,254 A roboti će uskoro da napuste fabrike 104 00:05:11,278 --> 00:05:13,300 i da postanu deo našeg sveta, 105 00:05:13,324 --> 00:05:15,159 deo naše radne snage. 106 00:05:15,183 --> 00:05:16,956 Dakle, moj dnevni posao 107 00:05:16,980 --> 00:05:20,972 je zapravo stvaranje oruđa koja integrišu podatke celokupnih država 108 00:05:20,996 --> 00:05:24,462 kako bismo na kraju imali potrebne osnove 109 00:05:24,486 --> 00:05:28,173 za budućnost u kojoj moramo i da upravljamo tim mašinama. 110 00:05:29,195 --> 00:05:32,101 Međutim, danas nisam ovde da vam pričam o tim oruđima 111 00:05:32,125 --> 00:05:34,439 koja integrišu državne podatke, 112 00:05:34,463 --> 00:05:37,085 nego sam ovde da govorim o jednoj drugoj ideji 113 00:05:37,109 --> 00:05:38,968 koja bi nam mogla pomoći u razmišljanju 114 00:05:38,968 --> 00:05:41,988 kako da koristimo veštačku inteligenciju u demokratiji. 115 00:05:42,008 --> 00:05:46,731 Jer su oruđa koja sam napravio dizajnirana za izvršne odluke. 116 00:05:46,755 --> 00:05:50,597 To su odluke koje mogu da se donesu u nekom obliku objektivnosti - 117 00:05:50,621 --> 00:05:52,366 odluke o javnim investicijama. 118 00:05:52,885 --> 00:05:55,516 Međutim, postoje zakonodavne odluke, 119 00:05:55,540 --> 00:05:59,377 a te zakonodavne odluke zahtevaju komunikaciju među ljudima 120 00:05:59,377 --> 00:06:01,111 koji imaju različite tačke gledišta, 121 00:06:01,111 --> 00:06:03,688 zahtevaju učešće, debatu, 122 00:06:03,712 --> 00:06:05,190 zahtevaju razmatranje. 123 00:06:06,241 --> 00:06:09,019 Dugo vremena smo smatrali da, 124 00:06:09,019 --> 00:06:12,639 kako bismo unapredili demokratiju, zapravo nam je potrebno više komunikacije. 125 00:06:12,639 --> 00:06:15,936 Pa su sve tehnologije koje smo unapredili u tom kontekstu demokratije, 126 00:06:15,936 --> 00:06:19,064 bilo da se radi o novinama ili društvenim mrežama, 127 00:06:19,088 --> 00:06:21,470 pokušale da nam obezbede više komunikacije. 128 00:06:22,103 --> 00:06:23,519 Ali već smo prošli tu zamku 129 00:06:23,539 --> 00:06:26,001 i znamo da to neće da reši problem. 130 00:06:26,011 --> 00:06:27,971 Jer se ne radi o problemu u komunikaciji, 131 00:06:27,991 --> 00:06:30,549 radi se o problemu kognitivnog opsega. 132 00:06:30,549 --> 00:06:32,879 Ako se radi o problemu kognitivnog opsega, 133 00:06:32,903 --> 00:06:35,490 dodavanje više komunikacije među ljudima 134 00:06:35,514 --> 00:06:38,258 neće rešiti problem. 135 00:06:38,282 --> 00:06:41,395 Umesto toga će nam biti potrebne nove tehnologije, 136 00:06:41,419 --> 00:06:44,465 koje će nam pomoći da se rešimo dela ove komunikacije 137 00:06:44,489 --> 00:06:46,731 kojom smo zatrpani. 138 00:06:46,755 --> 00:06:48,454 Zamislite na primer, malog avatara, 139 00:06:48,478 --> 00:06:49,817 softverskog agenta, 140 00:06:49,841 --> 00:06:51,839 digitalnog cvrčka iz Pinokija, Džiminija - 141 00:06:51,839 --> 00:06:53,021 (Smeh) 142 00:06:53,021 --> 00:06:57,017 koji je u stanju da odgovara u vaše ime. 143 00:06:57,759 --> 00:06:59,546 Ako bismo imali tu tehnologiju, 144 00:06:59,570 --> 00:07:02,368 bili bismo u stanju da se oslobodimo dela te komunikacije, 145 00:07:02,368 --> 00:07:06,219 i možda pomognemo donošenju boljih odluka ili odluka većeg obima. 146 00:07:06,860 --> 00:07:10,579 Stvar je u tome da ideja o softverskim agentima nije nova. 147 00:07:10,603 --> 00:07:12,712 Već ih stalno koristimo. 148 00:07:13,216 --> 00:07:14,737 Koristimo softverske agente 149 00:07:14,761 --> 00:07:18,436 da odlučimo put kojim ćemo da vozimo do određene lokacije, 150 00:07:19,070 --> 00:07:21,171 koju ćemo muziku slušati, 151 00:07:21,758 --> 00:07:24,849 ili da nam preporuče sledeću knjigu koju bi trebalo da pročitamo. 152 00:07:25,994 --> 00:07:28,568 Dakle, postoji očigledna ideja u 21. veku 153 00:07:28,592 --> 00:07:31,235 koja je jednako očigledna kao i ideja 154 00:07:31,259 --> 00:07:36,840 da se sastave parni motor i razboj u Žakardovo vreme. 155 00:07:37,538 --> 00:07:41,994 A ta ideja je kombinovanje direktne demokratije i softverskih agenata. 156 00:07:42,849 --> 00:07:44,970 Zamislite za trenutak svet 157 00:07:44,994 --> 00:07:48,160 u kome, umesto što imate zastupnika koji zastupa 158 00:07:48,184 --> 00:07:49,758 vas i milione drugih ljudi, 159 00:07:49,782 --> 00:07:52,818 možete da imate zastupnika koji zastupa samo vas, 160 00:07:53,504 --> 00:07:55,758 sa vašim nijansiranim političkim stavovima - 161 00:07:55,782 --> 00:07:59,126 tu čudnu kombinaciju libertarijanca i liberala, 162 00:07:59,150 --> 00:08:01,296 i možda po nekim pitanjima malo konzervativca, 163 00:08:01,316 --> 00:08:03,674 a po nekim drugim, vrlo progresivnog. 164 00:08:03,698 --> 00:08:06,965 Današnji političari su paketi i puni su kompromisa. 165 00:08:06,989 --> 00:08:10,623 Međutim, možete da imate nekoga ko može da predstavlja samo vas, 166 00:08:10,647 --> 00:08:12,499 ako ste spremni da odustanete od ideje 167 00:08:12,523 --> 00:08:15,202 da je zastupnik ljudsko biće. 168 00:08:15,229 --> 00:08:17,311 Da je taj zastupnik softverski agent, 169 00:08:17,335 --> 00:08:21,505 mogli bismo da imamo senat koji bi imao onoliko senatora koliko imamo stanovnika. 170 00:08:21,529 --> 00:08:24,437 A ti senatori bi bili u stanju da čitaju svaki predlog zakona, 171 00:08:24,437 --> 00:08:26,348 i da glasaju o svakom od njih. 172 00:08:27,822 --> 00:08:30,998 Dakle, imamo očiglednu ideju koju bismo možda želeli da razmotrimo. 173 00:08:30,998 --> 00:08:33,224 Međutim, razumem da u današnje vreme 174 00:08:33,248 --> 00:08:35,287 ova ideja može biti prilično zastrašujuća. 175 00:08:36,391 --> 00:08:39,831 U stvari, razmišljati o robotu koji dolazi iz budućnosti 176 00:08:39,855 --> 00:08:41,528 da nam pomogne da vodimo države 177 00:08:41,552 --> 00:08:43,183 zvuči zastrašujuće. 178 00:08:44,223 --> 00:08:45,874 Međutim, već smo to doživeli. 179 00:08:45,898 --> 00:08:47,171 (Smeh) 180 00:08:47,195 --> 00:08:49,690 I zapravo je bio prilično fin momak. 181 00:08:51,677 --> 00:08:58,111 Kako bi Žakardova ideja razboja u ovoj verziji izgledala? 182 00:08:58,135 --> 00:09:00,036 To bi bio veoma jednostavan sistem. 183 00:09:00,060 --> 00:09:03,518 Zamislite sistem u koji se ulogujete i napravite svoj avatar, 184 00:09:03,542 --> 00:09:05,998 a potom počinjete da obučavate svog avatara. 185 00:09:06,022 --> 00:09:09,034 Možete da prenesete na vaš avatar soptvene čitalačke skolonosti, 186 00:09:09,034 --> 00:09:11,289 ili da ga povežete sa vašim društvenim mrežama, 187 00:09:11,289 --> 00:09:13,081 ili da ga povežete s drugim podacima, 188 00:09:13,081 --> 00:09:15,317 na primer, rešavajući psihološke testove. 189 00:09:15,341 --> 00:09:18,309 Dobra stvar kod ovoga je ta što nema obmane. 190 00:09:18,333 --> 00:09:21,672 Ne dajete podatke kako biste komunicirali sa prijateljima i porodicom, 191 00:09:21,696 --> 00:09:24,847 a da se to kasnije koristi u političkom sistemu. 192 00:09:24,871 --> 00:09:28,575 Pružate podatke sistemu koji je osmišljen da se koristi 193 00:09:28,599 --> 00:09:30,715 kako bi donosio političke odluke u vaše ime. 194 00:09:31,264 --> 00:09:35,244 Potom uzmete te podatke i odaberete algoritam za obuku, 195 00:09:35,268 --> 00:09:36,831 jer se radi o otvorenom tržištu, 196 00:09:36,855 --> 00:09:39,641 u kome različiti ljudi mogu da prilože različite algoritme 197 00:09:39,665 --> 00:09:44,059 kako bi predvideli kako ćete da glasate na osnovu podataka koje ste ponudili. 198 00:09:44,083 --> 00:09:47,538 A sistem je otvoren, dakle, niko ne kontroliše algoritme; 199 00:09:47,562 --> 00:09:51,381 tu su algoritmi koji će biti popularniji i drugi koji će da budu manje popularni. 200 00:09:51,381 --> 00:09:53,292 Naposletku, možete da revidirate sistem. 201 00:09:53,292 --> 00:09:55,387 Možete da vidite kako vaš avatar funkcioniše. 202 00:09:55,387 --> 00:09:57,773 Ako vam se dopada, stavite ga na sistem autopilota. 203 00:09:57,773 --> 00:09:59,629 Ako želite da imate malo veću kontrolu, 204 00:09:59,629 --> 00:10:03,311 možete zapravo da odaberete da vas pitaju kad god treba da donesu neku odluku, 205 00:10:03,311 --> 00:10:05,082 ili možete da budete negde u sredini. 206 00:10:05,082 --> 00:10:07,611 Jedan od razloga zašto tako malo koristimo demokratiju 207 00:10:07,611 --> 00:10:11,183 je možda taj što demokratija ima veoma loš korisnički pristup. 208 00:10:11,207 --> 00:10:13,750 Ako bismo unapredili korisnički pristup demokratije, 209 00:10:13,750 --> 00:10:15,841 možda bismo mogli da je više koristimo. 210 00:10:16,452 --> 00:10:19,659 Naravno, verovatno imate gomilu pitanja. 211 00:10:20,473 --> 00:10:22,634 Kako da obučavate ove avatare? 212 00:10:22,658 --> 00:10:24,552 Kako da vaši podaci budu bezbedni? 213 00:10:24,576 --> 00:10:27,824 Kako da vaš sistem bude raspodeljen i podložan reviziji? 214 00:10:27,848 --> 00:10:29,910 Šta je sa mojom bakom koja ima 80 godina 215 00:10:29,946 --> 00:10:32,226 i ne zna kako da koristi internet? 216 00:10:32,262 --> 00:10:34,483 Verujte mi, sva ta pitanja sam čuo. 217 00:10:34,507 --> 00:10:39,067 Kada razmišljate o ovakvoj ideji, morate da se pazite pesimista, 218 00:10:39,091 --> 00:10:43,410 jer su poznati po tome što imaju problem za svako rešenje. 219 00:10:43,434 --> 00:10:45,259 (Smeh) 220 00:10:45,283 --> 00:10:48,323 Želim da vas pozovem da razmišljate o većim idejama. 221 00:10:48,347 --> 00:10:51,973 Pitanja koja sam vam upravo pokazao su male ideje, 222 00:10:51,997 --> 00:10:54,899 jer se radi o pitanjima zašto ovo ne bi funkcionisalo. 223 00:10:55,502 --> 00:10:57,483 Velike ideje su: 224 00:10:57,507 --> 00:10:59,314 šta još možemo da uradimo s ovim, 225 00:10:59,338 --> 00:11:01,227 ukoliko bi ovo funkcionisalo? 226 00:11:01,774 --> 00:11:05,219 A jedna od tih ideja je: ko piše zakone? 227 00:11:05,854 --> 00:11:10,077 U početku bismo mogli da imamo avatare koje već imamo, 228 00:11:10,101 --> 00:11:13,598 koji glasaju za zakone koje su pisali senatori ili političari 229 00:11:13,622 --> 00:11:14,973 koje već imamo. 230 00:11:15,491 --> 00:11:17,205 Međutim, ako bi ovo proradilo, 231 00:11:17,902 --> 00:11:20,252 mogli biste da napišete algoritam 232 00:11:20,276 --> 00:11:22,426 koji bi pokušao da napiše zakon 233 00:11:22,450 --> 00:11:24,871 koji bi dobio određen procenat podrške, 234 00:11:24,895 --> 00:11:26,677 i mogli biste da obrnete proces. 235 00:11:26,701 --> 00:11:30,213 Možda smatrate da je ova ideja smešna i da ne bi trebalo to da radimo, 236 00:11:30,237 --> 00:11:33,023 ali ne možete da negirate da je ova ideja jedino moguća 237 00:11:33,047 --> 00:11:36,067 u svetu u kome su direktna demokratija i softverski agenti 238 00:11:36,091 --> 00:11:38,747 održivi oblici učešća. 239 00:11:40,596 --> 00:11:43,349 Kako da otpočnemo revoluciju? 240 00:11:44,238 --> 00:11:47,548 Ne započinjemo ovu revoluciju tarabama ili protestima, 241 00:11:47,572 --> 00:11:51,762 ili zahtevajući od trenutnih političara da se pretvore u robote. 242 00:11:51,786 --> 00:11:53,335 To neće funkcionisati. 243 00:11:53,359 --> 00:11:54,971 Ovo je mnogo jednostavnije, 244 00:11:54,995 --> 00:11:56,154 mnogo sporije 245 00:11:56,178 --> 00:11:57,592 i mnogo skromnije. 246 00:11:57,616 --> 00:12:01,965 Počinjemo revoluciju stvarajući proste sisteme poput ovog na fakultetima, 247 00:12:01,989 --> 00:12:04,203 ili u bibliotekama, neprofitnim organizacijama. 248 00:12:04,203 --> 00:12:06,761 I pokušavamo da shvatimo sva ta mala pitanja, 249 00:12:06,785 --> 00:12:08,006 te male probleme, 250 00:12:08,030 --> 00:12:11,931 koje ćemo morati da rešimo da bi ova ideja postala održiva, 251 00:12:11,955 --> 00:12:14,436 kako bi ova ideja postala nešto čemu možemo verovati. 252 00:12:14,436 --> 00:12:17,965 Kako stvaramo ove sisteme sa stotinama, hiljadama, 253 00:12:17,989 --> 00:12:21,759 stotinama hiljada ljudi koji glasaju na načine koji nisu politički obavezujući, 254 00:12:21,783 --> 00:12:23,801 izgradićemo poverenje u ovu ideju, 255 00:12:23,825 --> 00:12:25,344 svet će se promeniti, 256 00:12:25,368 --> 00:12:28,243 a oni koji su mladi, kao moja ćerka danas, 257 00:12:28,267 --> 00:12:29,604 će odrasti. 258 00:12:30,580 --> 00:12:32,949 A kad moja ćerka bude mojih godina, 259 00:12:32,973 --> 00:12:37,409 možda će ova ideja, za koju znam da danas zvuči sumanuto, 260 00:12:37,433 --> 00:12:41,937 njoj i njenim prijateljima neće biti sumanuta. 261 00:12:41,956 --> 00:12:43,793 A u tom trenutku, 262 00:12:43,817 --> 00:12:46,420 mi ćemo biti na kraju naše istorije, 263 00:12:46,444 --> 00:12:49,615 ali oni će biti na početku njihove. 264 00:12:49,646 --> 00:12:50,829 Hvala vam. 265 00:12:50,853 --> 00:12:53,895 (Aplauz)