1 00:00:00,968 --> 00:00:02,118 Pozdrav svima. 2 00:00:03,562 --> 00:00:08,498 Ovo je pomalo smiješno jer ja jesam pisao da će ljudi postati digitalni, 3 00:00:08,522 --> 00:00:11,236 ali nisam mislio da će se to dogoditi tako brzo 4 00:00:11,260 --> 00:00:12,919 i da će se dogoditi meni. 5 00:00:13,649 --> 00:00:16,331 No, evo tu sam, kao digitalni avatar, 6 00:00:16,355 --> 00:00:19,021 a vi ste ovdje, pa počnimo. 7 00:00:20,070 --> 00:00:22,203 Počnimo pitanjem. 8 00:00:22,823 --> 00:00:26,357 Koliko fašista ima danas u publici? 9 00:00:26,381 --> 00:00:27,831 (Smijeh) 10 00:00:27,855 --> 00:00:30,204 Pa, to je malo teško reći 11 00:00:30,228 --> 00:00:33,695 jer smo zaboravili što je zapravo fašizam. 12 00:00:34,498 --> 00:00:37,077 Ljudi danas koriste izraz "fašist" 13 00:00:37,101 --> 00:00:40,109 kao neku vrstu univerzalne uvrede. 14 00:00:40,133 --> 00:00:44,080 Ili fašizam brkaju s nacionalizmom. 15 00:00:44,863 --> 00:00:50,251 Pa, hajdemo u nekoliko minuta razjasniti što je fašizam zapravo 16 00:00:50,275 --> 00:00:53,395 i kako se razlikuje od nacionalizma. 17 00:00:53,838 --> 00:00:58,879 Blaži oblici nacionalizma su među najbenevolentnijim oblicima 18 00:00:58,903 --> 00:01:00,361 ljudskih kreacija. 19 00:01:00,990 --> 00:01:05,101 Nacije su zajednice milijuna stranaca 20 00:01:05,125 --> 00:01:07,228 koji se zapravo ne poznaju međusobno. 21 00:01:07,489 --> 00:01:10,894 Na primjer, ja ne poznajem osam milijuna ljudi 22 00:01:10,918 --> 00:01:13,474 koji dijele moje izraelsko državljanstvo. 23 00:01:14,109 --> 00:01:16,276 No, zahvaljujući nacionalizmu 24 00:01:16,300 --> 00:01:20,106 mi svi možemo brinuti jedni o drugima i učinkovito surađivati. 25 00:01:20,450 --> 00:01:21,650 To je jako dobro. 26 00:01:22,093 --> 00:01:27,831 Neki ljudi, poput Johna Lennona, zamišljaju da će bez nacionalizma 27 00:01:27,855 --> 00:01:31,645 svijet biti miroljubivi raj. 28 00:01:32,010 --> 00:01:33,438 No, mnogo je izglednije 29 00:01:33,462 --> 00:01:38,239 da bismo bez nacionalizma živjeli u plemenskom kaosu. 30 00:01:38,684 --> 00:01:43,819 Ako danas pogledate najnaprednije i namiroljubivije zemlje u svijetu, 31 00:01:43,843 --> 00:01:48,133 zemlje poput Švedske i Švicarske i Japana, 32 00:01:48,157 --> 00:01:53,120 vidjet ćete da one imaju vrlo jak nacionalni osjećaj. 33 00:01:53,750 --> 00:01:57,910 Nasuprot tome, zemlje kojima nedostaje jak nacionalni osjećaj, 34 00:01:57,934 --> 00:02:01,355 poput Konga i Somalije i Afganistana, 35 00:02:01,379 --> 00:02:03,553 imaju tendenciju nasilju i siromaštvu. 36 00:02:04,855 --> 00:02:08,993 Dakle, što je fašizam i kako se razlikuje od nacionalizma? 37 00:02:09,941 --> 00:02:15,344 Pa, nacionalizam mi govori da je moja nacija jedinstvena 38 00:02:15,368 --> 00:02:19,169 i da ja imam posebne obaveze prema svojoj naciji. 39 00:02:19,641 --> 00:02:25,847 Fašizam, nasuprot tome, govori mi da je moja nacija dominantna 40 00:02:25,871 --> 00:02:29,783 i da ja imam isključive obaveze prema njoj. 41 00:02:30,895 --> 00:02:35,726 Ja ne trebam mariti o nikomu i ničemu osim moje nacije. 42 00:02:36,465 --> 00:02:40,068 Obično, naravno, ljudi imaju mnogo identiteta 43 00:02:40,092 --> 00:02:42,514 i lojalnosti prema različitim grupama. 44 00:02:43,036 --> 00:02:47,840 Na primjer, ja mogu biti dobar domoljub, lojalan svojoj zemlji, 45 00:02:47,864 --> 00:02:51,102 i u isto vrijeme biti lojalan svojoj obitelji, 46 00:02:51,126 --> 00:02:53,487 svom susjedstvu, svojoj profesiji, 47 00:02:53,511 --> 00:02:54,971 čovječanstvu općenito, 48 00:02:54,995 --> 00:02:56,599 istini i ljepoti. 49 00:02:57,370 --> 00:03:01,641 Naravno, kada imam različite identitete i lojalnosti, 50 00:03:01,665 --> 00:03:04,998 to ponekad stvara konflikte i komplikacije. 51 00:03:05,506 --> 00:03:09,140 No, tko vam je ikada rekao da je život jednostavan? 52 00:03:09,649 --> 00:03:11,689 Život je kompliciran. 53 00:03:11,713 --> 00:03:12,863 Pomirite se s tim. 54 00:03:14,331 --> 00:03:20,331 Fašizam je ono što se događa kada ljudi pokušavaju ignorirati komplikacije 55 00:03:20,355 --> 00:03:23,464 i previše si olakšavati život. 56 00:03:24,128 --> 00:03:29,700 Fašizam negira sve identitete osim nacionalnog identiteta 57 00:03:29,724 --> 00:03:34,833 i insistira da imam obaveze samo prema svojoj naciji. 58 00:03:35,421 --> 00:03:39,525 Ako moja nacija zahtijeva da žrtvujem svoju obitelj, 59 00:03:39,549 --> 00:03:41,985 onda ću žrtvovati svoju obitelj. 60 00:03:42,009 --> 00:03:46,283 Ako nacija zahtijeva da ubijem milijune ljudi, 61 00:03:46,307 --> 00:03:48,965 onda ću ubiti milijune ljudi. 62 00:03:49,442 --> 00:03:55,517 I ako moja nacija zahtijeva da izdam istinu i ljepotu, 63 00:03:55,541 --> 00:03:58,564 onda moram izdati istinu i ljepotu. 64 00:03:59,587 --> 00:04:04,113 Na primjer, kako fašist procjenjuje umjetnost? 65 00:04:04,615 --> 00:04:09,904 Kako fašist odlučuje da li je neki film dobar ili loš? 66 00:04:10,728 --> 00:04:14,900 Pa, to je jako, jako, jako jednostavno. 67 00:04:15,260 --> 00:04:17,188 Postoji zapravo samo jedno mjerilo: 68 00:04:17,593 --> 00:04:21,069 ako film služi interesima nacije, 69 00:04:21,093 --> 00:04:22,537 to je dobar film; 70 00:04:22,561 --> 00:04:25,744 ako film ne služi interesima nacije, 71 00:04:25,768 --> 00:04:26,990 to je loš film. 72 00:04:27,014 --> 00:04:28,164 To je to. 73 00:04:28,496 --> 00:04:33,384 Slično, kako fašist odlučuje što učiti djecu u školi? 74 00:04:33,877 --> 00:04:35,964 Ponovo, to je vrlo jednostavno. 75 00:04:35,988 --> 00:04:37,933 Postoji samo jedno mjerilo: 76 00:04:37,957 --> 00:04:42,902 djecu učite onome što služi interesima nacije. 77 00:04:43,323 --> 00:04:45,910 Istina uopće nije važna. 78 00:04:48,372 --> 00:04:53,798 Užasi Drugog svjetskog rata i Holokausta podsjećaju nas 79 00:04:53,822 --> 00:04:57,955 na užasne posljedice takvog načina razmišljanja. 80 00:04:58,508 --> 00:05:03,053 No, obično kada govorimo o zlu fašizma, 81 00:05:03,077 --> 00:05:06,037 mi to radimo na neučinkovit način 82 00:05:06,061 --> 00:05:10,799 jer smo skloni fašizam prikazivati kao odvratnog monstruma, 83 00:05:10,823 --> 00:05:14,729 bez da stvarno objasnimo što je to tako zavodljivo u njemu. 84 00:05:15,284 --> 00:05:19,998 To je pomalo kao u holivudskim filmovima koji prikazuju zločeste dečke -- 85 00:05:20,022 --> 00:05:24,045 Voldemorta ili Saurona il Dartha Vadera -- 86 00:05:24,069 --> 00:05:26,701 kao ružne i zle i okrutne. 87 00:05:26,725 --> 00:05:29,263 Oni su okrutni čak i prema vlastitim pristalicama. 88 00:05:29,670 --> 00:05:33,291 Kada gledam te filmove nikada mi nije jasno -- 89 00:05:33,315 --> 00:05:39,820 zašto bi itko došao u napast da slijedi odvratnu nakazu poput Voldemorta? 90 00:05:40,895 --> 00:05:44,411 problem sa zlom je da u stvarnom životu 91 00:05:44,435 --> 00:05:47,326 zlo nije nužno ružno naizgled. 92 00:05:47,688 --> 00:05:49,580 Ono može izgledati vrlo lijepo. 93 00:05:50,354 --> 00:05:53,077 To je nešto što kršćanstvo jako dobro zna 94 00:05:53,101 --> 00:05:56,807 i zbog čega se u kršćanskoj umjetnosti, za razliku od Hollywooda, 95 00:05:56,831 --> 00:06:00,699 Sotona obično prikazuje kao prekrasan 'komad'. 96 00:06:01,259 --> 00:06:05,855 To je razlog da je tako teško odoljeti njegovim iskušenjima 97 00:06:05,879 --> 00:06:10,623 i zašto je također teško odoljeti iskušenjima fašizma. 98 00:06:10,980 --> 00:06:13,702 Fašizam djeluje na ljude tako da se oni vide 99 00:06:13,726 --> 00:06:18,969 kao pripadnici najljepše i najvažnije stvari na svijetu -- 100 00:06:18,993 --> 00:06:20,295 nacije. 101 00:06:20,319 --> 00:06:21,665 I onda ljudi misle, 102 00:06:21,689 --> 00:06:24,878 "Pa dobro, učili su nas da je fašizam ružan. 103 00:06:25,442 --> 00:06:28,466 Ali kad pogledam u ogledalo ja vidim nešto prekrasno, 104 00:06:28,490 --> 00:06:30,681 stoga ja ne mogu biti fašist, zar ne?" 105 00:06:31,022 --> 00:06:32,173 Krivo. 106 00:06:32,197 --> 00:06:33,744 To je problem sa fašizmom. 107 00:06:33,768 --> 00:06:36,387 Kada pogledate u fašističko ogledalo, 108 00:06:36,411 --> 00:06:40,945 vi sebe vidite daleko ljepšim no što stvarno jeste. 109 00:06:41,371 --> 00:06:45,664 Tridesetih godina, kada su Nijemci gledali u fašističko ogledalo, 110 00:06:45,688 --> 00:06:49,728 vidjeli su Njemačku kao najljepšu stvar na svijetu. 111 00:06:50,244 --> 00:06:53,680 Ako danas Rusi pogledaju u fašističko ogledalo, 112 00:06:53,704 --> 00:06:57,263 vidjet će Rusiju kao najljepšu stvar na svijetu. 113 00:06:57,577 --> 00:07:00,705 A ako Izraelci pogledaju u fašističko ogledalo, 114 00:07:00,729 --> 00:07:05,109 vidjet će Izrael kao najljepšu stvar na svijetu. 115 00:07:06,657 --> 00:07:11,714 To ne znači da smo danas suočeni s ponavljanjem 1930.-tih. 116 00:07:12,304 --> 00:07:15,779 Fašizam i diktature mogli bi se vratiti, 117 00:07:15,803 --> 00:07:19,042 ali vratit će se u novom obliku, 118 00:07:19,066 --> 00:07:21,807 u obliku koji je puno podobniji 119 00:07:21,831 --> 00:07:25,640 za nove tehnološke stvarnosti 21. stoljeća. 120 00:07:26,538 --> 00:07:28,085 U drevnim vremenima 121 00:07:28,109 --> 00:07:32,269 zemlja je bila najvažnija prednost na svijetu. 122 00:07:32,911 --> 00:07:36,775 Politika je, stoga, bila borba za kontrolu zemlje. 123 00:07:37,141 --> 00:07:43,001 A diktatura je značila da je sva zemlja u vlasništvu jednog vladara 124 00:07:43,025 --> 00:07:44,897 ili male oligarhije. 125 00:07:45,827 --> 00:07:50,646 A u moderno doba strojevi su postali važniji od zemlje. 126 00:07:51,347 --> 00:07:54,947 Politika je postala borba za kontrolu nad strojevima. 127 00:07:55,354 --> 00:07:57,350 A diktatura znači 128 00:07:57,374 --> 00:08:01,284 da je previše strojeva postalo koncentrirano 129 00:08:01,308 --> 00:08:04,588 u rukama vlade ili malobrojne elite. 130 00:08:05,109 --> 00:08:09,815 Danas su podaci zamijenili i zemlju i strojeve 131 00:08:09,839 --> 00:08:11,950 kao najvažnija prednost ili imovina. 132 00:08:12,600 --> 00:08:17,940 Politika postaje borba za kontrolu nad tokovima podataka. 133 00:08:17,964 --> 00:08:20,672 A diktatura sada znači 134 00:08:20,696 --> 00:08:26,476 da je previše podataka koncentrirano u rukama vlade 135 00:08:26,500 --> 00:08:28,420 ili malobrojne elite. 136 00:08:28,871 --> 00:08:33,783 Najveća opasnost s kojom se danas suočava liberalna demokracija 137 00:08:33,807 --> 00:08:37,077 jest da će revolucija informacijske tehnologije 138 00:08:37,101 --> 00:08:41,891 učiniti diktature učinkovitijima od demokracija. 139 00:08:42,760 --> 00:08:44,379 U 20. stoljeću 140 00:08:44,403 --> 00:08:49,363 demokracija i kapitalizam porazili su fašizam i komunizam 141 00:08:49,387 --> 00:08:54,589 zato jer je demokracija bila bolja u obradi podataka i donošenju odluka. 142 00:08:55,319 --> 00:08:57,685 Uz danu tehnologiju 20. stoljeća 143 00:08:57,709 --> 00:09:03,744 bilo je jednostavno neefikasno pokušavati koncentrirati previše podataka 144 00:09:03,768 --> 00:09:06,527 i previše moći u jednom mjestu. 145 00:09:07,244 --> 00:09:11,727 Ali to nije zakon prirode 146 00:09:11,751 --> 00:09:17,355 da je centralizirana obrada podataka uvijek manje učinkovita 147 00:09:17,379 --> 00:09:19,926 od distribuirane obrade podataka. 148 00:09:20,605 --> 00:09:24,042 Napretkom umjetne inteligencije i strojnog učenja 149 00:09:24,066 --> 00:09:29,903 možda postane izvodivo obrađivati ogromne količine informacija 150 00:09:29,927 --> 00:09:32,537 vrlo učinkovito na jednom mjestu, 151 00:09:32,561 --> 00:09:35,752 sve odluke donositi na jednom mjestu, 152 00:09:35,776 --> 00:09:40,196 i tada će centralizirana obrada podataka biti učinkovitija 153 00:09:40,220 --> 00:09:42,420 od distribuirane obrade podataka. 154 00:09:43,053 --> 00:09:46,813 I onda će glavni nedostatak autoritarnih režima 155 00:09:46,837 --> 00:09:48,474 u 20. stoljeću -- 156 00:09:48,498 --> 00:09:53,014 njihov pokušaj da koncentriraju sve informacije na jednom mjestu -- 157 00:09:53,038 --> 00:09:56,404 postati njihova najveća prednost. 158 00:09:58,768 --> 00:10:03,675 Druga tehnološka opasnost koja prijeti budućnosti demokracije 159 00:10:03,699 --> 00:10:08,858 jest udruživanje informacijske tehnologije sa biotehnologijom, 160 00:10:08,882 --> 00:10:12,887 što bi moglo rezultirati u stvaranju algoritama 161 00:10:12,911 --> 00:10:17,227 koje me poznaju bolje od mene samog. 162 00:10:17,688 --> 00:10:19,768 A jednom kada imate takve algoritme, 163 00:10:19,792 --> 00:10:22,641 vanjski sustav, poput vlade, 164 00:10:22,665 --> 00:10:26,189 ne samo da može predvidjeti moje odluke, 165 00:10:26,213 --> 00:10:30,134 već može i manipulirati mojim osjećajima, mojim emocijama. 166 00:10:30,641 --> 00:10:35,886 Diktator možda neće biti u stanju osigurati dobru zdravstvenu skrb, 167 00:10:35,910 --> 00:10:39,283 ali će biti u stanju postići da ga volim 168 00:10:39,307 --> 00:10:41,974 i da mrzim opoziciju. 169 00:10:43,037 --> 00:10:48,500 Demokraciji će biti teško preživjeti takav razvoj 170 00:10:48,524 --> 00:10:50,674 jer, na koncu, 171 00:10:50,698 --> 00:10:54,825 demokracija se ne bazira na ljudskoj racionalnosti; 172 00:10:54,849 --> 00:10:57,269 ona se bazira na ljudskim osjećajima. 173 00:10:58,355 --> 00:11:00,855 Za vrijeme izbora ili referenduma 174 00:11:00,879 --> 00:11:03,575 ne pitaju vas, "Što mislite?" 175 00:11:03,998 --> 00:11:07,394 Vas zapravo pitaju, "Kako se osjećate?" 176 00:11:08,228 --> 00:11:12,855 A ako netko može učinkovito manipulirati vašim osjećajima, 177 00:11:12,879 --> 00:11:17,242 demokracija će postati emocionalna lutkarska predstava. 178 00:11:18,006 --> 00:11:22,521 Što, dakle, možemo mi učiniti da spriječimo povratak fašizma 179 00:11:22,545 --> 00:11:25,195 i pojavu novih diktatura? 180 00:11:25,990 --> 00:11:32,300 Pitanje broj jedan s kojim se suočavamo je: Tko kontrolira podatke? 181 00:11:32,823 --> 00:11:34,498 Ako ste inženjer, 182 00:11:34,522 --> 00:11:38,490 onda nađite načine da spriječite da previše podataka 183 00:11:38,514 --> 00:11:41,339 bude koncentrirano u premalo ruku. 184 00:11:41,752 --> 00:11:44,696 I nađite načine da osigurate 185 00:11:44,720 --> 00:11:49,133 da je distribuirana obrada podataka u najmanju ruku jednako učinkovita 186 00:11:49,157 --> 00:11:51,553 kao centralizirana obrada podataka. 187 00:11:52,077 --> 00:11:55,918 To će biti najbolja zaštita demokracije. 188 00:11:55,942 --> 00:11:59,268 Što se tiče nas ostalih, koji nismo inženjeri, 189 00:11:59,292 --> 00:12:02,736 prvo pitanje s kojim se mi suočavamo 190 00:12:02,760 --> 00:12:07,407 jeste kako da ne dozvolimo da budemo manipulirani 191 00:12:07,431 --> 00:12:10,237 od onih koji kontroliraju podatke. 192 00:12:11,387 --> 00:12:15,493 Neprijatelji liberalnih demokracija, oni imaju metodu. 193 00:12:15,919 --> 00:12:18,291 Oni hakiraju naše osjećaje. 194 00:12:18,315 --> 00:12:20,767 Ne naše emailove, ne naše bankovne račune -- 195 00:12:20,791 --> 00:12:25,998 oni hakiraju naše osjećaje straha i mržnje i sujete 196 00:12:26,022 --> 00:12:28,450 i onda te osjećaje koriste 197 00:12:28,474 --> 00:12:32,426 za polarizaciju i uništavanje demokracije iznutra. 198 00:12:32,903 --> 00:12:34,823 To je zapravo metoda 199 00:12:34,847 --> 00:12:39,896 koju je prva uvela Silikonska dolina kako bi nam prodala proizvode. 200 00:12:40,381 --> 00:12:45,403 Ali sada, neprijatelji demokracije koriste tu istu metodu 201 00:12:45,427 --> 00:12:49,151 da nam prodaju strah i mržnju i sujetu. 202 00:12:49,863 --> 00:12:53,522 Oni te osjećaje ne mogu stvoriti iz ničega. 203 00:12:54,212 --> 00:12:58,043 Zato nastoje upoznati naše vlastite prvobitne slabosti 204 00:12:58,403 --> 00:13:00,974 i onda ih iskoristiti protiv nas. 205 00:13:01,482 --> 00:13:04,990 Zbog toga je odgovornost svih nas 206 00:13:05,014 --> 00:13:07,648 da spoznamo svoje slabosti 207 00:13:07,672 --> 00:13:11,307 i potrudimo se da one ne postanu oružje 208 00:13:11,331 --> 00:13:14,214 u rukama neprijatelja demokracije. 209 00:13:15,315 --> 00:13:17,863 Spoznavanje vlastitih slabosti 210 00:13:17,887 --> 00:13:23,470 pomoći će nam također da izbjegnemo zamku fašističkog ogledala. 211 00:13:24,204 --> 00:13:28,355 Kao što smo ranije objasnili, fažizam eksploatira našu sujetu. 212 00:13:28,805 --> 00:13:34,551 On čini da sebe vidimo daleko ljepšima no što stvarno jesmo. 213 00:13:34,575 --> 00:13:36,042 To je zavođenje. 214 00:13:36,424 --> 00:13:38,871 No, ako stvarno poznajete sebe, 215 00:13:38,895 --> 00:13:42,363 tada nećete pasti na ovu vrstu laskanja. 216 00:13:42,879 --> 00:13:46,942 Ako vam netko pred oči postavi ogledalo 217 00:13:46,966 --> 00:13:52,026 koje skriva sve vaše ružne komadiće i čini da sebe vidite 218 00:13:52,050 --> 00:13:56,334 daleko ljepšim i daleko važnijim 219 00:13:56,358 --> 00:13:57,949 no što ustvari jeste, 220 00:13:57,973 --> 00:14:00,837 jednostavno razbijte to ogledalo. 221 00:14:01,696 --> 00:14:02,847 Hvala. 222 00:14:02,871 --> 00:14:09,253 (Pljesak) 223 00:14:10,677 --> 00:14:12,309 Chris Anderson: Yuval, hvala vam. 224 00:14:12,333 --> 00:14:13,484 Moj bože! 225 00:14:13,958 --> 00:14:15,898 Tako je lijepo vidjeti vas ponovo. 226 00:14:15,922 --> 00:14:17,513 Dakle, ako sam vas dobro razumio, 227 00:14:17,537 --> 00:14:20,204 vi nas ovdje upozoravate na dvije velike opasnosti. 228 00:14:20,228 --> 00:14:24,720 Jedna je moguće ponovno oživljavanje zavodljivog oblika fašizma, 229 00:14:24,744 --> 00:14:28,998 no, povezano s tim, diktatura koje ne moraju biti baš fašističke, 230 00:14:29,022 --> 00:14:31,585 već kontroliraju sve podatke. 231 00:14:31,609 --> 00:14:33,705 Pitam se postoji li treća zabrinutost 232 00:14:33,729 --> 00:14:35,847 koju se neki ljudi ovdje već izrazili, 233 00:14:35,871 --> 00:14:40,768 slučaj kada, ne vlade, nego velike korporacije kontroliraju sve podatke. 234 00:14:40,792 --> 00:14:42,101 Kako vi to nazivate 235 00:14:42,125 --> 00:14:44,512 i koliko moramo biti zabrinuti u vezi s tim? 236 00:14:44,536 --> 00:14:47,875 Yuval Noah Harari: Pa, na koncu, nema tako velike razlike 237 00:14:47,899 --> 00:14:50,325 između korporacija i vlada 238 00:14:50,349 --> 00:14:53,769 jer, kao što sam rekao, pitanje je: Tko kontrolira podatke? 239 00:14:53,793 --> 00:14:55,188 To je prava vlada. 240 00:14:55,212 --> 00:14:57,656 Nazivate li to korporacijom ili vladom -- 241 00:14:57,680 --> 00:15:00,835 ako je to korporacija i ona stvarno kontrolira podatke, 242 00:15:00,859 --> 00:15:02,787 to je naša prava vlada. 243 00:15:02,811 --> 00:15:05,878 Dakle, razlika je više prividna nego stvarna. 244 00:15:06,529 --> 00:15:09,387 CA: Ali nekako, bar u slučaju korporacija, 245 00:15:09,411 --> 00:15:12,930 možete zamisliti tržišne mehanizme kojima se one mogu srušiti. 246 00:15:12,954 --> 00:15:14,871 Mislim, ako potrošači odluče 247 00:15:14,895 --> 00:15:17,649 da kompanija više ne radi u njihovom interesu, 248 00:15:17,673 --> 00:15:19,586 to otvara vrata jednom drugom tržištu. 249 00:15:19,610 --> 00:15:21,156 Naizgled je lakše zamisliti to 250 00:15:21,180 --> 00:15:24,331 nego, recimo, građane koji ustaju i ruše vladu 251 00:15:24,355 --> 00:15:25,967 koji ima kontrolu nad svime. 252 00:15:25,991 --> 00:15:27,546 YNH: Pa nismo još dotle stigli, 253 00:15:27,570 --> 00:15:32,728 ali, ponovo, ako vas korporacija stvarno poznaje bolje no što vi poznajete sebe -- 254 00:15:32,752 --> 00:15:38,006 u najmanju ruku ona može manipulirati vašim najdubljim emocijama i željama, 255 00:15:38,030 --> 00:15:39,696 a vi to čak nećete ni znati -- 256 00:15:39,720 --> 00:15:42,299 mislit ćete da je to vaša autentična ličnost. 257 00:15:42,768 --> 00:15:46,823 Zato u teoriji, da, u teoriji, možete se dignuti protiv korporacija, 258 00:15:46,847 --> 00:15:50,580 kao što se u teoriji možete dignuti protiv diktature. 259 00:15:50,982 --> 00:15:54,265 Ali u praksi je to izuzetno teško. 260 00:15:55,281 --> 00:15:59,363 CA: U "Homo Deusu" vi tvrdite da će ovo biti stoljeće 261 00:15:59,387 --> 00:16:02,798 kada ljudi na neki način postaju bogovi, 262 00:16:02,822 --> 00:16:05,815 bilo putem razvoja umjetne inteligencije 263 00:16:05,839 --> 00:16:08,768 ili putem genetskog inženjeringa. 264 00:16:08,792 --> 00:16:14,260 Da li je ta izglednost promjene političkog sustava, kolapsa, 265 00:16:14,284 --> 00:16:16,948 utjecala na vaš stav o toj mogućnosti? 266 00:16:17,553 --> 00:16:20,648 YNH: Pa, ja mislim da je to čini čak još vjerojatnijom 267 00:16:20,672 --> 00:16:23,601 i veća je vjerojatnost da će se dogoditi brže, 268 00:16:23,625 --> 00:16:28,648 zato jer u vremenima krize ljudi su spremni poduzimati rizike 269 00:16:28,672 --> 00:16:30,656 koje inače ne bi poduzimali. 270 00:16:30,680 --> 00:16:33,498 I ljudi su spremni iskušati 271 00:16:33,522 --> 00:16:37,395 sve vrste visoko-rizičnih, visoko-dobitnih tehnologija. 272 00:16:37,760 --> 00:16:41,990 Dakle, takve vrste kriza možda mogu služiti istoj funkciji 273 00:16:42,014 --> 00:16:45,228 kao dva svjetska rata u 20.-tom stoljeću. 274 00:16:45,252 --> 00:16:48,464 Dva svjetska rata znatno su ubrzala 275 00:16:48,488 --> 00:16:52,100 razvoj novih i opasnih tehnologija. 276 00:16:52,124 --> 00:16:55,408 A ista stvar bi se mogla dogoditi u 21. stoljeću. 277 00:16:55,721 --> 00:16:59,618 Mislim, morate biti pomalo ludi da prebrzo jurite, 278 00:16:59,642 --> 00:17:01,967 recimo, s genetskim inženjeringom. 279 00:17:01,991 --> 00:17:05,101 Ali danas imate sve više i više ludih ljudi 280 00:17:05,125 --> 00:17:07,806 koji vode različite zemlje u svijetu, 281 00:17:07,830 --> 00:17:10,897 pa su šanse sve veće, a ne manje. 282 00:17:11,447 --> 00:17:14,842 CA: Pa, uzevši sve to zajedno, Yuval, vi imate tu jedinstvenu viziju. 283 00:17:14,906 --> 00:17:16,623 Pomaknimo sat 30 godina unaprijed. 284 00:17:16,647 --> 00:17:19,910 Što vi mislite -- hoće li se čovječanstvo nekako izvući, 285 00:17:19,934 --> 00:17:23,069 pogledati unazad i reći, "Vau, to je bilo blizu. Uspjeli smo!" 286 00:17:23,093 --> 00:17:24,529 Ili ne? 287 00:17:24,553 --> 00:17:28,401 YNH: Do sada smo uspjeli prevladati sve prethodne krize. 288 00:17:28,425 --> 00:17:31,244 A pogotovo ako pogledate liberalnu demokraciju 289 00:17:31,268 --> 00:17:34,212 i mislite da su stvari sada loše, 290 00:17:34,236 --> 00:17:40,702 samo se sjetite koliko su gore stvari izgledale 1938. ili 1968. godine. 291 00:17:40,726 --> 00:17:43,717 Dakle, ovo stvarno nije ništa, ovo je samo mala kriza. 292 00:17:44,167 --> 00:17:46,136 Ali nikad se ne zna, 293 00:17:46,160 --> 00:17:48,291 jer, kao povjesničar znam 294 00:17:48,315 --> 00:17:53,089 da nikada ne smijete podcijeniti ljudsku glupost. 295 00:17:53,113 --> 00:17:54,268 (Smijeh) (Pljesak) 296 00:17:54,292 --> 00:17:58,296 Ona je jedna od najmoćnijih sila koje oblikuju povijest. 297 00:17:59,113 --> 00:18:01,858 CA: Yuval, bio je apsolutni užitak biti s vama. 298 00:18:01,882 --> 00:18:04,139 Hvala vam što ste poduzeli ovaj virtualni izlet. 299 00:18:04,163 --> 00:18:06,016 Želim vam ugodno veče tamo u Tel Avivu. 300 00:18:06,060 --> 00:18:06,875 Yuval Harari! 301 00:18:06,905 --> 00:18:08,611 YNH: Mnogo vam hvala. 302 00:18:08,635 --> 00:18:09,785 (Pljesak)