Zašto je fašizam tako primamljiv -- i kako ga vaši podaci mogu osnažiti
-
0:01 - 0:02Pozdrav svima.
-
0:04 - 0:08Ovo je pomalo smiješno jer ja jesam pisao
da će ljudi postati digitalni, -
0:09 - 0:11ali nisam mislio da će se to
dogoditi tako brzo -
0:11 - 0:13i da će se dogoditi meni.
-
0:14 - 0:16No, evo tu sam, kao digitalni avatar,
-
0:16 - 0:19a vi ste ovdje, pa počnimo.
-
0:20 - 0:22Počnimo pitanjem.
-
0:23 - 0:26Koliko fašista ima danas u publici?
-
0:26 - 0:28(Smijeh)
-
0:28 - 0:30Pa, to je malo teško reći
-
0:30 - 0:34jer smo zaboravili što je zapravo fašizam.
-
0:34 - 0:37Ljudi danas koriste izraz "fašist"
-
0:37 - 0:40kao neku vrstu univerzalne uvrede.
-
0:40 - 0:44Ili fašizam brkaju s nacionalizmom.
-
0:45 - 0:50Pa, hajdemo u nekoliko minuta
razjasniti što je fašizam zapravo -
0:50 - 0:53i kako se razlikuje od nacionalizma.
-
0:54 - 0:59Blaži oblici nacionalizma
su među najbenevolentnijim oblicima -
0:59 - 1:00ljudskih kreacija.
-
1:01 - 1:05Nacije su zajednice milijuna stranaca
-
1:05 - 1:07koji se zapravo ne poznaju međusobno.
-
1:07 - 1:11Na primjer, ja ne poznajem
osam milijuna ljudi -
1:11 - 1:13koji dijele moje izraelsko državljanstvo.
-
1:14 - 1:16No, zahvaljujući nacionalizmu
-
1:16 - 1:20mi svi možemo brinuti jedni o drugima
i učinkovito surađivati. -
1:20 - 1:22To je jako dobro.
-
1:22 - 1:28Neki ljudi, poput Johna Lennona,
zamišljaju da će bez nacionalizma -
1:28 - 1:32svijet biti miroljubivi raj.
-
1:32 - 1:33No, mnogo je izglednije
-
1:33 - 1:38da bismo bez nacionalizma
živjeli u plemenskom kaosu. -
1:39 - 1:44Ako danas pogledate najnaprednije
i namiroljubivije zemlje u svijetu, -
1:44 - 1:48zemlje poput Švedske
i Švicarske i Japana, -
1:48 - 1:53vidjet ćete da one imaju
vrlo jak nacionalni osjećaj. -
1:54 - 1:58Nasuprot tome, zemlje kojima
nedostaje jak nacionalni osjećaj, -
1:58 - 2:01poput Konga i Somalije i Afganistana,
-
2:01 - 2:04imaju tendenciju nasilju i siromaštvu.
-
2:05 - 2:09Dakle, što je fašizam
i kako se razlikuje od nacionalizma? -
2:10 - 2:15Pa, nacionalizam mi govori
da je moja nacija jedinstvena -
2:15 - 2:19i da ja imam posebne obaveze
prema svojoj naciji. -
2:20 - 2:26Fašizam, nasuprot tome, govori mi
da je moja nacija dominantna -
2:26 - 2:30i da ja imam isključive obaveze
prema njoj. -
2:31 - 2:36Ja ne trebam mariti o nikomu
i ničemu osim moje nacije. -
2:36 - 2:40Obično, naravno,
ljudi imaju mnogo identiteta -
2:40 - 2:43i lojalnosti prema različitim grupama.
-
2:43 - 2:48Na primjer, ja mogu biti dobar domoljub,
lojalan svojoj zemlji, -
2:48 - 2:51i u isto vrijeme
biti lojalan svojoj obitelji, -
2:51 - 2:53svom susjedstvu, svojoj profesiji,
-
2:54 - 2:55čovječanstvu općenito,
-
2:55 - 2:57istini i ljepoti.
-
2:57 - 3:02Naravno, kada imam različite
identitete i lojalnosti, -
3:02 - 3:05to ponekad stvara konflikte
i komplikacije. -
3:06 - 3:09No, tko vam je ikada rekao
da je život jednostavan? -
3:10 - 3:12Život je kompliciran.
-
3:12 - 3:13Pomirite se s tim.
-
3:14 - 3:20Fašizam je ono što se događa kada
ljudi pokušavaju ignorirati komplikacije -
3:20 - 3:23i previše si olakšavati život.
-
3:24 - 3:30Fašizam negira sve identitete
osim nacionalnog identiteta -
3:30 - 3:35i insistira da imam obaveze
samo prema svojoj naciji. -
3:35 - 3:40Ako moja nacija zahtijeva
da žrtvujem svoju obitelj, -
3:40 - 3:42onda ću žrtvovati svoju obitelj.
-
3:42 - 3:46Ako nacija zahtijeva
da ubijem milijune ljudi, -
3:46 - 3:49onda ću ubiti milijune ljudi.
-
3:49 - 3:56I ako moja nacija zahtijeva
da izdam istinu i ljepotu, -
3:56 - 3:59onda moram izdati istinu i ljepotu.
-
4:00 - 4:04Na primjer, kako fašist
procjenjuje umjetnost? -
4:05 - 4:10Kako fašist odlučuje
da li je neki film dobar ili loš? -
4:11 - 4:15Pa, to je jako, jako, jako jednostavno.
-
4:15 - 4:17Postoji zapravo samo jedno mjerilo:
-
4:18 - 4:21ako film služi interesima nacije,
-
4:21 - 4:23to je dobar film;
-
4:23 - 4:26ako film ne služi interesima nacije,
-
4:26 - 4:27to je loš film.
-
4:27 - 4:28To je to.
-
4:28 - 4:33Slično, kako fašist odlučuje
što učiti djecu u školi? -
4:34 - 4:36Ponovo, to je vrlo jednostavno.
-
4:36 - 4:38Postoji samo jedno mjerilo:
-
4:38 - 4:43djecu učite onome
što služi interesima nacije. -
4:43 - 4:46Istina uopće nije važna.
-
4:48 - 4:54Užasi Drugog svjetskog rata i Holokausta
podsjećaju nas -
4:54 - 4:58na užasne posljedice
takvog načina razmišljanja. -
4:59 - 5:03No, obično kada govorimo o zlu fašizma,
-
5:03 - 5:06mi to radimo na neučinkovit način
-
5:06 - 5:11jer smo skloni fašizam prikazivati
kao odvratnog monstruma, -
5:11 - 5:15bez da stvarno objasnimo
što je to tako zavodljivo u njemu. -
5:15 - 5:20To je pomalo kao u holivudskim filmovima
koji prikazuju zločeste dečke -- -
5:20 - 5:24Voldemorta ili Saurona il Dartha Vadera --
-
5:24 - 5:27kao ružne i zle i okrutne.
-
5:27 - 5:29Oni su okrutni čak i
prema vlastitim pristalicama. -
5:30 - 5:33Kada gledam te filmove
nikada mi nije jasno -- -
5:33 - 5:40zašto bi itko došao u napast da slijedi
odvratnu nakazu poput Voldemorta? -
5:41 - 5:44problem sa zlom je da u stvarnom životu
-
5:44 - 5:47zlo nije nužno ružno naizgled.
-
5:48 - 5:50Ono može izgledati vrlo lijepo.
-
5:50 - 5:53To je nešto što kršćanstvo jako dobro zna
-
5:53 - 5:57i zbog čega se u kršćanskoj umjetnosti,
za razliku od Hollywooda, -
5:57 - 6:01Sotona obično prikazuje
kao prekrasan 'komad'. -
6:01 - 6:06To je razlog da je tako teško
odoljeti njegovim iskušenjima -
6:06 - 6:11i zašto je također teško
odoljeti iskušenjima fašizma. -
6:11 - 6:14Fašizam djeluje na ljude tako
da se oni vide -
6:14 - 6:19kao pripadnici najljepše
i najvažnije stvari na svijetu -- -
6:19 - 6:20nacije.
-
6:20 - 6:22I onda ljudi misle,
-
6:22 - 6:25"Pa dobro, učili su nas
da je fašizam ružan. -
6:25 - 6:28Ali kad pogledam u ogledalo
ja vidim nešto prekrasno, -
6:28 - 6:31stoga ja ne mogu biti fašist, zar ne?"
-
6:31 - 6:32Krivo.
-
6:32 - 6:34To je problem sa fašizmom.
-
6:34 - 6:36Kada pogledate u fašističko ogledalo,
-
6:36 - 6:41vi sebe vidite daleko ljepšim
no što stvarno jeste. -
6:41 - 6:46Tridesetih godina, kada su Nijemci
gledali u fašističko ogledalo, -
6:46 - 6:50vidjeli su Njemačku
kao najljepšu stvar na svijetu. -
6:50 - 6:54Ako danas Rusi pogledaju
u fašističko ogledalo, -
6:54 - 6:57vidjet će Rusiju kao najljepšu
stvar na svijetu. -
6:58 - 7:01A ako Izraelci pogledaju
u fašističko ogledalo, -
7:01 - 7:05vidjet će Izrael kao najljepšu
stvar na svijetu. -
7:07 - 7:12To ne znači da smo danas suočeni
s ponavljanjem 1930.-tih. -
7:12 - 7:16Fašizam i diktature mogli bi se vratiti,
-
7:16 - 7:19ali vratit će se u novom obliku,
-
7:19 - 7:22u obliku koji je puno podobniji
-
7:22 - 7:26za nove tehnološke stvarnosti
21. stoljeća. -
7:27 - 7:28U drevnim vremenima
-
7:28 - 7:32zemlja je bila najvažnija
prednost na svijetu. -
7:33 - 7:37Politika je, stoga, bila
borba za kontrolu zemlje. -
7:37 - 7:43A diktatura je značila da je sva zemlja
u vlasništvu jednog vladara -
7:43 - 7:45ili male oligarhije.
-
7:46 - 7:51A u moderno doba strojevi
su postali važniji od zemlje. -
7:51 - 7:55Politika je postala borba
za kontrolu nad strojevima. -
7:55 - 7:57A diktatura znači
-
7:57 - 8:01da je previše strojeva
postalo koncentrirano -
8:01 - 8:05u rukama vlade ili malobrojne elite.
-
8:05 - 8:10Danas su podaci zamijenili
i zemlju i strojeve -
8:10 - 8:12kao najvažnija prednost ili imovina.
-
8:13 - 8:18Politika postaje borba za kontrolu
nad tokovima podataka. -
8:18 - 8:21A diktatura sada znači
-
8:21 - 8:26da je previše podataka koncentrirano
u rukama vlade -
8:26 - 8:28ili malobrojne elite.
-
8:29 - 8:34Najveća opasnost s kojom se danas
suočava liberalna demokracija -
8:34 - 8:37jest da će revolucija
informacijske tehnologije -
8:37 - 8:42učiniti diktature učinkovitijima
od demokracija. -
8:43 - 8:44U 20. stoljeću
-
8:44 - 8:49demokracija i kapitalizam
porazili su fašizam i komunizam -
8:49 - 8:55zato jer je demokracija bila bolja
u obradi podataka i donošenju odluka. -
8:55 - 8:58Uz danu tehnologiju 20. stoljeća
-
8:58 - 9:04bilo je jednostavno neefikasno pokušavati
koncentrirati previše podataka -
9:04 - 9:07i previše moći u jednom mjestu.
-
9:07 - 9:12Ali to nije zakon prirode
-
9:12 - 9:17da je centralizirana obrada podataka
uvijek manje učinkovita -
9:17 - 9:20od distribuirane obrade podataka.
-
9:21 - 9:24Napretkom umjetne inteligencije
i strojnog učenja -
9:24 - 9:30možda postane izvodivo obrađivati
ogromne količine informacija -
9:30 - 9:33vrlo učinkovito na jednom mjestu,
-
9:33 - 9:36sve odluke donositi na jednom mjestu,
-
9:36 - 9:40i tada će centralizirana obrada podataka
biti učinkovitija -
9:40 - 9:42od distribuirane obrade podataka.
-
9:43 - 9:47I onda će glavni nedostatak
autoritarnih režima -
9:47 - 9:48u 20. stoljeću --
-
9:48 - 9:53njihov pokušaj da koncentriraju
sve informacije na jednom mjestu -- -
9:53 - 9:56postati njihova najveća prednost.
-
9:59 - 10:04Druga tehnološka opasnost
koja prijeti budućnosti demokracije -
10:04 - 10:09jest udruživanje informacijske tehnologije
sa biotehnologijom, -
10:09 - 10:13što bi moglo rezultirati
u stvaranju algoritama -
10:13 - 10:17koje me poznaju bolje od mene samog.
-
10:18 - 10:20A jednom kada imate takve algoritme,
-
10:20 - 10:23vanjski sustav, poput vlade,
-
10:23 - 10:26ne samo da može predvidjeti moje odluke,
-
10:26 - 10:30već može i manipulirati
mojim osjećajima, mojim emocijama. -
10:31 - 10:36Diktator možda neće biti u stanju
osigurati dobru zdravstvenu skrb, -
10:36 - 10:39ali će biti u stanju
postići da ga volim -
10:39 - 10:42i da mrzim opoziciju.
-
10:43 - 10:48Demokraciji će biti teško
preživjeti takav razvoj -
10:49 - 10:51jer, na koncu,
-
10:51 - 10:55demokracija se ne bazira
na ljudskoj racionalnosti; -
10:55 - 10:57ona se bazira na ljudskim osjećajima.
-
10:58 - 11:01Za vrijeme izbora ili referenduma
-
11:01 - 11:04ne pitaju vas, "Što mislite?"
-
11:04 - 11:07Vas zapravo pitaju, "Kako se osjećate?"
-
11:08 - 11:13A ako netko može učinkovito
manipulirati vašim osjećajima, -
11:13 - 11:17demokracija će postati
emocionalna lutkarska predstava. -
11:18 - 11:23Što, dakle, možemo mi učiniti
da spriječimo povratak fašizma -
11:23 - 11:25i pojavu novih diktatura?
-
11:26 - 11:32Pitanje broj jedan s kojim se suočavamo
je: Tko kontrolira podatke? -
11:33 - 11:34Ako ste inženjer,
-
11:35 - 11:38onda nađite načine da spriječite
da previše podataka -
11:39 - 11:41bude koncentrirano u premalo ruku.
-
11:42 - 11:45I nađite načine da osigurate
-
11:45 - 11:49da je distribuirana obrada podataka
u najmanju ruku jednako učinkovita -
11:49 - 11:52kao centralizirana obrada podataka.
-
11:52 - 11:56To će biti najbolja zaštita demokracije.
-
11:56 - 11:59Što se tiče nas ostalih,
koji nismo inženjeri, -
11:59 - 12:03prvo pitanje s kojim se mi suočavamo
-
12:03 - 12:07jeste kako da ne dozvolimo
da budemo manipulirani -
12:07 - 12:10od onih koji kontroliraju podatke.
-
12:11 - 12:15Neprijatelji liberalnih demokracija,
oni imaju metodu. -
12:16 - 12:18Oni hakiraju naše osjećaje.
-
12:18 - 12:21Ne naše emailove,
ne naše bankovne račune -- -
12:21 - 12:26oni hakiraju naše osjećaje
straha i mržnje i sujete -
12:26 - 12:28i onda te osjećaje koriste
-
12:28 - 12:32za polarizaciju i uništavanje
demokracije iznutra. -
12:33 - 12:35To je zapravo metoda
-
12:35 - 12:40koju je prva uvela Silikonska dolina
kako bi nam prodala proizvode. -
12:40 - 12:45Ali sada, neprijatelji demokracije
koriste tu istu metodu -
12:45 - 12:49da nam prodaju strah i mržnju i sujetu.
-
12:50 - 12:54Oni te osjećaje ne mogu
stvoriti iz ničega. -
12:54 - 12:58Zato nastoje upoznati naše
vlastite prvobitne slabosti -
12:58 - 13:01i onda ih iskoristiti protiv nas.
-
13:01 - 13:05Zbog toga je odgovornost svih nas
-
13:05 - 13:08da spoznamo svoje slabosti
-
13:08 - 13:11i potrudimo se da one ne postanu oružje
-
13:11 - 13:14u rukama neprijatelja demokracije.
-
13:15 - 13:18Spoznavanje vlastitih slabosti
-
13:18 - 13:23pomoći će nam također da izbjegnemo
zamku fašističkog ogledala. -
13:24 - 13:28Kao što smo ranije objasnili,
fažizam eksploatira našu sujetu. -
13:29 - 13:35On čini da sebe vidimo daleko ljepšima
no što stvarno jesmo. -
13:35 - 13:36To je zavođenje.
-
13:36 - 13:39No, ako stvarno poznajete sebe,
-
13:39 - 13:42tada nećete pasti na ovu vrstu laskanja.
-
13:43 - 13:47Ako vam netko pred oči postavi ogledalo
-
13:47 - 13:52koje skriva sve vaše ružne komadiće
i čini da sebe vidite -
13:52 - 13:56daleko ljepšim i daleko važnijim
-
13:56 - 13:58no što ustvari jeste,
-
13:58 - 14:01jednostavno razbijte to ogledalo.
-
14:02 - 14:03Hvala.
-
14:03 - 14:09(Pljesak)
-
14:11 - 14:12Chris Anderson: Yuval, hvala vam.
-
14:12 - 14:13Moj bože!
-
14:14 - 14:16Tako je lijepo vidjeti vas ponovo.
-
14:16 - 14:18Dakle, ako sam vas dobro razumio,
-
14:18 - 14:20vi nas ovdje upozoravate
na dvije velike opasnosti. -
14:20 - 14:25Jedna je moguće ponovno oživljavanje
zavodljivog oblika fašizma, -
14:25 - 14:29no, povezano s tim, diktatura
koje ne moraju biti baš fašističke, -
14:29 - 14:32već kontroliraju sve podatke.
-
14:32 - 14:34Pitam se postoji li treća zabrinutost
-
14:34 - 14:36koju se neki ljudi ovdje već izrazili,
-
14:36 - 14:41slučaj kada, ne vlade, nego velike
korporacije kontroliraju sve podatke. -
14:41 - 14:42Kako vi to nazivate
-
14:42 - 14:45i koliko moramo biti zabrinuti
u vezi s tim? -
14:45 - 14:48Yuval Noah Harari: Pa, na koncu,
nema tako velike razlike -
14:48 - 14:50između korporacija i vlada
-
14:50 - 14:54jer, kao što sam rekao, pitanje je:
Tko kontrolira podatke? -
14:54 - 14:55To je prava vlada.
-
14:55 - 14:58Nazivate li to korporacijom ili vladom --
-
14:58 - 15:01ako je to korporacija
i ona stvarno kontrolira podatke, -
15:01 - 15:03to je naša prava vlada.
-
15:03 - 15:06Dakle, razlika je više prividna
nego stvarna. -
15:07 - 15:09CA: Ali nekako,
bar u slučaju korporacija, -
15:09 - 15:13možete zamisliti tržišne mehanizme
kojima se one mogu srušiti. -
15:13 - 15:15Mislim, ako potrošači odluče
-
15:15 - 15:18da kompanija više ne radi
u njihovom interesu, -
15:18 - 15:20to otvara vrata jednom drugom tržištu.
-
15:20 - 15:21Naizgled je lakše zamisliti to
-
15:21 - 15:24nego, recimo, građane koji ustaju
i ruše vladu -
15:24 - 15:26koji ima kontrolu nad svime.
-
15:26 - 15:28YNH: Pa nismo još dotle stigli,
-
15:28 - 15:33ali, ponovo, ako vas korporacija stvarno
poznaje bolje no što vi poznajete sebe -- -
15:33 - 15:38u najmanju ruku ona može manipulirati
vašim najdubljim emocijama i željama, -
15:38 - 15:40a vi to čak nećete ni znati --
-
15:40 - 15:42mislit ćete da je to
vaša autentična ličnost. -
15:43 - 15:47Zato u teoriji, da, u teoriji,
možete se dignuti protiv korporacija, -
15:47 - 15:51kao što se u teoriji možete
dignuti protiv diktature. -
15:51 - 15:54Ali u praksi je to izuzetno teško.
-
15:55 - 15:59CA: U "Homo Deusu" vi tvrdite
da će ovo biti stoljeće -
15:59 - 16:03kada ljudi na neki način postaju bogovi,
-
16:03 - 16:06bilo putem razvoja umjetne inteligencije
-
16:06 - 16:09ili putem genetskog inženjeringa.
-
16:09 - 16:14Da li je ta izglednost promjene
političkog sustava, kolapsa, -
16:14 - 16:17utjecala na vaš stav o toj mogućnosti?
-
16:18 - 16:21YNH: Pa, ja mislim da je to čini
čak još vjerojatnijom -
16:21 - 16:24i veća je vjerojatnost
da će se dogoditi brže, -
16:24 - 16:29zato jer u vremenima krize
ljudi su spremni poduzimati rizike -
16:29 - 16:31koje inače ne bi poduzimali.
-
16:31 - 16:33I ljudi su spremni iskušati
-
16:34 - 16:37sve vrste visoko-rizičnih,
visoko-dobitnih tehnologija. -
16:38 - 16:42Dakle, takve vrste kriza
možda mogu služiti istoj funkciji -
16:42 - 16:45kao dva svjetska rata
u 20.-tom stoljeću. -
16:45 - 16:48Dva svjetska rata znatno su ubrzala
-
16:48 - 16:52razvoj novih i opasnih tehnologija.
-
16:52 - 16:55A ista stvar bi se mogla dogoditi
u 21. stoljeću. -
16:56 - 17:00Mislim, morate biti pomalo ludi
da prebrzo jurite, -
17:00 - 17:02recimo, s genetskim inženjeringom.
-
17:02 - 17:05Ali danas imate sve
više i više ludih ljudi -
17:05 - 17:08koji vode različite zemlje u svijetu,
-
17:08 - 17:11pa su šanse sve veće, a ne manje.
-
17:11 - 17:15CA: Pa, uzevši sve to zajedno, Yuval,
vi imate tu jedinstvenu viziju. -
17:15 - 17:17Pomaknimo sat 30 godina unaprijed.
-
17:17 - 17:20Što vi mislite --
hoće li se čovječanstvo nekako izvući, -
17:20 - 17:23pogledati unazad i reći, "Vau,
to je bilo blizu. Uspjeli smo!" -
17:23 - 17:25Ili ne?
-
17:25 - 17:28YNH: Do sada smo uspjeli
prevladati sve prethodne krize. -
17:28 - 17:31A pogotovo ako pogledate
liberalnu demokraciju -
17:31 - 17:34i mislite da su stvari sada loše,
-
17:34 - 17:41samo se sjetite koliko su gore
stvari izgledale 1938. ili 1968. godine. -
17:41 - 17:44Dakle, ovo stvarno nije ništa,
ovo je samo mala kriza. -
17:44 - 17:46Ali nikad se ne zna,
-
17:46 - 17:48jer, kao povjesničar znam
-
17:48 - 17:53da nikada ne smijete podcijeniti
ljudsku glupost. -
17:53 - 17:54(Smijeh) (Pljesak)
-
17:54 - 17:58Ona je jedna od najmoćnijih sila
koje oblikuju povijest. -
17:59 - 18:02CA: Yuval, bio je apsolutni užitak
biti s vama. -
18:02 - 18:04Hvala vam što ste poduzeli
ovaj virtualni izlet. -
18:04 - 18:06Želim vam ugodno veče tamo u Tel Avivu.
-
18:06 - 18:07Yuval Harari!
-
18:07 - 18:09YNH: Mnogo vam hvala.
-
18:09 - 18:10(Pljesak)
- Title:
- Zašto je fašizam tako primamljiv -- i kako ga vaši podaci mogu osnažiti
- Speaker:
- Yuval Noah Harari
- Description:
-
U dubokoumnom govoru o tehnologiji i moći, autor i povjesničar Yuval Noah Harari objašnjava važnu razliku između fašizma i nacionalizma -- i što konsolidacija naših podataka znači za budućnost demokracije. Pojavljujući se kao hologram uživo iz Tel Aviva, Harari upozorava da je najveća opasnost, s kojom se danas suočava liberalna demokracija, revolucija u informacijskoj tehnologiji koja će diktaturama omogućiti još bolju i učinkovitiju kontrolu. "Neprijatelji liberalne demokracije hakiraju naše osjećaje straha i mržnje i sujete i onda te osjećaje koriste za polarizaciju i uništavanje," kaže Harari. "Odgovornost je svih nas da spoznamo svoje slabosti i spriječimo da one postanu oružje."
(Popraćeno kratkim razgovorom s TED voditeljem Chrisom Andersonom) - Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 18:22
![]() |
Retired user approved Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
iva m accepted Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
iva m edited Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
Djurdjica Ercegovac edited Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
Djurdjica Ercegovac edited Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
Djurdjica Ercegovac edited Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
Djurdjica Ercegovac edited Croatian subtitles for Why fascism is so tempting -- and how your data could power it | |
![]() |
Djurdjica Ercegovac edited Croatian subtitles for Why fascism is so tempting -- and how your data could power it |