Return to Video

U bizarnom svijetu internet trolova i propagandista

  • 0:01 - 0:02
    Proveo sam protekle tri godine
  • 0:02 - 0:05
    pričajući s nekim od najgorih
    ljudi na internetu.
  • 0:06 - 0:09
    Ukoliko ste nedavno bili na internetu,
  • 0:09 - 0:12
    možda ste primijetili
    mnogo toksičnog smeća:
  • 0:12 - 0:17
    rasističkih memeova, ženomrzačke
    propagande, viralnih dezinformacija.
  • 0:17 - 0:19
    Htio sam saznati tko stoji iza toga.
  • 0:19 - 0:22
    Htio sam razumjeti kako su to proširili.
  • 0:22 - 0:23
    Na kraju krajeva, želio sam saznati
  • 0:23 - 0:26
    kakav bi mogao biti utjecaj
    tog sadržaja na naše društvo.
  • 0:26 - 0:30
    Tako sam 2016. počeo pratiti
    neke od memeova do njihovog izvora,
  • 0:30 - 0:33
    natrag do ljudi koji su ih stvarali
    ili koji su ih lansirali na internet.
  • 0:33 - 0:34
    Prilazio sam tim ljudima i rekao,
  • 0:34 - 0:37
    "Hej, ja sam novinar. Mogu li
    vas promatrati dok radite?"
  • 0:37 - 0:39
    Često bi odgovor bio nešto poput,
  • 0:39 - 0:41
    "Zašto bi, dovraga, želio pričati
  • 0:41 - 0:44
    s nekim soja dečkom, globalistom iz
    Brooklyna koji je židovski sluga
  • 0:44 - 0:46
    i podržava Demokratsku stranku?"
  • 0:46 - 0:47
    (Smijeh)
  • 0:47 - 0:51
    Na što bi moj odgovor bio,
    "Čuj stari, samo si 57% u pravu."
  • 0:51 - 0:52
    (Smijeh)
  • 0:53 - 0:54
    No, često bih dobio suprotan odgovor.
  • 0:54 - 0:56
    "Da, svakako, samo navrati."
  • 0:57 - 0:59
    Tako sam završio u dnevnoj sobi
  • 0:59 - 1:02
    propagandista s društvenih
    mreža u Južnoj Kaliforniji.
  • 1:02 - 1:05
    Bio je to oženjen frajer u kasnim 30-ima.
  • 1:05 - 1:08
    Pred sobom je imao stol sa šalicom kave,
  • 1:08 - 1:10
    laptop za postanje na Tweeteru,
  • 1:10 - 1:11
    mobitel za poruke,
  • 1:11 - 1:15
    iPad za emitiranje
    na Periscopeu i YouTubeu.
  • 1:15 - 1:16
    I to je bilo to.
  • 1:17 - 1:18
    Ipak, sa svim tim alatima
  • 1:18 - 1:22
    mogao je lansirati svoja otrovna,
    ekstremna stajališta
  • 1:22 - 1:24
    ravno u srce američkog razgovora.
  • 1:25 - 1:27
    Primjerice, jednog dana dok sam bio tamo,
  • 1:27 - 1:30
    bomba je eksplodirala u New Yorku,
  • 1:30 - 1:34
    za što je optužen čovjek imena
    koje je zvučalo muslimanski.
  • 1:34 - 1:38
    Za ovog propagandista u Kaliforniji
    to je bila odlična prilika,
  • 1:38 - 1:40
    jer se, između ostalog, zalagao
  • 1:40 - 1:42
    za to da SAD ukinu gotovo svo useljavanje,
  • 1:42 - 1:45
    osobito iz muslimanskih zemalja.
  • 1:45 - 1:47
    Radi toga je počeo emitirati livestream,
  • 1:48 - 1:50
    dok su njegovi pratitelji
    postajali sve bjesniji
  • 1:50 - 1:53
    zbog toga što će nas politika
    otvorenih granica sve poubijati,
  • 1:53 - 1:54
    i tražio je od njih da tvitaju o tome,
  • 1:54 - 1:56
    koriste određene hashtagove,
  • 1:56 - 1:58
    i pokušao postići da ti hashtagovi
    dođu na Twitter trending listu.
  • 1:58 - 1:59
    Oni su zaista i tvitali,
  • 1:59 - 2:01
    stotine i stotine postova.
  • 2:01 - 2:03
    Mnogi od njih objavili su i slike poput ove.
  • 2:03 - 2:05
    Ovo je George Soros.
  • 2:05 - 2:08
    On je mađarski milijarder i filantrop,
  • 2:08 - 2:10
    i prema ljubiteljima teorija
    zavjera na internetu,
  • 2:10 - 2:13
    George Soros je neka vrsta
    globalista babaroge,
  • 2:13 - 2:17
    jedan od malobrojne elite koja
    upravlja svjetskim događajima.
  • 2:17 - 2:21
    Sad, samo da napravim pauzu,
    ukoliko vam se ova ideja čini poznatom,
  • 2:21 - 2:23
    da postoji malobrojna elita
    koja kontrolira svijet
  • 2:23 - 2:26
    i koja se sastoji uglavnom
    od bogatih Židova,
  • 2:26 - 2:29
    to je zato jer je to jedan od
    najčešćih antisemitskih motiva.
  • 2:30 - 2:34
    Još bih samo napomenuo
    da je čovjek koji je postavio
  • 2:34 - 2:35
    tu bombu u New Yorku
    bio američki državljanin.
  • 2:36 - 2:38
    Dakle, o čemu god da
    se radilo u tom slučaju,
  • 2:38 - 2:40
    imigracija nije bila glavni problem.
  • 2:41 - 2:44
    Propagandist u Kaliforniji je
    sve to vrlo dobro razumio.
  • 2:44 - 2:47
    Bio je to načitan čovjek.
    Zapravo je bio odvjetnik.
  • 2:47 - 2:48
    Znao je sve činjenice,
  • 2:48 - 2:52
    ali je također znao da činjenice
    nisu bitne za dijalog na internetu.
  • 2:52 - 2:53
    Ono što je bitno na internetu
  • 2:53 - 2:55
    su emocije.
  • 2:55 - 2:57
    Originalna ideja društvenih mreža
  • 2:57 - 3:00
    bila je da nas sve poveže
  • 3:00 - 3:02
    i stvori otvoreniji, tolerantniji
    i pravedniji svijet.
  • 3:02 - 3:03
    To se donekle ostvarilo.
  • 3:05 - 3:07
    Ali, algoritmi društvenih mreža
    nisu nikad bili stvoreni
  • 3:07 - 3:10
    da razlikuju što je točno, a što ne,
  • 3:10 - 3:14
    što je dobro ili loše za društvo,
    što prosocijalno, a što antisocijalno.
  • 3:14 - 3:16
    Algoritmi to ne rade.
  • 3:16 - 3:19
    Ono što oni rade jest da
    mjere aktivnost korisnika:
  • 3:19 - 3:22
    klikove, komentare, podjele
    sadržaja, takve stvari.
  • 3:22 - 3:25
    Ukoliko želite da vaš sadržaj
    dobije takvu aktivnost,
  • 3:25 - 3:26
    morate izazvati emocije.
  • 3:26 - 3:30
    Točnije, ono što znanstvenici
    nazivaju "emocije visoke uzbuđenosti".
  • 3:30 - 3:33
    Visoka uzbuđenost ne znači samo
    seksualno uzbuđenje,
  • 3:33 - 3:36
    iako je očito internet
    ono što je izaziva.
  • 3:36 - 3:40
    To znači bilo što, pozitivno ili negativno
    što ubrzava rad vašeg srca.
  • 3:40 - 3:42
    Tako bih ja sjedio s tim propagandistima,
  • 3:42 - 3:44
    ne samo s onim u Kaliforniji,
    nego i drugima,
  • 3:44 - 3:48
    i gledao bih kako to rade,
    svaki put uspješno,
  • 3:48 - 3:51
    ne zato jer su ruski hakeri,
    ne zato jer su tehnološki geniji,
  • 3:51 - 3:54
    ne zato jer imaju jedinstvene
    političke poglede -
  • 3:54 - 3:56
    samo zato jer su razumjeli
    kako rade društvene mreže
  • 3:56 - 3:59
    i bili su spremni iskoristiti
    ih za svoje ciljeve.
  • 3:59 - 4:02
    Ispočetka sam govorio sam sebi
    da je ovo rubni fenomen,
  • 4:02 - 4:04
    nešto što se samo preselilo na internet.
  • 4:04 - 4:09
    No, više ne postoji razlika između
    interneta i svega ostalog.
  • 4:09 - 4:11
    Ovo je oglas prikazan na više TV postaja
  • 4:11 - 4:14
    tijekom izbora za kongres 2018. godine,
  • 4:14 - 4:16
    u kojem se bez dokaza optužuje
    jednog od kandidata
  • 4:17 - 4:19
    da je marioneta kojom upravlja
    manipulator George Soros,
  • 4:19 - 4:23
    kojeg su na ovoj slici nevješto
    zalijepili pored brda love.
  • 4:23 - 4:26
    Ovo je post na Twitteru predsjednika SAD-a,
  • 4:26 - 4:28
    u kojem on, bez dokaza, tvrdi
  • 4:28 - 4:31
    da američkom politikom
    manipulira upravo Soros.
  • 4:31 - 4:35
    Ono što se nekad činilo šokantnim,
    marginalnim, ili iskreno, za ignoriranje,
  • 4:35 - 4:38
    danas je toliko normalizirano
    da to uopće ne primjećujemo.
  • 4:38 - 4:40
    Proveo sam oko tri godine u ovom svijetu.
  • 4:40 - 4:42
    Razgovarao sam s puno ljudi.
  • 4:42 - 4:44
    Neki od njih nisu imali
    nekakva temeljna uvjerenja.
  • 4:44 - 4:47
    Neki od njih posve su
    racionalno zaključili
  • 4:47 - 4:49
    da ukoliko žele zaraditi na internetu
  • 4:49 - 4:50
    ili dobiti nešto pozornosti,
  • 4:50 - 4:53
    moraju biti što luđi.
  • 4:53 - 4:55
    No, razgovarao sam i s drugima,
    koji su pravi ideolozi.
  • 4:56 - 5:00
    Da budem jasan, njihova ideologija
    nije tradicionalni konzervativizam.
  • 5:00 - 5:03
    To su ljudi koji bi željeli
    ukinuti ženama pravo glasa.
  • 5:03 - 5:06
    To su ljudi koji bi se vratili
    u vremena rasnih podjela.
  • 5:06 - 5:09
    Neki od njih u cijelosti bi
    ukinuli demokraciju.
  • 5:09 - 5:12
    Ovi ljudi nisu rođeni
    vjerujući u takve stvari.
  • 5:12 - 5:15
    Nisu ih naučili u osnovnoj školi.
  • 5:15 - 5:18
    Mnogi od njih, prije negoli
    su kliznuli u zečju rupu interneta,
  • 5:18 - 5:20
    bili su libertarijanci
    ili čak socijalisti,
  • 5:20 - 5:23
    ili nešto posve drugačije.
  • 5:23 - 5:24
    O čemu je bila riječ?
  • 5:25 - 5:27
    Ne mogu govoriti za svaki slučaj,
  • 5:27 - 5:29
    ali mnogi ljudi s kojima sam pričao
  • 5:29 - 5:33
    imali su kombinaciju
    visokog IQ-a i niskog EQ-a.
  • 5:33 - 5:36
    Čini se da se dobro snalaze u
    anonimnim prostranstvima interneta,
  • 5:36 - 5:38
    umjesto stvaranja odnosa u stvarnosti.
  • 5:39 - 5:41
    Povlačili bi se na internet forume
  • 5:41 - 5:42
    ili "subreddite",
  • 5:42 - 5:45
    gdje su se njihovi najgori
    impulsi još povećavali.
  • 5:45 - 5:48
    Možda bi započinjali razgovore
    neukusnim šalama,
  • 5:48 - 5:51
    a onda bi ih netko
    ohrabrio zbog tih šala,
  • 5:51 - 5:54
    beznačajnih "internet točki",
    kako ih nazivaju,
  • 5:54 - 5:57
    da bi na kraju počeli
    vjerovati u te svoje šale.
  • 5:58 - 6:02
    Pričao sam s jednom mladom
    ženom koja je odrasla u New Jerseyu,
  • 6:02 - 6:04
    nakon srednje škole
    odselila se u drugi grad
  • 6:04 - 6:06
    i odjednom se osjećala
    usamljeno i izolirano,
  • 6:06 - 6:08
    i utjehu pronašla u mobitelu.
  • 6:09 - 6:11
    Pronašla je neke od ovih
    prostora na internetu
  • 6:11 - 6:14
    gdje ljudi postaju
    šokantne, odvratne stvari.
  • 6:14 - 6:16
    Sve joj je to bilo odbojno,
  • 6:16 - 6:18
    ali u isto vrijeme ju je fasciniralo,
  • 6:19 - 6:21
    toliko da nije mogla prestati čitati.
  • 6:21 - 6:24
    Počela je komunicirati s ljudima
    na tim internet stranicama,
  • 6:24 - 6:26
    zbog kojih se počela osjećati
    pametno i vrijedno.
  • 6:26 - 6:28
    Počela je osjećati duh zajedništva
  • 6:28 - 6:31
    i pitati se sadrže li neki
    od tih šokantnih postova
  • 6:31 - 6:34
    ipak i mrvicu istine.
  • 6:34 - 6:38
    Nekoliko mjeseci kasnije, s
    novim prijateljima s interneta
  • 6:38 - 6:39
    vozila se u Charlottesville u Virginiji,
  • 6:39 - 6:42
    kako bi stupala u paradi s
    bakljama, u ime bijele rase.
  • 6:43 - 6:45
    U nekoliko mjeseci pretvorila
    se iz Obaminog birača
  • 6:45 - 6:48
    u potpuno radikaliziranog
    bijelog supremacista.
  • 6:49 - 6:51
    U njenom slučaju,
  • 6:51 - 6:55
    ona se uspjela osloboditi
    iz kulta bjelačkog supremacizma.
  • 6:56 - 6:58
    Ali mnogi s kojima sam razgovarao nisu.
  • 6:59 - 7:00
    Samo da pojasnim:
  • 7:00 - 7:03
    nikad nisam bio uvjeren
    da moram pronaći nešto zajedničko
  • 7:03 - 7:05
    sa svakom osobom
    s kojom sam komunicirao,
  • 7:05 - 7:07
    tako da bih mogao reći,
  • 7:07 - 7:10
    "Znaš stari, ti si fašist, ja nisam,
  • 7:10 - 7:13
    dođi da se zagrlimo i sve
    naše razlike će nestati."
  • 7:13 - 7:15
    Ne, apsolutno ne.
  • 7:16 - 7:20
    Ali uvjerio sam se da ne
    možemo ignorirati ovakve stvari.
  • 7:20 - 7:23
    Moramo ih pokušati razumjeti,
    zato jer jedino kroz razumijevanje
  • 7:23 - 7:26
    možemo uopće početi
    štititi se od takvih stvari.
  • 7:27 - 7:31
    U ove tri godine, primio sam
    nekoliko gadnih poziva,
  • 7:31 - 7:32
    čak i nekoliko prijetnji,
  • 7:32 - 7:36
    ali to nije ni dio onog što
    proživljavaju novinarke.
  • 7:37 - 7:38
    I da, ja sam Židov,
  • 7:38 - 7:42
    iako, začudo, mnogi nacisti
    nisu prepoznali da sam Židov,
  • 7:42 - 7:45
    što me, iskreno, pomalo razočaralo.
  • 7:45 - 7:47
    (Smijeh)
  • 7:47 - 7:51
    Ozbiljno, a oni su
    profesionalni antisemiti.
  • 7:51 - 7:54
    Zar me ništa na meni nije odalo?
  • 7:54 - 7:55
    Baš ništa?
  • 7:55 - 7:57
    (Smijeh)
  • 7:58 - 7:59
    Ovo nije tajna.
  • 7:59 - 8:02
    Zovem se Andrew Marantz,
    pišem za "The New Yorker",
  • 8:02 - 8:04
    imam osobnost kao lik iz epizode Seinfelda
  • 8:04 - 8:06
    snimljene u Park Slope trgovini.
  • 8:06 - 8:07
    Ništa?
  • 8:08 - 8:10
    (Smijeh)
  • 8:13 - 8:15
    Na kraju krajeva, bilo bi lijepo
  • 8:15 - 8:17
    da postoji jednostavna formula:
  • 8:17 - 8:21
    mobitel plus usamljeni klinac
    jednako je 12% šanse da postane nacist.
  • 8:22 - 8:24
    Jasno, to nije tako jednostavno.
  • 8:24 - 8:25
    U mojim tekstovima
  • 8:25 - 8:29
    lakše mi je opisivati, nego
    govoriti što je ispravno.
  • 8:29 - 8:32
    Ali ovo je TED
  • 8:32 - 8:34
    pa budimo praktični.
  • 8:34 - 8:35
    Želim dati nekoliko prijedloga
  • 8:35 - 8:39
    što građani interneta poput vas i mene
  • 8:39 - 8:42
    mogu učiniti da stvari
    postanu malo manje toksične.
  • 8:43 - 8:45
    Prva je da budete pametni skeptik.
  • 8:46 - 8:48
    Mislim da postoje
    dvije vrste skepticizma.
  • 8:48 - 8:52
    I ne želim vas udaviti definicijama,
  • 8:52 - 8:56
    ali ja ih zovem pametnim
    i glupim skepticizmom.
  • 8:56 - 8:59
    Dakle, pametni skepticizam:
  • 8:59 - 9:00
    misliti svojom glavom,
  • 9:00 - 9:01
    preispitati činjenice,
  • 9:01 - 9:03
    tražiti dokaze,
  • 9:03 - 9:04
    sve je to zdravi skepticizam.
  • 9:05 - 9:08
    Glupi skepticizam: zvuči kao skepticizam,
  • 9:08 - 9:11
    ali je zapravo bliže
    refleksnom kontriranju.
  • 9:12 - 9:13
    Svi kažu da je Zemlja okrugla,
  • 9:13 - 9:15
    ti kažeš da je ravna.
  • 9:15 - 9:16
    Svi kažu da je rasizam loš,
  • 9:16 - 9:19
    ti kažeš, "Ne znam,
    skeptik sam u vezi s tim."
  • 9:20 - 9:24
    Ne mogu vam reći s koliko sam
    mladih bijelih muškaraca pričao
  • 9:24 - 9:25
    koji su mi rekli,
  • 9:25 - 9:28
    "Znaš, mediji, moji nastavnici,
    svi me pokušavaju indoktrinirati
  • 9:28 - 9:30
    da povjerujem u privilegije
    muškaraca i bijelaca,
  • 9:30 - 9:33
    ali ja nisam baš uvjeren da je to tako."
  • 9:33 - 9:37
    Dečki, kontrirajući
    bijeli tinejdžeri svijeta,
  • 9:37 - 9:39
    gledajte,
  • 9:39 - 9:42
    ukoliko ne vjerujete da je Zemlja okrugla,
    muškarci privilegirani
  • 9:42 - 9:45
    i da je rasizam loš,
  • 9:45 - 9:47
    vi niste skeptik, nego budala.
  • 9:47 - 9:51
    (Pljesak)
  • 9:52 - 9:56
    Odlično je biti nezavisni mislilac,
    svi bismo trebali biti takvi,
  • 9:56 - 9:57
    ali trebamo to raditi pametno.
  • 9:58 - 10:00
    Sad bih se osvrnuo na slobodu govora.
  • 10:00 - 10:04
    Često čujemo pametne, uspješne ljude
    koji kažu da se zalažu za slobodu govora,
  • 10:04 - 10:07
    i to kažu na način kao da je to kraj
    rasprave o ovakvim temama.
  • 10:07 - 10:11
    Zapravo, to je tek početak bilo
    kojeg značajnog razgovora.
  • 10:12 - 10:14
    Sve zanimljivo događa se nakon te izjave.
  • 10:14 - 10:16
    OK, zalažete se za slobodu
    govora. Što to znači?
  • 10:16 - 10:19
    Znači li to da David Duke
    i Richard Spencer
  • 10:19 - 10:21
    moraju imati aktivne profile na Twitteru?
  • 10:21 - 10:24
    Znači li to da bilo tko ima pravo
    uznemiravati druge
  • 10:24 - 10:25
    iz bilo kojeg razloga?
  • 10:25 - 10:27
    Pregledao sam sve govornike na
    TED događanjima ove godine.
  • 10:27 - 10:30
    Nisam našao nijednog ravnozemljaša.
  • 10:30 - 10:33
    Znači li to da su
    prekršene slobode govora?
  • 10:33 - 10:37
    Svi smo mi za slobodu govora,
    divno je biti za slobodu govora,
  • 10:37 - 10:39
    ali ako je to sve što znate
    i neprestano ponavljate,
  • 10:39 - 10:42
    sprječavate mogućnost
    korisnijeg razgovora.
  • 10:44 - 10:47
    Vratimo uljudnost u modu.
  • 10:47 - 10:48
    Sjajno!
  • 10:48 - 10:50
    (Pljesak)
  • 10:50 - 10:52
    To ne moram ni objašnjavati.
  • 10:52 - 10:56
    U svom istraživanju išao sam
    na Reddit, YouTube i Facebook
  • 10:56 - 10:58
    i tražio sam "šerijatsko pravo"
  • 10:58 - 11:00
    ili npr. "Holokaust",
  • 11:01 - 11:04
    i možete naslutiti što su mi
    algoritmi pokazali, zar ne?
  • 11:04 - 11:07
    "Je li šerijatsko pravo
    zavladalo SAD-om?"
  • 11:07 - 11:09
    "Je li se Holokaust uopće dogodio?"
  • 11:10 - 11:12
    Glupi skepticizam.
  • 11:13 - 11:15
    Tako smo završili u ovoj
    bizarnoj online dinamici,
  • 11:15 - 11:17
    u kojoj neki vide netrpeljivu propagandu
  • 11:17 - 11:20
    kao nešto izazovno, opasno i privlačno,
  • 11:20 - 11:23
    a obične istine i uljudnost
    se percipiraju kao prenemaganje,
  • 11:23 - 11:26
    glumatanje ili jednostavno nešto dosadno.
  • 11:26 - 11:30
    Algoritmi društvenih mreža su,
    namjerno ili nenamjerno
  • 11:30 - 11:32
    pripomogli ovakvoj situaciji,
  • 11:32 - 11:35
    zato što netrpeljiva propaganda
    potiče reakcije drugih.
  • 11:35 - 11:37
    Svi na to klikaju, svi komentiraju,
  • 11:37 - 11:39
    bilo da to vole ili mrze.
  • 11:39 - 11:42
    Prva stvar koja se treba dogoditi
  • 11:42 - 11:45
    jest da društvene mreže porade
    na svojim platformama.
  • 11:45 - 11:49
    (Pljesak)
  • 11:50 - 11:53
    Ukoliko me sada slušate i radite
    za neku od društvenih mreža
  • 11:53 - 11:56
    ili ste njihov investitor ili vlasnik,
  • 11:57 - 11:58
    ovo je savjet za vas.
  • 11:58 - 12:02
    Ukoliko ste optimizirali za
    maksimalan emotivni angažman
  • 12:02 - 12:06
    i to se pokazalo
    destruktivnim za ovaj svijet,
  • 12:06 - 12:09
    vrijeme je da optimiziramo za nešto drugo.
  • 12:09 - 12:12
    (Pljesak)
  • 12:15 - 12:18
    Osim što ćemo izvršiti pritisak
    da se društvene mreže promijene,
  • 12:18 - 12:21
    čekati i nadati se da će se promijeniti,
  • 12:21 - 12:24
    postoji još nešto što svi možemo učiniti.
  • 12:24 - 12:28
    Možemo stvoriti ili sugerirati alternative
  • 12:28 - 12:30
    za otuđene tinejdžere.
  • 12:30 - 12:33
    Ako vidite nešto kreativno ili duboko,
  • 12:33 - 12:35
    podijelite to na svojim profilima,
  • 12:35 - 12:38
    čak i ako niste preplavljeni
    intenzivnim osjećajima.
  • 12:38 - 12:41
    Jasno mi je da je to mali korak,
  • 12:41 - 12:43
    ali ako to svi učinimo,
    onda to postaje važno,
  • 12:43 - 12:45
    jer bez obzira na moć algoritama,
  • 12:45 - 12:48
    oni se oblikuju prema našem ponašanju.
  • 12:50 - 12:51
    Dozvolite mi da kažem još ovo.
  • 12:52 - 12:54
    Prije nekoliko godina
    bilo je zaista moderno
  • 12:54 - 12:57
    reći da je internet revolucionaran alat
  • 12:57 - 12:59
    koji će nas sve povezati.
  • 12:59 - 13:01
    Sad je moderno govoriti
  • 13:01 - 13:04
    da je internet jedan golemi
    kontejner pun smeća koje gori.
  • 13:05 - 13:07
    Nijedna od ovih karikatura nije točna.
  • 13:07 - 13:09
    Svi znamo da je internet
    prevelik i prekompleksan
  • 13:09 - 13:11
    da bi bio "dobar" ili "loš".
  • 13:11 - 13:13
    Ovakav način razmišljanja je opasan,
  • 13:13 - 13:16
    bilo da je utopijski, da
    će nas internet spasiti,
  • 13:16 - 13:20
    ili distopijski, da će nas
    neminovno uništiti,
  • 13:20 - 13:22
    u svakom slučaju - gubimo kontrolu.
  • 13:24 - 13:26
    Ništa nije sigurno o našoj budućnosti.
  • 13:27 - 13:29
    Internet čine ljudi.
  • 13:29 - 13:32
    Ljudi donose odluke u tvrtkama koje
    posjeduju društvene mreže.
  • 13:32 - 13:35
    Ljudi odlučuju koji će
    hashtagovi biti popularni.
  • 13:35 - 13:38
    Ljudi čine da društva napreduju
    ili se vraćaju unatrag.
  • 13:39 - 13:41
    Kad to shvatimo,
  • 13:41 - 13:44
    možemo prestati čekati nekakvu
    neizvjesnu budućnost da se ostvari
  • 13:44 - 13:45
    i početi stvarati sada.
  • 13:47 - 13:50
    Uče nas da je luk moralnog svemira dug,
  • 13:50 - 13:52
    ali da se ipak savija prema pravdi.
  • 13:54 - 13:56
    Možda.
  • 13:57 - 13:58
    Možda je to uistinu tako.
  • 13:59 - 14:01
    Ali to je samo aspiracija,
  • 14:01 - 14:03
    nije garancija.
  • 14:04 - 14:06
    Luk se neće saviti sam.
  • 14:06 - 14:10
    Neće ga saviti neka nevidljiva sila.
  • 14:10 - 14:11
    Stvarna istina,
  • 14:11 - 14:14
    koja je strašnija, ali i oslobađajuća,
  • 14:15 - 14:16
    jest da ga mi savijamo.
  • 14:17 - 14:18
    Hvala vam.
  • 14:18 - 14:21
    (Pljesak)
Title:
U bizarnom svijetu internet trolova i propagandista
Speaker:
Andrew Marantz
Description:

Novinar Andrew Marantz proveo je tri godine u svijetu internet trolova i propagandista na društvenim mrežama, tražeći ljude koji lansiraju rubne teme u središte internetskih debata i promatrao kako oni to čine. Uskočite u zečju rupu propagande i dezinformacija na internetu - i naučite što možemo učiniti da internet bude manje toksičan.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Croatian subtitles

Revisions