Return to Video

Kako možete pomoći da se internet pretvori u mesto poverenja

  • 0:02 - 0:04
    Bez obzira na to ko ste ili gde živite,
  • 0:04 - 0:06
    pretpostavljam da imate
    barem jednog rođaka
  • 0:06 - 0:09
    koji voli da prosleđuje one mejlove.
  • 0:09 - 0:11
    Znate o kojima govorim -
  • 0:11 - 0:14
    one sa sumnjivim tvrdnjama
    ili video-snimcima zavera.
  • 0:14 - 0:17
    I verovatno ste ih već
    blokirali na Fejsbuku
  • 0:17 - 0:19
    zbog toga što dele objave poput ove.
  • 0:19 - 0:21
    Ovo je slika banane
  • 0:21 - 0:23
    kroz čiju sredinu ide čudan crveni krst.
  • 0:23 - 0:26
    A tekst oko slike upozorava ljude
  • 0:26 - 0:28
    da ne jedu voće koje ovako izgleda,
  • 0:28 - 0:30
    jer je navodno u njega ubrizgana krv
  • 0:30 - 0:32
    zaražena virusom HIV-a.
  • 0:32 - 0:35
    A poruka iznad jednostavno kaže:
  • 0:35 - 0:38
    „Molim vas, prosledite
    da biste spasili živote.“
  • 0:38 - 0:41
    Ljudi koji se bave proveravanjem činjenica
    opovrgavaju to godinama,
  • 0:41 - 0:44
    ali ovo je jedna od onih glasina
    koja jednostavno ne nestaje.
  • 0:44 - 0:45
    Zombi glasina.
  • 0:45 - 0:48
    I naravno, potpuno je lažna.
  • 0:48 - 0:51
    Možda vas vuče da se nasmejete
    ovakvom primeru i kažete:
  • 0:51 - 0:53
    „Ko bi uopšte poverovao u to?“
  • 0:53 - 0:55
    Ali ovo je zombi glasina
  • 0:55 - 0:59
    zbog toga što zadire u najdublje
    ljudske strahove o ličnoj bezbednosti,
  • 0:59 - 1:01
    kao i o bezbednosti onih koje vole.
  • 1:02 - 1:05
    I ako posmatrate dezinformacije
    onoliko dugo koliko ih ja posmatram,
  • 1:05 - 1:08
    znate da je ovo samo jedan
    od mnogih primera
  • 1:08 - 1:11
    koji zadiru u najdublje
    ljudske strahove i osetljivosti.
  • 1:11 - 1:16
    Svakog dana širom sveta
    vidimo gomile novih memova na Instagramu
  • 1:16 - 1:19
    koji podstiču roditelje
    da ne vakcinišu svoju decu.
  • 1:19 - 1:23
    Na Jutjubu vidimo snimke koji govore
    da su klimatske promene prevara.
  • 1:23 - 1:28
    Na svim platformama viđamo objave
    koje su napravljene da demonizuju druge
  • 1:28 - 1:31
    na osnovu njihove rase,
    religije ili seksualnosti.
  • 1:32 - 1:36
    Dobro došli u jedan od glavnih
    izazova našeg vremena.
  • 1:36 - 1:40
    Kako da održimo internet
    koji u srži nosi slobodu govora,
  • 1:40 - 1:43
    dok u isto vreme vodimo računa
    da sadržaj koji se plasira
  • 1:43 - 1:47
    ne uzrokuje nepopravljivu štetu
    našim demokratijama, zajednicama,
  • 1:47 - 1:49
    i našem fizičkom i mentalnom blagostanju?
  • 1:50 - 1:52
    Živimo u informacijskom dobu,
  • 1:52 - 1:56
    a ipak, glavna valuta
    od koje svi zavisimo - informacija -
  • 1:56 - 1:58
    se više ne smatra vrednom poverenja
  • 1:58 - 2:01
    i ponekad deluje potpuno opasno.
  • 2:01 - 2:05
    To je delom zbog neobuzdanog rasta
    društvenih platformi
  • 2:05 - 2:06
    koje nam omogućavaju da listamo,
  • 2:06 - 2:09
    gde se laži i činjenice
    nalaze jedne pored drugih,
  • 2:09 - 2:12
    bez ikakvih uvreženih znakova sigurnosti.
  • 2:12 - 2:16
    I zaboga, i naš jezik oko ovoga
    je neverovatno haotičan.
  • 2:16 - 2:19
    Ljudi su još uvek opsednuti
    frazom „lažne vesti“,
  • 2:19 - 2:22
    uprkos činjenici da ona uopšte ne pomaže
  • 2:22 - 2:25
    i koristi se da objasni nekoliko stvari
    koje su zapravo veoma različite:
  • 2:25 - 2:29
    laži, tračeve, prevare,
    zavere, propagandu.
  • 2:29 - 2:32
    I volela bih da prestanemo
    da koristimo frazu
  • 2:32 - 2:35
    koju su političari širom sveta prisvojili,
  • 2:35 - 2:36
    i levica i desnica,
  • 2:36 - 2:39
    i koriste je kao oružje
    da napadaju slobodnu i nezavisnu štampu.
  • 2:40 - 2:45
    (Aplauz)
  • 2:45 - 2:49
    Sada su nam profesionalni mediji
    potrebniji nego ikad.
  • 2:49 - 2:52
    Osim toga, većina ovih sadržaja
    se ne i pretvara da su vesti.
  • 2:52 - 2:55
    To su memovi, snimci, društvene objave.
  • 2:55 - 2:58
    I većina nije lažna nego obmanjujuća.
  • 2:58 - 3:01
    Imamo tendenciju da se uhvatimo
    za lažno ili istinito.
  • 3:01 - 3:05
    Ali najveća briga je zapravo
    pretvaranje konteksta u oružje.
  • 3:07 - 3:09
    Jer najubedljivija dezinformacija
  • 3:09 - 3:12
    je oduvek bila ona
    koja u sebi sadrži zrno istine.
  • 3:12 - 3:15
    Uzmimo ovaj primer iz Londona,
    iz marta 2017. godine.
  • 3:15 - 3:17
    Proširio se jedan tvit
  • 3:17 - 3:21
    nakon terorističkog incidenta
    na mostu Vestminster.
  • 3:21 - 3:23
    Ovo je prava fotografija, nije lažna.
  • 3:23 - 3:26
    Žena koja se pojavljuje na slici
    je kasnije intervjuisana
  • 3:26 - 3:29
    i objasnila je da bila potpuno traumirana.
  • 3:29 - 3:30
    Razgovarala je sa voljenom osobom
  • 3:30 - 3:33
    i nije gledala u žrtvu iz poštovanja.
  • 3:33 - 3:37
    Ali ipak je tvit proširen
    u ovom kontekstu islamofobije,
  • 3:37 - 3:40
    sa mnogim heštegovima,
    uključujući #BanIslam.
  • 3:40 - 3:43
    Sad, da radite u Tviteru,
    šta biste učinili?
  • 3:43 - 3:45
    Da li biste to skinuli ili ostavili?
  • 3:47 - 3:50
    Moja prva, emocionalna reakcija
    je da se to skine.
  • 3:50 - 3:53
    Mrzim kako je ova slika predstavljena.
  • 3:53 - 3:55
    Ali sloboda izražavanja je ljudsko pravo
  • 3:55 - 3:58
    i ako počnemo da uklanjamo sadržaje
    zbog kojih se osećamo neprijatno,
  • 3:58 - 3:59
    bićemo u nevolji.
  • 4:00 - 4:02
    Ovo možda izgleda kao jasan slučaj,
  • 4:02 - 4:04
    ali većina govora to nije.
  • 4:04 - 4:06
    Veoma je teško postaviti granice.
  • 4:06 - 4:08
    Ono što je za jednu osobu
    dobronamerna odluka,
  • 4:08 - 4:11
    za drugu je direktna cenzura.
  • 4:11 - 4:14
    Sada znamo da je ovaj nalog,
    Texas Lone Star,
  • 4:14 - 4:17
    bio deo šire ruske
    kampanje dezinformisanja,
  • 4:17 - 4:19
    koja je od tada skinuta.
  • 4:19 - 4:21
    Da li bi to promenilo vaše mišljenje?
  • 4:21 - 4:22
    Promenilo bi moje,
  • 4:23 - 4:25
    jer sad je to slučaj organizovane kampanje
  • 4:25 - 4:26
    da se napravi razdor.
  • 4:26 - 4:28
    Za vas koji mislite
  • 4:28 - 4:31
    da će veštačka inteligencija
    rešiti sve naše probleme,
  • 4:31 - 4:33
    mislim da možemo
    da se složimo da smo daleko
  • 4:33 - 4:36
    od veštačke inteligencije koja može
    da razume ovakve objave.
  • 4:37 - 4:39
    Želim da objasnim tri
    međusobno prepletena problema
  • 4:39 - 4:42
    koji ovo čine tako složenim
  • 4:42 - 4:45
    i onda da razmotrimo načine
    na koje možemo misliti o ovim izazovima.
  • 4:45 - 4:49
    Prvo, mi jednostavno nemamo
    racionalan odnos sa informacijama,
  • 4:49 - 4:51
    taj odnos je emotivan.
  • 4:51 - 4:55
    Nije istina da će više
    činjenica popraviti sve,
  • 4:55 - 4:58
    jer algoritmi koji određuju
    koji sadržaj vidimo,
  • 4:58 - 5:01
    pa, oni su programirani
    da nagrade naše emotivne odgovore.
  • 5:01 - 5:02
    A kada se plašimo,
  • 5:02 - 5:05
    pojednostavljene priče,
    zaverenička objašnjenja
  • 5:05 - 5:09
    i jezik koji demonizuje druge
    su mnogo učinkovitiji.
  • 5:10 - 5:11
    Osim toga, za mnoge od ovih kompanija
  • 5:11 - 5:14
    je poslovni model povezan sa pažnjom,
  • 5:14 - 5:18
    što znači da će algoritmi
    uvek biti naklonjeni emocijama.
  • 5:18 - 5:23
    Drugo, većina govora
    o kojima govorim ovde su legalni.
  • 5:23 - 5:26
    Bilo bi drugačije da govorim o slikama
    seksualnog zlostavljanja dece,
  • 5:26 - 5:29
    ili o sadržaju koji podstiče nasilje.
  • 5:29 - 5:32
    Može biti savršeno legalno
    objaviti potpunu laž.
  • 5:33 - 5:37
    Ali ljudi govore o uklanjanju
    „problematičnog“ ili „štetnog“ sadržaja,
  • 5:37 - 5:39
    bez jasne definicije
    šta pod tim podrazumevaju,
  • 5:40 - 5:41
    uključujući i Marka Zakerberga,
  • 5:41 - 5:45
    koji je nedavno zatražio globalnu
    regulaciju za kontrolisanje javnog govora.
  • 5:45 - 5:47
    Mene zabrinjava što vidimo vlade
  • 5:47 - 5:48
    širom sveta
  • 5:48 - 5:51
    kako donose ishitrene odluke
  • 5:51 - 5:54
    koje će možda pokrenuti
    mnogo ozbiljnije posledice
  • 5:54 - 5:56
    kada se radi o našem govoru.
  • 5:56 - 6:00
    Čak i kada bismo mogli da odlučimo
    kakav govor da skinemo ili ostavimo,
  • 6:00 - 6:02
    nikada nije bilo toliko javnog govora.
  • 6:02 - 6:04
    Svake sekunde, širom sveta,
  • 6:04 - 6:06
    ljudi objavljuju milione sadržaja
  • 6:06 - 6:07
    na različitim jezicima,
  • 6:07 - 6:10
    u različitim kulturnim kontekstima.
  • 6:10 - 6:13
    Jednostavno nikad nismo imali
    dobre mehanizme
  • 6:13 - 6:14
    da proveravamo toliko sadržaja,
  • 6:15 - 6:17
    bilo da ga kreiraju ljudi ili tehnologija.
  • 6:18 - 6:22
    I treće, ove kompanije -
    Gugl, Tviter, Fejsbuk, Votsap -
  • 6:22 - 6:25
    one su deo šireg informacionog ekosistema.
  • 6:25 - 6:28
    Volimo da ih okrivimo za sve, ali zapravo,
  • 6:28 - 6:32
    masovni mediji i odabrani političari
    mogu imati jednaku ulogu
  • 6:32 - 6:35
    u podsticanju glasina
    i zavera kada to žele.
  • 6:36 - 6:41
    Kao i mi, kada bez razmišljanja
    prosledimo obmanjujuć ili razdoran sadržaj
  • 6:41 - 6:42
    bez truda.
  • 6:42 - 6:44
    Dodajemo zagađenju.
  • 6:45 - 6:48
    Znam da svi tražimo jednostavno rešenje.
  • 6:48 - 6:50
    Ali takvo ne postoji.
  • 6:50 - 6:54
    Bilo kakvo rešenje će morati da se primeni
    na ogromnom nivou, na nivou interneta,
  • 6:54 - 6:58
    i da, platforme su navikle
    da rade na tom nivou.
  • 6:58 - 7:02
    Ali da li možemo i da li bi trebalo
    da im dozvolimo da reše ove probleme?
  • 7:02 - 7:03
    Svakako da pokušavaju.
  • 7:03 - 7:07
    Ali većina nas bi se složila da zapravo
    ne želimo da globalne korporacije
  • 7:07 - 7:09
    budu čuvari istine i pravde na internetu.
  • 7:09 - 7:12
    Mislim da bi se i platforme
    složile sa tim.
  • 7:12 - 7:15
    A trenutno oni sami sebe ocenjuju.
  • 7:15 - 7:16
    Vole da nam govore
  • 7:16 - 7:18
    kako njihove intervencije funkcionišu,
  • 7:18 - 7:21
    ali oni pišu svoje izveštaje
    o transparentnosti,
  • 7:21 - 7:25
    pa mi ne možemo nezavisno
    da proverimo šta se zapravo dešava.
  • 7:26 - 7:30
    (Aplauz)
  • 7:30 - 7:33
    I neka bude jasno
    da se većina promena koje vidimo
  • 7:33 - 7:36
    dešava tek pošto novinari pokrenu istrage
  • 7:36 - 7:37
    i pronađu dokaze o pristrasnosti
  • 7:37 - 7:40
    ili sadržaj koji krši njihove pravilnike.
  • 7:41 - 7:45
    Dakle, da, ove kompanije moraju imati
    važnu ulogu u ovom procesu,
  • 7:45 - 7:47
    ali ne mogu da ga kontrolišu.
  • 7:48 - 7:50
    A šta je sa vladama?
  • 7:50 - 7:53
    Mnogi veruju da je globalna regulacija
    naša poslednja nada,
  • 7:53 - 7:56
    u smislu raščišćavanja
    našeg informacionog ekosistema.
  • 7:56 - 7:59
    Ali ja vidim zakonodavce
    koji se muče da budu u toku
  • 7:59 - 8:01
    sa brzim promenama u tehnologiji.
  • 8:01 - 8:03
    I još gore, oni rade u mraku,
  • 8:03 - 8:05
    jer nemaju pristup podacima
  • 8:05 - 8:08
    da bi razumeli šta se dešava
    na ovim platformama.
  • 8:08 - 8:11
    Uostalom, kojim vladama
    bismo verovali da ovo rade?
  • 8:11 - 8:14
    Potreban nam je globalni,
    a ne nacionalni dogovor.
  • 8:15 - 8:18
    Karika koja nedostaje smo mi.
  • 8:18 - 8:21
    Ljudi koji svakog dana
    koriste te tehnologije.
  • 8:21 - 8:24
    Da li možemo da napravimo
    novu infrastrukturu
  • 8:24 - 8:26
    koja će da podrži kvalitetne informacije?
  • 8:26 - 8:28
    Pa, ja verujem da možemo,
  • 8:28 - 8:31
    i imam nekoliko ideja
    šta bismo mogli da uradimo.
  • 8:31 - 8:34
    Prvo, ako ozbiljno želimo
    da u ovo uključimo javnost,
  • 8:34 - 8:37
    da li možemo da uzmemo
    Vikipediju kao inspiraciju?
  • 8:37 - 8:38
    Oni su pokazali šta je moguće.
  • 8:38 - 8:40
    Da, nije savršeno,
  • 8:40 - 8:42
    ali pokazali su da sa pravim strukturama,
  • 8:42 - 8:44
    sa globalnim stavom i mnogo,
    mnogo transparentnosti,
  • 8:44 - 8:48
    možete da napravite nešto
    čemu će mnogo ljudi verovati.
  • 8:48 - 8:51
    Moramo da pronađemo način
    da iskoristimo kolektivnu mudrost
  • 8:51 - 8:53
    i iskustvo svih korisnika.
  • 8:54 - 8:56
    Ovo naročito važi za žene,
    ljude tamne kože,
  • 8:56 - 8:58
    i marginalizovane grupe.
  • 8:58 - 8:59
    Jer, znate šta?
  • 8:59 - 9:01
    Oni su stručnjaci kad se radi
    o mržnji i dezinformacijama,
  • 9:02 - 9:05
    jer oni su već dugo mete ovih kampanja.
  • 9:05 - 9:07
    Tokom godina skreću pažnju,
  • 9:07 - 9:09
    ali niko ih ne sluša.
  • 9:09 - 9:11
    To mora da se promeni.
  • 9:11 - 9:15
    Da li bismo mogli da napravimo
    Vikipediju za poverenje?
  • 9:15 - 9:19
    Da li možemo da pronađemo način
    da korisnici daju predloge?
  • 9:19 - 9:23
    Mogli bi da daju predloge u vezi sa
    teškim odlukama o upravljanju sadržajem.
  • 9:23 - 9:25
    Mogli bi da daju povratnu informaciju
  • 9:25 - 9:28
    kada platforme odluče da unesu promene.
  • 9:28 - 9:32
    Drugo, iskustva ljudi
    sa informacijama su lična.
  • 9:32 - 9:35
    Moje vesti na Fejsbuku
    su mnogo drugačije od vaših.
  • 9:35 - 9:38
    Vaši predlozi na Jutjubu
    su veoma drugačiji od mojih.
  • 9:38 - 9:40
    To nam onemogućava da pregledamo
  • 9:40 - 9:43
    koje informacije ljudi vide.
  • 9:43 - 9:44
    Da li bismo mogli da zamislimo
  • 9:44 - 9:49
    da razvijemo nekakvo centralizovano
    otvoreno skladište anonimnih podataka
  • 9:49 - 9:52
    u koje su već ugrađene
    privatnost i etičke norme?
  • 9:52 - 9:54
    Zamislite šta bismo mogli da saznamo
  • 9:54 - 9:57
    ako bismo izgradili globalnu mrežu
    zainteresovanih građana
  • 9:57 - 10:01
    koji žele da doniraju
    svoje društvene podatke nauci.
  • 10:01 - 10:03
    Jer mi veoma malo znamo
  • 10:03 - 10:06
    o dugoročnim posledicama
    mržnje i dezinformacija
  • 10:06 - 10:08
    na stavove i ponašanja ljudi.
  • 10:08 - 10:09
    A većina onoga što znamo
  • 10:09 - 10:12
    je sprovedena u SAD-u,
  • 10:12 - 10:14
    uprkos činjenici
    da je ovo globalni problem.
  • 10:14 - 10:16
    Moramo i na tome da radimo.
  • 10:16 - 10:17
    I treće,
  • 10:17 - 10:20
    možemo li da pronađemo način
    da složimo kockice?
  • 10:20 - 10:23
    Nijedan sektor, a kamoli
    nevladina organizacija, startap ili vlada
  • 10:23 - 10:25
    neće ovo rešiti.
  • 10:25 - 10:27
    Ali širom sveta postoje
    veoma pametni ljudi
  • 10:27 - 10:29
    koji rade na ovim izazovima,
  • 10:29 - 10:32
    od novinskih redakcija, civilnog društva,
    akademaca, grupa aktivista.
  • 10:32 - 10:34
    Neke možete videti ovde.
  • 10:34 - 10:37
    Neki prave indikatore
    kredibilnosti sadržaja.
  • 10:37 - 10:38
    Drugi proveravaju činjenice,
  • 10:38 - 10:42
    kako bi platforme mogle da potisnu
    lažne tvrdnje, snimke i slike.
  • 10:42 - 10:45
    Neprofitna organizacija
    čije sam osnivanje pomogla, First Draft,
  • 10:45 - 10:48
    radi sa novinskim redakcijama
    širom sveta koje su inače konkurenti
  • 10:48 - 10:51
    i pomaže da izgrade
    istraživačke programe koji sarađuju.
  • 10:51 - 10:54
    A Deni Hilis, softverski arhitekta,
  • 10:54 - 10:56
    programira novi sistem
    koji se zove The Underlay,
  • 10:56 - 10:59
    koji će biti baza svih
    javnih izjava činjenica
  • 10:59 - 11:00
    povezanih sa izvorima,
  • 11:00 - 11:04
    kako bi ljudi i algoritmi
    bolje prosudili šta je pouzdano.
  • 11:05 - 11:08
    A edukatori širom sveta
    testiraju razne tehnike
  • 11:08 - 11:12
    za nalaženje načina da ljudi kritički
    razmatraju sadržaj koju konzumiraju.
  • 11:13 - 11:16
    Svi ovi napori su izuzetni,
    ali svi rade izolovano
  • 11:16 - 11:18
    i mnogi nisu dovoljno finansirani.
  • 11:19 - 11:21
    Postoje takođe stotine
    veoma pametnih ljudi
  • 11:21 - 11:22
    koji rade u ovim kompanijama,
  • 11:22 - 11:25
    ali opet, ovi napori deluju nepovezano
  • 11:25 - 11:29
    jer razvijaju različita rešenja
    za iste probleme.
  • 11:29 - 11:31
    Kako možemo dovesti ljude
  • 11:31 - 11:35
    na jedno fizičko mesto
    na nekoliko dana ili nedelja,
  • 11:35 - 11:37
    kako bi radili zajedno na ovim problemima,
  • 11:37 - 11:39
    ali iz svojih drugačijih perspektiva?
  • 11:39 - 11:40
    Možemo li to da uradimo?
  • 11:40 - 11:44
    Da li možemo da napravimo
    koordinisani, ambiciozni odgovor,
  • 11:44 - 11:48
    koji odgovara veličini
    i složenosti problema?
  • 11:48 - 11:49
    Stvarno mislim da možemo.
  • 11:49 - 11:53
    Hajde da zajedno ponovo izgradimo
    naše informaciono zajedničko dobro.
  • 11:53 - 11:54
    Hvala vam.
  • 11:54 - 11:58
    (Aplauz)
Title:
Kako možete pomoći da se internet pretvori u mesto poverenja
Speaker:
Kler Vardl (Claire Wardle)
Description:

Kako možemo da zaustavimo širenje obmanjujućeg, često opasnog sadržaja dok u isto vreme održavamo slobodu izražavanja u srcu interneta? Stručnjak za dezinformisanje Kler Vardl istražuje nove izazove našeg zagađenog onlajn okruženja i predstavlja plan za pretvaranje interneta u mesto poverenja - uz pomoć svakodnevnih korisnika. „Hajde da zajedno ponovo izgradimo naše informaciono zajedničko dobro,“ kaže Kler.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Serbian subtitles

Revisions