Return to Video

Kako možete pomoći da internet postane mjesto povjerenja

  • 0:02 - 0:04
    Bez obzira tko ste i gdje živite,
  • 0:04 - 0:06
    nagađam da imate barem jednog rođaka
  • 0:06 - 0:09
    koji voli prosljeđivati one poruke.
  • 0:09 - 0:11
    Znate o kojima govorim --
  • 0:11 - 0:14
    onima sa sumnjivim tvrdnjama
    ili snimkama teorija urota.
  • 0:14 - 0:17
    I vjerojatno ste ih već
    blokirali na Facebooku
  • 0:17 - 0:19
    zbog dijeljenja ovakvih objava.
  • 0:19 - 0:21
    To je slika banane
  • 0:21 - 0:23
    s neobičnim crvenim križem
    koji se proteže kroz sredinu.
  • 0:23 - 0:26
    Tekst uokolo upozorava ljude
  • 0:26 - 0:28
    da ne jedu takvo voće,
  • 0:28 - 0:30
    napominjući da je injektirano krvlju
  • 0:30 - 0:32
    zagađenom virusom HIV-a.
  • 0:32 - 0:35
    A društveno dijeljena poruka iznad
    jednostavno kaže,
  • 0:35 - 0:37
    "Molimo pošaljite dalje za spas života."
  • 0:38 - 0:41
    Stručnjaci za provjeru informacija
    pokušavaju razotkriti ovo godinama,
  • 0:41 - 0:44
    ali to je jedan od tračeva koji
    odbija umrijeti.
  • 0:44 - 0:45
    Zombijevski trač.
  • 0:46 - 0:48
    I naravno, potpuno je pogrešan.
  • 0:48 - 0:51
    Dolazimo u napast smijati se
    primjerima poput ovoga, reći,
  • 0:51 - 0:53
    "Tko bi ionako povjerovao u to?"
  • 0:53 - 0:55
    Ali razlog zbog kojeg je to
    zombijevski trač
  • 0:55 - 0:59
    jest jer zadire u najdublje ljudske
    strahove o osobnoj sigurnosti
  • 0:59 - 1:01
    te sigurnosti ljudi koje vole.
  • 1:02 - 1:05
    A ako provedete toliko vremena koliko
    i ja promatrajući dezinformacije,
  • 1:05 - 1:08
    znate da je ovo tek jedan
    od mnogih primjera
  • 1:08 - 1:11
    koji zadire u najdublje ljudske
    strahove i slabosti.
  • 1:11 - 1:16
    Svakog dana, svuda u svijetu, vidimo
    desetke novih memeova na Instagramu
  • 1:16 - 1:19
    koji ohrabruju roditelje
    da ne cijepe svoju djecu.
  • 1:19 - 1:23
    Vidimo nove videe na YouTubeu koji
    tvrde da su klimatske promjene prevara.
  • 1:23 - 1:28
    A na svim platformama, vidimo bezbrojne
    postove s ciljem demoniziranja drugih
  • 1:28 - 1:31
    na osnovi njihove rase,
    vjere ili spolnosti.
  • 1:32 - 1:35
    Dobrodošli u jedan od središnjih
    izazova našeg vremena.
  • 1:36 - 1:40
    Kako da zadržimo internet
    sa slobodom izražavanja u svojoj srži,
  • 1:40 - 1:43
    a da osiguramo da sadržaj kojeg se širi
  • 1:43 - 1:47
    ne stvara nepovratnu štetu
    našim demokracijama, našim zajednicama
  • 1:47 - 1:49
    te našem tjelesnom i umnom blagostanju?
  • 1:50 - 1:52
    Jer živimo u informacijskom dobu,
  • 1:52 - 1:56
    a ipak glavna valuta o kojoj
    svi ovisimo -- informacija --
  • 1:56 - 1:58
    više se ne smatra posve vjerodostojnom
  • 1:58 - 2:00
    a ponekad se može činiti izravno opasnom.
  • 2:01 - 2:05
    Ovo se događa zahvaljujući brzom rastu
    platformi za društveno dijeljenje
  • 2:05 - 2:07
    koje nam omogućuju da skrolamo dolje,
  • 2:07 - 2:09
    gdje laži i činjenice stoje
    jedni uz druge,
  • 2:09 - 2:12
    ali bez ijednog od tradicionalnih
    znakova vjerodostojnosti.
  • 2:12 - 2:16
    I zaboga -- naš govor koji okružuje
    sve to je zastrašujuće zamagljen.
  • 2:16 - 2:19
    Ljudi su još uvijek opsjednuti
    frazom "lažne vijesti",
  • 2:19 - 2:22
    unatoč činjenici da nam izuzetno odmaže
  • 2:22 - 2:25
    i koristi se za opis brojnih stvari
    koje su zapravo vrlo različite:
  • 2:25 - 2:28
    laži, tračevi, prevare,
    urote, promidžba.
  • 2:29 - 2:32
    I stvarno priželjkujem da
    prestanemo koristiti tu frazu
  • 2:32 - 2:35
    koju su redom preuzeli političari
    gotovo cijelog svijeta,
  • 2:35 - 2:36
    od ljevice do desnice,
  • 2:36 - 2:40
    i koriste se njome kao oružjem za napade
    na slobodne i neovisne medije.
  • 2:40 - 2:45
    (Pljesak)
  • 2:45 - 2:48
    Jer sada više nego ikada trebaju nam
    naši profesionalni informativni mediji.
  • 2:49 - 2:52
    Osim toga, većina takvog sadržaja se
    niti ne prikriva pod viješću.
  • 2:52 - 2:55
    To su memeovi, videi, društveni postovi.
  • 2:55 - 2:58
    I većina toga nije lažna,
    nego krivo navodi.
  • 2:58 - 3:01
    Mi se većinom fiksiramo na istinu ili laž.
  • 3:01 - 3:05
    Ali najveća opasnost je zapravo
    pretvaranje konteksta u oružje.
  • 3:07 - 3:09
    Jer najučinkovitija dezinformacija
  • 3:09 - 3:12
    oduvijek je bila ona koja
    u sebi sadrži zrnce istine.
  • 3:12 - 3:15
    Uzmimo ovaj primjer iz Londona
    iz ožujka 2017. godine,
  • 3:15 - 3:17
    objava na Twitteru koja se jako proširila
  • 3:17 - 3:21
    u danima nakon terorističkog napada
    na Westminsterskom mostu.
  • 3:21 - 3:23
    Ovo je prava slika, nije lažirana.
  • 3:23 - 3:26
    Žena koja se pojavljuje na slici
    kasnije je bila intervjuirana
  • 3:26 - 3:29
    i objasnila je da je bila
    krajnje preplašena.
  • 3:29 - 3:31
    Bila je na telefonu s voljenom osobom
  • 3:31 - 3:33
    i iz poštovanja nije gledala u žrtvu.
  • 3:33 - 3:37
    Ali svejedno je proširena uz
    islamofobne implikacije,
  • 3:37 - 3:40
    uz brojne hashtagove, uključujući:
    #ZabraniteIslam.
  • 3:40 - 3:43
    Da radite u Twitteru, što biste učinili?
  • 3:43 - 3:45
    Biste li ovo maknuli ili ostavili?
  • 3:47 - 3:50
    Moja instinktivna, emocionalna
    reakcija jest da bih to maknula.
  • 3:50 - 3:52
    Mrzim implikacije ove slike.
  • 3:53 - 3:55
    Ali sloboda izražavanja je ljudsko pravo,
  • 3:55 - 3:58
    a ako počnemo micati govor koji
    čini da se osjećamo nelagodno,
  • 3:58 - 3:59
    onda smo u nevolji.
  • 4:00 - 4:02
    Ovo može izgledati kao
    kristalno jasan slučaj,
  • 4:02 - 4:04
    ali zapravo, većina govora nije takva.
  • 4:04 - 4:06
    Izuzetno je teško povući te crte.
  • 4:06 - 4:08
    Ono što je za jednu osobu
    dobronamjerna odluka,
  • 4:08 - 4:10
    za drugu može biti otvorena cenzura.
  • 4:11 - 4:14
    Sada znamo da je ovaj Twitter-račun,
    Texas Lone Star,
  • 4:14 - 4:17
    dio široke ruske kampanje dezinformiranja,
  • 4:17 - 4:19
    koja je otada odstranjena.
  • 4:19 - 4:21
    Bi li to promijenilo vaš stav?
  • 4:21 - 4:22
    Moj bi,
  • 4:22 - 4:25
    jer sada je to slučaj usmjerene kampanje
  • 4:25 - 4:26
    za sijanje nemira.
  • 4:26 - 4:28
    A vama koji volite misliti
  • 4:28 - 4:31
    kako će umjetna inteligencija
    riješiti sve naše probleme,
  • 4:31 - 4:33
    mislim da se možemo složiti
    kako je još dug put
  • 4:33 - 4:36
    do UI-ja koji bi mogao razlučiti
    smisao ovakvih postova.
  • 4:37 - 4:39
    Želim objasniti tri isprepletena problema
  • 4:39 - 4:42
    koji ovo čine toliko složenim,
  • 4:42 - 4:45
    a zatim razmisliti o načinima kako
    možemo razmotriti ove izazove.
  • 4:45 - 4:49
    Prvo, mi jednostavno nemamo
    racionalan odnos s informacijama,
  • 4:49 - 4:51
    nego emocionalan.
  • 4:51 - 4:55
    Jednostavno nije točno da će više
    činjenica sve popraviti,
  • 4:55 - 4:58
    jer algoritmi koji određuju
    koji sadržaj gledamo
  • 4:58 - 5:01
    napravljeni su tako da
    nagrade naše emocionalne reakcije.
  • 5:01 - 5:02
    A kada strahujemo,
  • 5:02 - 5:05
    pojednostavljene priče,
    urotnička objašnjenja
  • 5:05 - 5:09
    i govor koji demonizira druge
    su daleko učinkovitiji.
  • 5:10 - 5:11
    Usput, mnoge od ovih tvrtki,
  • 5:11 - 5:14
    njihov poslovni model
    veže se na pozornost,
  • 5:14 - 5:18
    što znači da će ti algoritmi uvijek
    biti naklonjeni prema emocijama.
  • 5:18 - 5:23
    Drugo, većina govora koji
    ovdje opisujem je legalan.
  • 5:23 - 5:24
    Bila bi to druga stvar
  • 5:24 - 5:27
    ako bih govorila o slikama
    spolnog zlostavljanja djece
  • 5:27 - 5:29
    ili o sadržaju koji poziva na nasilje.
  • 5:29 - 5:32
    Može biti posve legalno
    objaviti besramnu laž.
  • 5:33 - 5:37
    A ljudi i dalje pričaju o skidanju
    "problematičnog" ili "štetnog" sadržaja,
  • 5:37 - 5:40
    ali bez jasne definicije
    što pod tim smatraju,
  • 5:40 - 5:41
    čak i Mark Zuckerberg,
  • 5:41 - 5:45
    koji je nedavno zatražio svjetsku
    regulativu za moderiranje govora.
  • 5:45 - 5:47
    Vidim opasnost u tome što vlade
  • 5:47 - 5:48
    po cijelom svijetu
  • 5:48 - 5:51
    izbacuju žurne političke odluke
  • 5:51 - 5:54
    koje bi zapravo mogle izazvati
    puno ozbiljnije posljedice
  • 5:54 - 5:56
    kada se radi o našem govoru.
  • 5:56 - 6:00
    Čak i ako bismo mogli odlučiti
    koji govor postaviti ili maknuti,
  • 6:00 - 6:02
    nikada nije bilo toliko puno govora.
  • 6:02 - 6:04
    Svake sekunde, milijune
    komadića sadržaja
  • 6:04 - 6:06
    postavljaju ljudi iz cijelog svijeta
  • 6:06 - 6:07
    na različitim jezicima,
  • 6:07 - 6:10
    pozivajući se na tisuće različitih
    kulturnih konteksta.
  • 6:10 - 6:13
    Nikada nismo imali učinkovita sredstva
  • 6:13 - 6:15
    za moderiranje govora na ovoj razini,
  • 6:15 - 6:17
    bilo da ih pokreću ljudi ili tehnologija.
  • 6:18 - 6:22
    Treće, ove tvrtke -- Google, Twitter,
    Facebook, WhatsApp --
  • 6:22 - 6:25
    dio su šireg informacijskog ekosustava.
  • 6:25 - 6:28
    Sviđa nam se svaliti sav
    grijeh na njih, ali zapravo,
  • 6:28 - 6:32
    masovni mediji i dužnosnici na položajima
    također igraju podjednaku ulogu
  • 6:32 - 6:35
    u preuveličavanju tračeva
    i zavjera kada to žele.
  • 6:36 - 6:41
    Tu ulogu igramo i sami kada proslijedimo
    huškajući ili neprovjeren sadržaj
  • 6:41 - 6:42
    a da se nismo ni potrudili.
  • 6:42 - 6:44
    Pridonosimo zagađenju.
  • 6:45 - 6:48
    Znam da svi tražimo lako rješenje.
  • 6:48 - 6:50
    Ali jednostavno ga nema.
  • 6:50 - 6:54
    Bilo koje rješenje trebalo bi biti
    pokrenuto na visokoj razini, internetskoj,
  • 6:54 - 6:58
    i da, platforme su naviknute
    raditi na toj razini.
  • 6:58 - 7:01
    Ali možemo li i trebamo li im dopustiti
    da riješe ovaj problem?
  • 7:02 - 7:03
    Oni se svakako trude.
  • 7:03 - 7:07
    Ali većina nas će se složiti da, zapravo,
    ne želimo da globalne korporacije
  • 7:07 - 7:09
    postanu čuvari istine
    i poštenja na internetu.
  • 7:09 - 7:12
    Mislim da bi se i same platforme
    složile s time.
  • 7:12 - 7:15
    A trenutno, oni ocjenjuju svoje
    vlastite domaće zadaće.
  • 7:15 - 7:16
    Vole nam reći
  • 7:16 - 7:19
    kako intervencije koje poduzimaju
    imaju učinak,
  • 7:19 - 7:22
    ali budući da sami pišu svoja
    izvješća o transparentnosti,
  • 7:22 - 7:25
    nema načina da neovisno
    utvrdimo što se zapravo događa.
  • 7:26 - 7:30
    (Pljesak)
  • 7:30 - 7:33
    Razjasnimo također kako se
    većina promjena koje vidimo
  • 7:33 - 7:36
    dogode tek nakon što novinari
    poduzmu istragu
  • 7:36 - 7:37
    te pronađu dokaze pristranosti
  • 7:37 - 7:40
    ili sadržaja koji krši njihove
    društvene smjernice.
  • 7:41 - 7:45
    Da, te tvrtke moraju igrati
    vrlo važnu ulogu u ovom procesu,
  • 7:45 - 7:47
    ali ga ne smiju kontrolirati.
  • 7:48 - 7:49
    Što je s vladama?
  • 7:50 - 7:53
    Mnogi ljudi vjeruju da je svjetska
    regulativa posljednja nada
  • 7:53 - 7:56
    kada se radi o pročišćenju našeg
    informacijskog ekosustava.
  • 7:56 - 7:59
    Ali vidim tek donositelje zakona
    koji se bore da ostanu ukorak
  • 7:59 - 8:01
    s brzim promjenama u tehnologiji.
  • 8:01 - 8:03
    Još gore, oni djeluju u mraku,
  • 8:03 - 8:05
    jer nemaju pristup podacima
  • 8:05 - 8:08
    kako bi razumjeli što se događa
    na ovim platformama.
  • 8:08 - 8:11
    A i kojim bismo vladama
    povjerili da to učine?
  • 8:11 - 8:14
    Potrebna nam je svjetska,
    ne nacionalna, reakcija.
  • 8:15 - 8:18
    Mi smo karika koja nedostaje.
  • 8:18 - 8:21
    Ljudi koji se služe ovim
    tehnologijama svakodnevno.
  • 8:21 - 8:26
    Možemo li stvoriti novu infrastrukturu
    za podršku kvalitetnim informacijama?
  • 8:26 - 8:28
    Vjerujem da možemo,
  • 8:28 - 8:31
    i imam par ideja o tome
    što zapravo možemo učiniti.
  • 8:31 - 8:34
    Najprije, ako ozbiljno mislimo
    uključiti javnost u ovo,
  • 8:34 - 8:37
    možemo li crpiti nadahnuće iz Wikipedije?
  • 8:37 - 8:38
    Oni su pokazali što je moguće.
  • 8:38 - 8:40
    Nije savršena,
  • 8:40 - 8:42
    ali prikazali su kako
    pomoću pravih struktura,
  • 8:42 - 8:45
    globalnog pogleda te puno,
    puno transparentnosti,
  • 8:45 - 8:48
    može se izgraditi nešto što će
    steći povjerenje većine ljudi.
  • 8:48 - 8:51
    Jer moramo pronaći način da
    zagrabimo u kolektivnu mudrost
  • 8:51 - 8:53
    te iskustvo svakog korisnika.
  • 8:54 - 8:56
    To je posebno bitno za žene, nebijelce,
  • 8:56 - 8:58
    i nedovoljno zastupljene skupine.
  • 8:58 - 8:59
    Jer pogodite?
  • 8:59 - 9:01
    Oni su stručnjaci kada se radi
    o mržnji i dezinformiranju,
  • 9:02 - 9:05
    jer su oni toliko dugo
    bili mete takvih kampanja.
  • 9:05 - 9:07
    Tijekom godina, podizali su zastavice,
  • 9:07 - 9:09
    a nismo ih slušali.
  • 9:09 - 9:10
    To se mora promijeniti.
  • 9:11 - 9:15
    Možemo li sagraditi
    Wikipediju za povjerenje?
  • 9:15 - 9:19
    Možemo li pronaći način da nam
    korisnici zapravo omoguće uvide?
  • 9:19 - 9:23
    Mogu ponuditi uvide pri teškim
    odlukama o moderiranju sadržaja.
  • 9:23 - 9:25
    Mogu nam dati povratnu informaciju
  • 9:25 - 9:28
    kada platforme odluče
    izbaciti nove promjene.
  • 9:28 - 9:32
    Drugo, ljudska iskustva s
    informacijama su osobna.
  • 9:32 - 9:35
    Moj popis novosti na Facebooku
    je vrlo različit od vašeg.
  • 9:35 - 9:38
    Vaše preporuke na YouTubeu su
    vrlo različite od mojih.
  • 9:38 - 9:40
    To čini nemogućim da preispitamo
  • 9:40 - 9:42
    koje informacije ljudi vide.
  • 9:43 - 9:44
    Možemo li zamisliti
  • 9:44 - 9:49
    da razvijemo neku vrstu središnjeg
    otvorenog skladišta za anonimne podatke,
  • 9:49 - 9:52
    s ugrađenom privatnošću
    i etičkim ogradama?
  • 9:52 - 9:54
    Jer zamislite što bismo mogli naučiti
  • 9:54 - 9:57
    ako izgradimo svjetsku mrežu
    angažiranih građana
  • 9:57 - 10:01
    koji žele donirati svoje
    društvene podatke znanosti.
  • 10:01 - 10:03
    Jer zapravo znamo jako malo
  • 10:03 - 10:06
    o dugoročnim posljedicama
    mržnje i dezinformacija
  • 10:06 - 10:08
    na ljudske stavove i ponašanja.
  • 10:08 - 10:09
    A ono što znamo
  • 10:09 - 10:12
    većinom je bilo izvedeno u SAD-u,
  • 10:12 - 10:14
    usprkos tome što je ovo svjetski problem.
  • 10:14 - 10:16
    I na tome moramo raditi.
  • 10:16 - 10:17
    Treće,
  • 10:17 - 10:20
    možemo li naći način da spojimo točke?
  • 10:20 - 10:23
    Nijedan sektor, posebno ne neprofitna
    udruga, start-up tvrtka ili vlada
  • 10:23 - 10:25
    neće ovo riješiti.
  • 10:25 - 10:27
    Ali ima jako pametnih ljudi
    svuda po svijetu
  • 10:27 - 10:29
    koji rade na ovim izazovima,
  • 10:29 - 10:32
    uredništva vijesti, civilno društvo,
    akademski djelatnici, skupine aktivista.
  • 10:32 - 10:34
    Neke od njih možete vidjeti ovdje.
  • 10:34 - 10:37
    Neki grade pokazatelje za
    vjerodostojnost sadržaja.
  • 10:37 - 10:38
    Drugi provjeravaju podatke,
  • 10:38 - 10:42
    kako bi lažne tvrdnje, videi i slike
    bili nisko rangirani na platformama.
  • 10:42 - 10:44
    Pomogla sam osnovati neprofitnu
    udrugu First Draft
  • 10:44 - 10:47
    koja radi s uobičajeno natjecateljskim
    uredništvima vijesti po svijetu
  • 10:47 - 10:51
    da im pomogne u gradnji
    istraživačkih, surađivačkih programa.
  • 10:51 - 10:54
    Danny Hillis, inženjer softvera,
  • 10:54 - 10:56
    gradi novi sustav imenom The Underlay,
  • 10:56 - 10:59
    koji će biti arhiv svih javnih činjenica
  • 10:59 - 11:00
    povezanih sa svojim izvorom,
  • 11:00 - 11:04
    kako bi ljudi i algoritmi bolje
    procijenili što je vjerodostojno.
  • 11:05 - 11:08
    Edukatori diljem svijeta
    testiraju različite tehnike
  • 11:08 - 11:12
    u nalaženju načina da ljudi postanu
    kritični prema sadržaju koji koriste.
  • 11:13 - 11:16
    Svi ti pokušaji su divni,
    ali oni rade nepovezano,
  • 11:16 - 11:19
    i mnogima od njih kronično
    nedostaju financijska sredstva.
  • 11:19 - 11:21
    Ima i stotine vrlo pametnih ljudi
  • 11:21 - 11:22
    koji rade unutar ovih tvrtki,
  • 11:22 - 11:25
    ali opet, ta nastojanja su rascjepkana,
  • 11:25 - 11:29
    jer oni zapravo razvijaju različita
    rješenja za isti problem.
  • 11:29 - 11:31
    Kako možemo naći način da spojimo ljude
  • 11:31 - 11:35
    na jednoj fizičkoj lokaciji
    danima ili tjednima istodobno,
  • 11:35 - 11:37
    kako bi zajedno mogli
    savladati ove probleme
  • 11:37 - 11:39
    ali s različitih gledišta?
  • 11:39 - 11:40
    Pa možemo li to učiniti?
  • 11:40 - 11:44
    Možemo li izgraditi koordiniranu,
    ambicioznu reakciju
  • 11:44 - 11:47
    koja će se mjeriti s razinom i
    kompleksnošću problema?
  • 11:48 - 11:49
    Stvarno mislim da možemo.
  • 11:49 - 11:52
    Zajedno, izgradimo ponovno
    naš informacijski krajolik.
  • 11:53 - 11:54
    Hvala.
  • 11:54 - 11:58
    (Pljesak)
Title:
Kako možete pomoći da internet postane mjesto povjerenja
Speaker:
Claire Wardle
Description:

Kako možemo spriječiti širenje netočnog, ponekad i opasnog sadržaja, istovremeno održavajući internet u duhu slobode izražavanja? Stručnjakinja za dezinformiranje, Claire Wardle, istražuje nove izazove našeg zagađenog internetskog okoliša i iznosi plan za preoblikovanje interneta u mjesto povjerenja - uz pomoć običnih korisnika. "Preoblikujmo zajedno naš informacijski krajolik", kaže.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Croatian subtitles

Revisions