YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Serbian subtitles

← Kako možete pomoći da se internet pretvori u mesto poverenja

Get Embed Code
29 Languages

Showing Revision 11 created 03/09/2020 by Ivana Korom.

  1. Bez obzira na to ko ste ili gde živite,
  2. pretpostavljam da imate
    barem jednog rođaka
  3. koji voli da prosleđuje one mejlove.
  4. Znate o kojima govorim -
  5. one sa sumnjivim tvrdnjama
    ili video-snimcima zavera.
  6. I verovatno ste ih već
    blokirali na Fejsbuku
  7. zbog toga što dele objave poput ove.
  8. Ovo je slika banane

  9. kroz čiju sredinu ide čudan crveni krst.
  10. A tekst oko slike upozorava ljude
  11. da ne jedu voće koje ovako izgleda,
  12. jer je navodno u njega ubrizgana krv
  13. zaražena virusom HIV-a.
  14. A poruka iznad jednostavno kaže:
  15. „Molim vas, prosledite
    da biste spasili živote.“
  16. Ljudi koji se bave proveravanjem činjenica
    opovrgavaju to godinama,
  17. ali ovo je jedna od onih glasina
    koja jednostavno ne nestaje.
  18. Zombi glasina.
  19. I naravno, potpuno je lažna.
  20. Možda vas vuče da se nasmejete
    ovakvom primeru i kažete:

  21. „Ko bi uopšte poverovao u to?“
  22. Ali ovo je zombi glasina
  23. zbog toga što zadire u najdublje
    ljudske strahove o ličnoj bezbednosti,
  24. kao i o bezbednosti onih koje vole.
  25. I ako posmatrate dezinformacije
    onoliko dugo koliko ih ja posmatram,
  26. znate da je ovo samo jedan
    od mnogih primera
  27. koji zadiru u najdublje
    ljudske strahove i osetljivosti.
  28. Svakog dana širom sveta
    vidimo gomile novih memova na Instagramu

  29. koji podstiču roditelje
    da ne vakcinišu svoju decu.
  30. Na Jutjubu vidimo snimke koji govore
    da su klimatske promene prevara.
  31. Na svim platformama viđamo objave
    koje su napravljene da demonizuju druge
  32. na osnovu njihove rase,
    religije ili seksualnosti.
  33. Dobro došli u jedan od glavnih
    izazova našeg vremena.

  34. Kako da održimo internet
    koji u srži nosi slobodu govora,
  35. dok u isto vreme vodimo računa
    da sadržaj koji se plasira
  36. ne uzrokuje nepopravljivu štetu
    našim demokratijama, zajednicama,
  37. i našem fizičkom i mentalnom blagostanju?
  38. Živimo u informacijskom dobu,
  39. a ipak, glavna valuta
    od koje svi zavisimo - informacija -
  40. se više ne smatra vrednom poverenja
  41. i ponekad deluje potpuno opasno.
  42. To je delom zbog neobuzdanog rasta
    društvenih platformi
  43. koje nam omogućavaju da listamo,
  44. gde se laži i činjenice
    nalaze jedne pored drugih,
  45. bez ikakvih uvreženih znakova sigurnosti.
  46. I zaboga, i naš jezik oko ovoga
    je neverovatno haotičan.

  47. Ljudi su još uvek opsednuti
    frazom „lažne vesti“,
  48. uprkos činjenici da ona uopšte ne pomaže
  49. i koristi se da objasni nekoliko stvari
    koje su zapravo veoma različite:
  50. laži, tračeve, prevare,
    zavere, propagandu.
  51. I volela bih da prestanemo
    da koristimo frazu
  52. koju su političari širom sveta prisvojili,
  53. i levica i desnica,
  54. i koriste je kao oružje
    da napadaju slobodnu i nezavisnu štampu.
  55. (Aplauz)

  56. Sada su nam profesionalni mediji
    potrebniji nego ikad.

  57. Osim toga, većina ovih sadržaja
    se ne i pretvara da su vesti.
  58. To su memovi, snimci, društvene objave.
  59. I većina nije lažna nego obmanjujuća.
  60. Imamo tendenciju da se uhvatimo
    za lažno ili istinito.
  61. Ali najveća briga je zapravo
    pretvaranje konteksta u oružje.
  62. Jer najubedljivija dezinformacija
  63. je oduvek bila ona
    koja u sebi sadrži zrno istine.
  64. Uzmimo ovaj primer iz Londona,
    iz marta 2017. godine.

  65. Proširio se jedan tvit
  66. nakon terorističkog incidenta
    na mostu Vestminster.
  67. Ovo je prava fotografija, nije lažna.
  68. Žena koja se pojavljuje na slici
    je kasnije intervjuisana
  69. i objasnila je da bila potpuno traumirana.
  70. Razgovarala je sa voljenom osobom
  71. i nije gledala u žrtvu iz poštovanja.
  72. Ali ipak je tvit proširen
    u ovom kontekstu islamofobije,
  73. sa mnogim heštegovima,
    uključujući #BanIslam.
  74. Sad, da radite u Tviteru,
    šta biste učinili?
  75. Da li biste to skinuli ili ostavili?
  76. Moja prva, emocionalna reakcija
    je da se to skine.
  77. Mrzim kako je ova slika predstavljena.
  78. Ali sloboda izražavanja je ljudsko pravo
  79. i ako počnemo da uklanjamo sadržaje
    zbog kojih se osećamo neprijatno,
  80. bićemo u nevolji.
  81. Ovo možda izgleda kao jasan slučaj,

  82. ali većina govora to nije.
  83. Veoma je teško postaviti granice.
  84. Ono što je za jednu osobu
    dobronamerna odluka,
  85. za drugu je direktna cenzura.
  86. Sada znamo da je ovaj nalog,
    Texas Lone Star,
  87. bio deo šire ruske
    kampanje dezinformisanja,
  88. koja je od tada skinuta.
  89. Da li bi to promenilo vaše mišljenje?
  90. Promenilo bi moje,
  91. jer sad je to slučaj organizovane kampanje
  92. da se napravi razdor.
  93. Za vas koji mislite
  94. da će veštačka inteligencija
    rešiti sve naše probleme,
  95. mislim da možemo
    da se složimo da smo daleko
  96. od veštačke inteligencije koja može
    da razume ovakve objave.
  97. Želim da objasnim tri
    međusobno prepletena problema

  98. koji ovo čine tako složenim
  99. i onda da razmotrimo načine
    na koje možemo misliti o ovim izazovima.
  100. Prvo, mi jednostavno nemamo
    racionalan odnos sa informacijama,
  101. taj odnos je emotivan.
  102. Nije istina da će više
    činjenica popraviti sve,
  103. jer algoritmi koji određuju
    koji sadržaj vidimo,
  104. pa, oni su programirani
    da nagrade naše emotivne odgovore.
  105. A kada se plašimo,
  106. pojednostavljene priče,
    zaverenička objašnjenja
  107. i jezik koji demonizuje druge
    su mnogo učinkovitiji.
  108. Osim toga, za mnoge od ovih kompanija
  109. je poslovni model povezan sa pažnjom,
  110. što znači da će algoritmi
    uvek biti naklonjeni emocijama.
  111. Drugo, većina govora
    o kojima govorim ovde su legalni.

  112. Bilo bi drugačije da govorim o slikama
    seksualnog zlostavljanja dece,
  113. ili o sadržaju koji podstiče nasilje.
  114. Može biti savršeno legalno
    objaviti potpunu laž.
  115. Ali ljudi govore o uklanjanju
    „problematičnog“ ili „štetnog“ sadržaja,
  116. bez jasne definicije
    šta pod tim podrazumevaju,
  117. uključujući i Marka Zakerberga,
  118. koji je nedavno zatražio globalnu
    regulaciju za kontrolisanje javnog govora.
  119. Mene zabrinjava što vidimo vlade
  120. širom sveta
  121. kako donose ishitrene odluke
  122. koje će možda pokrenuti
    mnogo ozbiljnije posledice
  123. kada se radi o našem govoru.
  124. Čak i kada bismo mogli da odlučimo
    kakav govor da skinemo ili ostavimo,
  125. nikada nije bilo toliko javnog govora.
  126. Svake sekunde, širom sveta,
  127. ljudi objavljuju milione sadržaja
  128. na različitim jezicima,
  129. u različitim kulturnim kontekstima.
  130. Jednostavno nikad nismo imali
    dobre mehanizme
  131. da proveravamo toliko sadržaja,
  132. bilo da ga kreiraju ljudi ili tehnologija.
  133. I treće, ove kompanije -
    Gugl, Tviter, Fejsbuk, Votsap -

  134. one su deo šireg informacionog ekosistema.
  135. Volimo da ih okrivimo za sve, ali zapravo,
  136. masovni mediji i odabrani političari
    mogu imati jednaku ulogu
  137. u podsticanju glasina
    i zavera kada to žele.
  138. Kao i mi, kada bez razmišljanja
    prosledimo obmanjujuć ili razdoran sadržaj
  139. bez truda.
  140. Dodajemo zagađenju.
  141. Znam da svi tražimo jednostavno rešenje.

  142. Ali takvo ne postoji.
  143. Bilo kakvo rešenje će morati da se primeni
    na ogromnom nivou, na nivou interneta,
  144. i da, platforme su navikle
    da rade na tom nivou.
  145. Ali da li možemo i da li bi trebalo
    da im dozvolimo da reše ove probleme?
  146. Svakako da pokušavaju.
  147. Ali većina nas bi se složila da zapravo
    ne želimo da globalne korporacije
  148. budu čuvari istine i pravde na internetu.
  149. Mislim da bi se i platforme
    složile sa tim.
  150. A trenutno oni sami sebe ocenjuju.
  151. Vole da nam govore
  152. kako njihove intervencije funkcionišu,
  153. ali oni pišu svoje izveštaje
    o transparentnosti,
  154. pa mi ne možemo nezavisno
    da proverimo šta se zapravo dešava.
  155. (Aplauz)

  156. I neka bude jasno
    da se većina promena koje vidimo

  157. dešava tek pošto novinari pokrenu istrage
  158. i pronađu dokaze o pristrasnosti
  159. ili sadržaj koji krši njihove pravilnike.
  160. Dakle, da, ove kompanije moraju imati
    važnu ulogu u ovom procesu,
  161. ali ne mogu da ga kontrolišu.
  162. A šta je sa vladama?

  163. Mnogi veruju da je globalna regulacija
    naša poslednja nada,
  164. u smislu raščišćavanja
    našeg informacionog ekosistema.
  165. Ali ja vidim zakonodavce
    koji se muče da budu u toku
  166. sa brzim promenama u tehnologiji.
  167. I još gore, oni rade u mraku,
  168. jer nemaju pristup podacima
  169. da bi razumeli šta se dešava
    na ovim platformama.
  170. Uostalom, kojim vladama
    bismo verovali da ovo rade?
  171. Potreban nam je globalni,
    a ne nacionalni dogovor.
  172. Karika koja nedostaje smo mi.

  173. Ljudi koji svakog dana
    koriste te tehnologije.
  174. Da li možemo da napravimo
    novu infrastrukturu
  175. koja će da podrži kvalitetne informacije?
  176. Pa, ja verujem da možemo,
  177. i imam nekoliko ideja
    šta bismo mogli da uradimo.
  178. Prvo, ako ozbiljno želimo
    da u ovo uključimo javnost,
  179. da li možemo da uzmemo
    Vikipediju kao inspiraciju?
  180. Oni su pokazali šta je moguće.
  181. Da, nije savršeno,
  182. ali pokazali su da sa pravim strukturama,
  183. sa globalnim stavom i mnogo,
    mnogo transparentnosti,
  184. možete da napravite nešto
    čemu će mnogo ljudi verovati.
  185. Moramo da pronađemo način
    da iskoristimo kolektivnu mudrost
  186. i iskustvo svih korisnika.
  187. Ovo naročito važi za žene,
    ljude tamne kože,
  188. i marginalizovane grupe.
  189. Jer, znate šta?
  190. Oni su stručnjaci kad se radi
    o mržnji i dezinformacijama,
  191. jer oni su već dugo mete ovih kampanja.
  192. Tokom godina skreću pažnju,
  193. ali niko ih ne sluša.
  194. To mora da se promeni.
  195. Da li bismo mogli da napravimo
    Vikipediju za poverenje?
  196. Da li možemo da pronađemo način
    da korisnici daju predloge?
  197. Mogli bi da daju predloge u vezi sa
    teškim odlukama o upravljanju sadržajem.
  198. Mogli bi da daju povratnu informaciju
  199. kada platforme odluče da unesu promene.
  200. Drugo, iskustva ljudi
    sa informacijama su lična.

  201. Moje vesti na Fejsbuku
    su mnogo drugačije od vaših.
  202. Vaši predlozi na Jutjubu
    su veoma drugačiji od mojih.
  203. To nam onemogućava da pregledamo
  204. koje informacije ljudi vide.
  205. Da li bismo mogli da zamislimo
  206. da razvijemo nekakvo centralizovano
    otvoreno skladište anonimnih podataka
  207. u koje su već ugrađene
    privatnost i etičke norme?
  208. Zamislite šta bismo mogli da saznamo
  209. ako bismo izgradili globalnu mrežu
    zainteresovanih građana
  210. koji žele da doniraju
    svoje društvene podatke nauci.
  211. Jer mi veoma malo znamo
  212. o dugoročnim posledicama
    mržnje i dezinformacija
  213. na stavove i ponašanja ljudi.
  214. A većina onoga što znamo
  215. je sprovedena u SAD-u,
  216. uprkos činjenici
    da je ovo globalni problem.
  217. Moramo i na tome da radimo.
  218. I treće,

  219. možemo li da pronađemo način
    da složimo kockice?
  220. Nijedan sektor, a kamoli
    nevladina organizacija, startap ili vlada
  221. neće ovo rešiti.
  222. Ali širom sveta postoje
    veoma pametni ljudi
  223. koji rade na ovim izazovima,
  224. od novinskih redakcija, civilnog društva,
    akademaca, grupa aktivista.
  225. Neke možete videti ovde.
  226. Neki prave indikatore
    kredibilnosti sadržaja.
  227. Drugi proveravaju činjenice,
  228. kako bi platforme mogle da potisnu
    lažne tvrdnje, snimke i slike.
  229. Neprofitna organizacija
    čije sam osnivanje pomogla, First Draft,

  230. radi sa novinskim redakcijama
    širom sveta koje su inače konkurenti
  231. i pomaže da izgrade
    istraživačke programe koji sarađuju.
  232. A Deni Hilis, softverski arhitekta,
  233. programira novi sistem
    koji se zove The Underlay,
  234. koji će biti baza svih
    javnih izjava činjenica
  235. povezanih sa izvorima,
  236. kako bi ljudi i algoritmi
    bolje prosudili šta je pouzdano.
  237. A edukatori širom sveta
    testiraju razne tehnike
  238. za nalaženje načina da ljudi kritički
    razmatraju sadržaj koju konzumiraju.
  239. Svi ovi napori su izuzetni,
    ali svi rade izolovano
  240. i mnogi nisu dovoljno finansirani.
  241. Postoje takođe stotine
    veoma pametnih ljudi

  242. koji rade u ovim kompanijama,
  243. ali opet, ovi napori deluju nepovezano
  244. jer razvijaju različita rešenja
    za iste probleme.
  245. Kako možemo dovesti ljude

  246. na jedno fizičko mesto
    na nekoliko dana ili nedelja,
  247. kako bi radili zajedno na ovim problemima,
  248. ali iz svojih drugačijih perspektiva?
  249. Možemo li to da uradimo?
  250. Da li možemo da napravimo
    koordinisani, ambiciozni odgovor,
  251. koji odgovara veličini
    i složenosti problema?
  252. Stvarno mislim da možemo.
  253. Hajde da zajedno ponovo izgradimo
    naše informaciono zajedničko dobro.
  254. Hvala vam.

  255. (Aplauz)