Kako možete pomoći da se internet pretvori u mesto poverenja
-
0:02 - 0:04Bez obzira na to ko ste ili gde živite,
-
0:04 - 0:06pretpostavljam da imate
barem jednog rođaka -
0:06 - 0:09koji voli da prosleđuje one mejlove.
-
0:09 - 0:11Znate o kojima govorim -
-
0:11 - 0:14one sa sumnjivim tvrdnjama
ili video-snimcima zavera. -
0:14 - 0:17I verovatno ste ih već
blokirali na Fejsbuku -
0:17 - 0:19zbog toga što dele objave poput ove.
-
0:19 - 0:21Ovo je slika banane
-
0:21 - 0:23kroz čiju sredinu ide čudan crveni krst.
-
0:23 - 0:26A tekst oko slike upozorava ljude
-
0:26 - 0:28da ne jedu voće koje ovako izgleda,
-
0:28 - 0:30jer je navodno u njega ubrizgana krv
-
0:30 - 0:32zaražena virusom HIV-a.
-
0:32 - 0:35A poruka iznad jednostavno kaže:
-
0:35 - 0:38„Molim vas, prosledite
da biste spasili živote.“ -
0:38 - 0:41Ljudi koji se bave proveravanjem činjenica
opovrgavaju to godinama, -
0:41 - 0:44ali ovo je jedna od onih glasina
koja jednostavno ne nestaje. -
0:44 - 0:45Zombi glasina.
-
0:45 - 0:48I naravno, potpuno je lažna.
-
0:48 - 0:51Možda vas vuče da se nasmejete
ovakvom primeru i kažete: -
0:51 - 0:53„Ko bi uopšte poverovao u to?“
-
0:53 - 0:55Ali ovo je zombi glasina
-
0:55 - 0:59zbog toga što zadire u najdublje
ljudske strahove o ličnoj bezbednosti, -
0:59 - 1:01kao i o bezbednosti onih koje vole.
-
1:02 - 1:05I ako posmatrate dezinformacije
onoliko dugo koliko ih ja posmatram, -
1:05 - 1:08znate da je ovo samo jedan
od mnogih primera -
1:08 - 1:11koji zadiru u najdublje
ljudske strahove i osetljivosti. -
1:11 - 1:16Svakog dana širom sveta
vidimo gomile novih memova na Instagramu -
1:16 - 1:19koji podstiču roditelje
da ne vakcinišu svoju decu. -
1:19 - 1:23Na Jutjubu vidimo snimke koji govore
da su klimatske promene prevara. -
1:23 - 1:28Na svim platformama viđamo objave
koje su napravljene da demonizuju druge -
1:28 - 1:31na osnovu njihove rase,
religije ili seksualnosti. -
1:32 - 1:36Dobro došli u jedan od glavnih
izazova našeg vremena. -
1:36 - 1:40Kako da održimo internet
koji u srži nosi slobodu govora, -
1:40 - 1:43dok u isto vreme vodimo računa
da sadržaj koji se plasira -
1:43 - 1:47ne uzrokuje nepopravljivu štetu
našim demokratijama, zajednicama, -
1:47 - 1:49i našem fizičkom i mentalnom blagostanju?
-
1:50 - 1:52Živimo u informacijskom dobu,
-
1:52 - 1:56a ipak, glavna valuta
od koje svi zavisimo - informacija - -
1:56 - 1:58se više ne smatra vrednom poverenja
-
1:58 - 2:01i ponekad deluje potpuno opasno.
-
2:01 - 2:05To je delom zbog neobuzdanog rasta
društvenih platformi -
2:05 - 2:06koje nam omogućavaju da listamo,
-
2:06 - 2:09gde se laži i činjenice
nalaze jedne pored drugih, -
2:09 - 2:12bez ikakvih uvreženih znakova sigurnosti.
-
2:12 - 2:16I zaboga, i naš jezik oko ovoga
je neverovatno haotičan. -
2:16 - 2:19Ljudi su još uvek opsednuti
frazom „lažne vesti“, -
2:19 - 2:22uprkos činjenici da ona uopšte ne pomaže
-
2:22 - 2:25i koristi se da objasni nekoliko stvari
koje su zapravo veoma različite: -
2:25 - 2:29laži, tračeve, prevare,
zavere, propagandu. -
2:29 - 2:32I volela bih da prestanemo
da koristimo frazu -
2:32 - 2:35koju su političari širom sveta prisvojili,
-
2:35 - 2:36i levica i desnica,
-
2:36 - 2:39i koriste je kao oružje
da napadaju slobodnu i nezavisnu štampu. -
2:40 - 2:45(Aplauz)
-
2:45 - 2:49Sada su nam profesionalni mediji
potrebniji nego ikad. -
2:49 - 2:52Osim toga, većina ovih sadržaja
se ne i pretvara da su vesti. -
2:52 - 2:55To su memovi, snimci, društvene objave.
-
2:55 - 2:58I većina nije lažna nego obmanjujuća.
-
2:58 - 3:01Imamo tendenciju da se uhvatimo
za lažno ili istinito. -
3:01 - 3:05Ali najveća briga je zapravo
pretvaranje konteksta u oružje. -
3:07 - 3:09Jer najubedljivija dezinformacija
-
3:09 - 3:12je oduvek bila ona
koja u sebi sadrži zrno istine. -
3:12 - 3:15Uzmimo ovaj primer iz Londona,
iz marta 2017. godine. -
3:15 - 3:17Proširio se jedan tvit
-
3:17 - 3:21nakon terorističkog incidenta
na mostu Vestminster. -
3:21 - 3:23Ovo je prava fotografija, nije lažna.
-
3:23 - 3:26Žena koja se pojavljuje na slici
je kasnije intervjuisana -
3:26 - 3:29i objasnila je da bila potpuno traumirana.
-
3:29 - 3:30Razgovarala je sa voljenom osobom
-
3:30 - 3:33i nije gledala u žrtvu iz poštovanja.
-
3:33 - 3:37Ali ipak je tvit proširen
u ovom kontekstu islamofobije, -
3:37 - 3:40sa mnogim heštegovima,
uključujući #BanIslam. -
3:40 - 3:43Sad, da radite u Tviteru,
šta biste učinili? -
3:43 - 3:45Da li biste to skinuli ili ostavili?
-
3:47 - 3:50Moja prva, emocionalna reakcija
je da se to skine. -
3:50 - 3:53Mrzim kako je ova slika predstavljena.
-
3:53 - 3:55Ali sloboda izražavanja je ljudsko pravo
-
3:55 - 3:58i ako počnemo da uklanjamo sadržaje
zbog kojih se osećamo neprijatno, -
3:58 - 3:59bićemo u nevolji.
-
4:00 - 4:02Ovo možda izgleda kao jasan slučaj,
-
4:02 - 4:04ali većina govora to nije.
-
4:04 - 4:06Veoma je teško postaviti granice.
-
4:06 - 4:08Ono što je za jednu osobu
dobronamerna odluka, -
4:08 - 4:11za drugu je direktna cenzura.
-
4:11 - 4:14Sada znamo da je ovaj nalog,
Texas Lone Star, -
4:14 - 4:17bio deo šire ruske
kampanje dezinformisanja, -
4:17 - 4:19koja je od tada skinuta.
-
4:19 - 4:21Da li bi to promenilo vaše mišljenje?
-
4:21 - 4:22Promenilo bi moje,
-
4:23 - 4:25jer sad je to slučaj organizovane kampanje
-
4:25 - 4:26da se napravi razdor.
-
4:26 - 4:28Za vas koji mislite
-
4:28 - 4:31da će veštačka inteligencija
rešiti sve naše probleme, -
4:31 - 4:33mislim da možemo
da se složimo da smo daleko -
4:33 - 4:36od veštačke inteligencije koja može
da razume ovakve objave. -
4:37 - 4:39Želim da objasnim tri
međusobno prepletena problema -
4:39 - 4:42koji ovo čine tako složenim
-
4:42 - 4:45i onda da razmotrimo načine
na koje možemo misliti o ovim izazovima. -
4:45 - 4:49Prvo, mi jednostavno nemamo
racionalan odnos sa informacijama, -
4:49 - 4:51taj odnos je emotivan.
-
4:51 - 4:55Nije istina da će više
činjenica popraviti sve, -
4:55 - 4:58jer algoritmi koji određuju
koji sadržaj vidimo, -
4:58 - 5:01pa, oni su programirani
da nagrade naše emotivne odgovore. -
5:01 - 5:02A kada se plašimo,
-
5:02 - 5:05pojednostavljene priče,
zaverenička objašnjenja -
5:05 - 5:09i jezik koji demonizuje druge
su mnogo učinkovitiji. -
5:10 - 5:11Osim toga, za mnoge od ovih kompanija
-
5:11 - 5:14je poslovni model povezan sa pažnjom,
-
5:14 - 5:18što znači da će algoritmi
uvek biti naklonjeni emocijama. -
5:18 - 5:23Drugo, većina govora
o kojima govorim ovde su legalni. -
5:23 - 5:26Bilo bi drugačije da govorim o slikama
seksualnog zlostavljanja dece, -
5:26 - 5:29ili o sadržaju koji podstiče nasilje.
-
5:29 - 5:32Može biti savršeno legalno
objaviti potpunu laž. -
5:33 - 5:37Ali ljudi govore o uklanjanju
„problematičnog“ ili „štetnog“ sadržaja, -
5:37 - 5:39bez jasne definicije
šta pod tim podrazumevaju, -
5:40 - 5:41uključujući i Marka Zakerberga,
-
5:41 - 5:45koji je nedavno zatražio globalnu
regulaciju za kontrolisanje javnog govora. -
5:45 - 5:47Mene zabrinjava što vidimo vlade
-
5:47 - 5:48širom sveta
-
5:48 - 5:51kako donose ishitrene odluke
-
5:51 - 5:54koje će možda pokrenuti
mnogo ozbiljnije posledice -
5:54 - 5:56kada se radi o našem govoru.
-
5:56 - 6:00Čak i kada bismo mogli da odlučimo
kakav govor da skinemo ili ostavimo, -
6:00 - 6:02nikada nije bilo toliko javnog govora.
-
6:02 - 6:04Svake sekunde, širom sveta,
-
6:04 - 6:06ljudi objavljuju milione sadržaja
-
6:06 - 6:07na različitim jezicima,
-
6:07 - 6:10u različitim kulturnim kontekstima.
-
6:10 - 6:13Jednostavno nikad nismo imali
dobre mehanizme -
6:13 - 6:14da proveravamo toliko sadržaja,
-
6:15 - 6:17bilo da ga kreiraju ljudi ili tehnologija.
-
6:18 - 6:22I treće, ove kompanije -
Gugl, Tviter, Fejsbuk, Votsap - -
6:22 - 6:25one su deo šireg informacionog ekosistema.
-
6:25 - 6:28Volimo da ih okrivimo za sve, ali zapravo,
-
6:28 - 6:32masovni mediji i odabrani političari
mogu imati jednaku ulogu -
6:32 - 6:35u podsticanju glasina
i zavera kada to žele. -
6:36 - 6:41Kao i mi, kada bez razmišljanja
prosledimo obmanjujuć ili razdoran sadržaj -
6:41 - 6:42bez truda.
-
6:42 - 6:44Dodajemo zagađenju.
-
6:45 - 6:48Znam da svi tražimo jednostavno rešenje.
-
6:48 - 6:50Ali takvo ne postoji.
-
6:50 - 6:54Bilo kakvo rešenje će morati da se primeni
na ogromnom nivou, na nivou interneta, -
6:54 - 6:58i da, platforme su navikle
da rade na tom nivou. -
6:58 - 7:02Ali da li možemo i da li bi trebalo
da im dozvolimo da reše ove probleme? -
7:02 - 7:03Svakako da pokušavaju.
-
7:03 - 7:07Ali većina nas bi se složila da zapravo
ne želimo da globalne korporacije -
7:07 - 7:09budu čuvari istine i pravde na internetu.
-
7:09 - 7:12Mislim da bi se i platforme
složile sa tim. -
7:12 - 7:15A trenutno oni sami sebe ocenjuju.
-
7:15 - 7:16Vole da nam govore
-
7:16 - 7:18kako njihove intervencije funkcionišu,
-
7:18 - 7:21ali oni pišu svoje izveštaje
o transparentnosti, -
7:21 - 7:25pa mi ne možemo nezavisno
da proverimo šta se zapravo dešava. -
7:26 - 7:30(Aplauz)
-
7:30 - 7:33I neka bude jasno
da se većina promena koje vidimo -
7:33 - 7:36dešava tek pošto novinari pokrenu istrage
-
7:36 - 7:37i pronađu dokaze o pristrasnosti
-
7:37 - 7:40ili sadržaj koji krši njihove pravilnike.
-
7:41 - 7:45Dakle, da, ove kompanije moraju imati
važnu ulogu u ovom procesu, -
7:45 - 7:47ali ne mogu da ga kontrolišu.
-
7:48 - 7:50A šta je sa vladama?
-
7:50 - 7:53Mnogi veruju da je globalna regulacija
naša poslednja nada, -
7:53 - 7:56u smislu raščišćavanja
našeg informacionog ekosistema. -
7:56 - 7:59Ali ja vidim zakonodavce
koji se muče da budu u toku -
7:59 - 8:01sa brzim promenama u tehnologiji.
-
8:01 - 8:03I još gore, oni rade u mraku,
-
8:03 - 8:05jer nemaju pristup podacima
-
8:05 - 8:08da bi razumeli šta se dešava
na ovim platformama. -
8:08 - 8:11Uostalom, kojim vladama
bismo verovali da ovo rade? -
8:11 - 8:14Potreban nam je globalni,
a ne nacionalni dogovor. -
8:15 - 8:18Karika koja nedostaje smo mi.
-
8:18 - 8:21Ljudi koji svakog dana
koriste te tehnologije. -
8:21 - 8:24Da li možemo da napravimo
novu infrastrukturu -
8:24 - 8:26koja će da podrži kvalitetne informacije?
-
8:26 - 8:28Pa, ja verujem da možemo,
-
8:28 - 8:31i imam nekoliko ideja
šta bismo mogli da uradimo. -
8:31 - 8:34Prvo, ako ozbiljno želimo
da u ovo uključimo javnost, -
8:34 - 8:37da li možemo da uzmemo
Vikipediju kao inspiraciju? -
8:37 - 8:38Oni su pokazali šta je moguće.
-
8:38 - 8:40Da, nije savršeno,
-
8:40 - 8:42ali pokazali su da sa pravim strukturama,
-
8:42 - 8:44sa globalnim stavom i mnogo,
mnogo transparentnosti, -
8:44 - 8:48možete da napravite nešto
čemu će mnogo ljudi verovati. -
8:48 - 8:51Moramo da pronađemo način
da iskoristimo kolektivnu mudrost -
8:51 - 8:53i iskustvo svih korisnika.
-
8:54 - 8:56Ovo naročito važi za žene,
ljude tamne kože, -
8:56 - 8:58i marginalizovane grupe.
-
8:58 - 8:59Jer, znate šta?
-
8:59 - 9:01Oni su stručnjaci kad se radi
o mržnji i dezinformacijama, -
9:02 - 9:05jer oni su već dugo mete ovih kampanja.
-
9:05 - 9:07Tokom godina skreću pažnju,
-
9:07 - 9:09ali niko ih ne sluša.
-
9:09 - 9:11To mora da se promeni.
-
9:11 - 9:15Da li bismo mogli da napravimo
Vikipediju za poverenje? -
9:15 - 9:19Da li možemo da pronađemo način
da korisnici daju predloge? -
9:19 - 9:23Mogli bi da daju predloge u vezi sa
teškim odlukama o upravljanju sadržajem. -
9:23 - 9:25Mogli bi da daju povratnu informaciju
-
9:25 - 9:28kada platforme odluče da unesu promene.
-
9:28 - 9:32Drugo, iskustva ljudi
sa informacijama su lična. -
9:32 - 9:35Moje vesti na Fejsbuku
su mnogo drugačije od vaših. -
9:35 - 9:38Vaši predlozi na Jutjubu
su veoma drugačiji od mojih. -
9:38 - 9:40To nam onemogućava da pregledamo
-
9:40 - 9:43koje informacije ljudi vide.
-
9:43 - 9:44Da li bismo mogli da zamislimo
-
9:44 - 9:49da razvijemo nekakvo centralizovano
otvoreno skladište anonimnih podataka -
9:49 - 9:52u koje su već ugrađene
privatnost i etičke norme? -
9:52 - 9:54Zamislite šta bismo mogli da saznamo
-
9:54 - 9:57ako bismo izgradili globalnu mrežu
zainteresovanih građana -
9:57 - 10:01koji žele da doniraju
svoje društvene podatke nauci. -
10:01 - 10:03Jer mi veoma malo znamo
-
10:03 - 10:06o dugoročnim posledicama
mržnje i dezinformacija -
10:06 - 10:08na stavove i ponašanja ljudi.
-
10:08 - 10:09A većina onoga što znamo
-
10:09 - 10:12je sprovedena u SAD-u,
-
10:12 - 10:14uprkos činjenici
da je ovo globalni problem. -
10:14 - 10:16Moramo i na tome da radimo.
-
10:16 - 10:17I treće,
-
10:17 - 10:20možemo li da pronađemo način
da složimo kockice? -
10:20 - 10:23Nijedan sektor, a kamoli
nevladina organizacija, startap ili vlada -
10:23 - 10:25neće ovo rešiti.
-
10:25 - 10:27Ali širom sveta postoje
veoma pametni ljudi -
10:27 - 10:29koji rade na ovim izazovima,
-
10:29 - 10:32od novinskih redakcija, civilnog društva,
akademaca, grupa aktivista. -
10:32 - 10:34Neke možete videti ovde.
-
10:34 - 10:37Neki prave indikatore
kredibilnosti sadržaja. -
10:37 - 10:38Drugi proveravaju činjenice,
-
10:38 - 10:42kako bi platforme mogle da potisnu
lažne tvrdnje, snimke i slike. -
10:42 - 10:45Neprofitna organizacija
čije sam osnivanje pomogla, First Draft, -
10:45 - 10:48radi sa novinskim redakcijama
širom sveta koje su inače konkurenti -
10:48 - 10:51i pomaže da izgrade
istraživačke programe koji sarađuju. -
10:51 - 10:54A Deni Hilis, softverski arhitekta,
-
10:54 - 10:56programira novi sistem
koji se zove The Underlay, -
10:56 - 10:59koji će biti baza svih
javnih izjava činjenica -
10:59 - 11:00povezanih sa izvorima,
-
11:00 - 11:04kako bi ljudi i algoritmi
bolje prosudili šta je pouzdano. -
11:05 - 11:08A edukatori širom sveta
testiraju razne tehnike -
11:08 - 11:12za nalaženje načina da ljudi kritički
razmatraju sadržaj koju konzumiraju. -
11:13 - 11:16Svi ovi napori su izuzetni,
ali svi rade izolovano -
11:16 - 11:18i mnogi nisu dovoljno finansirani.
-
11:19 - 11:21Postoje takođe stotine
veoma pametnih ljudi -
11:21 - 11:22koji rade u ovim kompanijama,
-
11:22 - 11:25ali opet, ovi napori deluju nepovezano
-
11:25 - 11:29jer razvijaju različita rešenja
za iste probleme. -
11:29 - 11:31Kako možemo dovesti ljude
-
11:31 - 11:35na jedno fizičko mesto
na nekoliko dana ili nedelja, -
11:35 - 11:37kako bi radili zajedno na ovim problemima,
-
11:37 - 11:39ali iz svojih drugačijih perspektiva?
-
11:39 - 11:40Možemo li to da uradimo?
-
11:40 - 11:44Da li možemo da napravimo
koordinisani, ambiciozni odgovor, -
11:44 - 11:48koji odgovara veličini
i složenosti problema? -
11:48 - 11:49Stvarno mislim da možemo.
-
11:49 - 11:53Hajde da zajedno ponovo izgradimo
naše informaciono zajedničko dobro. -
11:53 - 11:54Hvala vam.
-
11:54 - 11:58(Aplauz)
- Title:
- Kako možete pomoći da se internet pretvori u mesto poverenja
- Speaker:
- Kler Vardl (Claire Wardle)
- Description:
-
Kako možemo da zaustavimo širenje obmanjujućeg, često opasnog sadržaja dok u isto vreme održavamo slobodu izražavanja u srcu interneta? Stručnjak za dezinformisanje Kler Vardl istražuje nove izazove našeg zagađenog onlajn okruženja i predstavlja plan za pretvaranje interneta u mesto poverenja - uz pomoć svakodnevnih korisnika. „Hajde da zajedno ponovo izgradimo naše informaciono zajedničko dobro,“ kaže Kler.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Ivana Korom approved Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Korom edited Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Krivokuća accepted Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Krivokuća edited Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Krivokuća edited Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Korom edited Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Korom edited Serbian subtitles for How you can help transform the internet into a place of trust | ||
Ivana Korom edited Serbian subtitles for How you can help transform the internet into a place of trust |