Kako možete pomoći da internet postane mjesto povjerenja
-
0:02 - 0:04Bez obzira tko ste i gdje živite,
-
0:04 - 0:06nagađam da imate barem jednog rođaka
-
0:06 - 0:09koji voli prosljeđivati one poruke.
-
0:09 - 0:11Znate o kojima govorim --
-
0:11 - 0:14onima sa sumnjivim tvrdnjama
ili snimkama teorija urota. -
0:14 - 0:17I vjerojatno ste ih već
blokirali na Facebooku -
0:17 - 0:19zbog dijeljenja ovakvih objava.
-
0:19 - 0:21To je slika banane
-
0:21 - 0:23s neobičnim crvenim križem
koji se proteže kroz sredinu. -
0:23 - 0:26Tekst uokolo upozorava ljude
-
0:26 - 0:28da ne jedu takvo voće,
-
0:28 - 0:30napominjući da je injektirano krvlju
-
0:30 - 0:32zagađenom virusom HIV-a.
-
0:32 - 0:35A društveno dijeljena poruka iznad
jednostavno kaže, -
0:35 - 0:37"Molimo pošaljite dalje za spas života."
-
0:38 - 0:41Stručnjaci za provjeru informacija
pokušavaju razotkriti ovo godinama, -
0:41 - 0:44ali to je jedan od tračeva koji
odbija umrijeti. -
0:44 - 0:45Zombijevski trač.
-
0:46 - 0:48I naravno, potpuno je pogrešan.
-
0:48 - 0:51Dolazimo u napast smijati se
primjerima poput ovoga, reći, -
0:51 - 0:53"Tko bi ionako povjerovao u to?"
-
0:53 - 0:55Ali razlog zbog kojeg je to
zombijevski trač -
0:55 - 0:59jest jer zadire u najdublje ljudske
strahove o osobnoj sigurnosti -
0:59 - 1:01te sigurnosti ljudi koje vole.
-
1:02 - 1:05A ako provedete toliko vremena koliko
i ja promatrajući dezinformacije, -
1:05 - 1:08znate da je ovo tek jedan
od mnogih primjera -
1:08 - 1:11koji zadire u najdublje ljudske
strahove i slabosti. -
1:11 - 1:16Svakog dana, svuda u svijetu, vidimo
desetke novih memeova na Instagramu -
1:16 - 1:19koji ohrabruju roditelje
da ne cijepe svoju djecu. -
1:19 - 1:23Vidimo nove videe na YouTubeu koji
tvrde da su klimatske promjene prevara. -
1:23 - 1:28A na svim platformama, vidimo bezbrojne
postove s ciljem demoniziranja drugih -
1:28 - 1:31na osnovi njihove rase,
vjere ili spolnosti. -
1:32 - 1:35Dobrodošli u jedan od središnjih
izazova našeg vremena. -
1:36 - 1:40Kako da zadržimo internet
sa slobodom izražavanja u svojoj srži, -
1:40 - 1:43a da osiguramo da sadržaj kojeg se širi
-
1:43 - 1:47ne stvara nepovratnu štetu
našim demokracijama, našim zajednicama -
1:47 - 1:49te našem tjelesnom i umnom blagostanju?
-
1:50 - 1:52Jer živimo u informacijskom dobu,
-
1:52 - 1:56a ipak glavna valuta o kojoj
svi ovisimo -- informacija -- -
1:56 - 1:58više se ne smatra posve vjerodostojnom
-
1:58 - 2:00a ponekad se može činiti izravno opasnom.
-
2:01 - 2:05Ovo se događa zahvaljujući brzom rastu
platformi za društveno dijeljenje -
2:05 - 2:07koje nam omogućuju da skrolamo dolje,
-
2:07 - 2:09gdje laži i činjenice stoje
jedni uz druge, -
2:09 - 2:12ali bez ijednog od tradicionalnih
znakova vjerodostojnosti. -
2:12 - 2:16I zaboga -- naš govor koji okružuje
sve to je zastrašujuće zamagljen. -
2:16 - 2:19Ljudi su još uvijek opsjednuti
frazom "lažne vijesti", -
2:19 - 2:22unatoč činjenici da nam izuzetno odmaže
-
2:22 - 2:25i koristi se za opis brojnih stvari
koje su zapravo vrlo različite: -
2:25 - 2:28laži, tračevi, prevare,
urote, promidžba. -
2:29 - 2:32I stvarno priželjkujem da
prestanemo koristiti tu frazu -
2:32 - 2:35koju su redom preuzeli političari
gotovo cijelog svijeta, -
2:35 - 2:36od ljevice do desnice,
-
2:36 - 2:40i koriste se njome kao oružjem za napade
na slobodne i neovisne medije. -
2:40 - 2:45(Pljesak)
-
2:45 - 2:48Jer sada više nego ikada trebaju nam
naši profesionalni informativni mediji. -
2:49 - 2:52Osim toga, većina takvog sadržaja se
niti ne prikriva pod viješću. -
2:52 - 2:55To su memeovi, videi, društveni postovi.
-
2:55 - 2:58I većina toga nije lažna,
nego krivo navodi. -
2:58 - 3:01Mi se većinom fiksiramo na istinu ili laž.
-
3:01 - 3:05Ali najveća opasnost je zapravo
pretvaranje konteksta u oružje. -
3:07 - 3:09Jer najučinkovitija dezinformacija
-
3:09 - 3:12oduvijek je bila ona koja
u sebi sadrži zrnce istine. -
3:12 - 3:15Uzmimo ovaj primjer iz Londona
iz ožujka 2017. godine, -
3:15 - 3:17objava na Twitteru koja se jako proširila
-
3:17 - 3:21u danima nakon terorističkog napada
na Westminsterskom mostu. -
3:21 - 3:23Ovo je prava slika, nije lažirana.
-
3:23 - 3:26Žena koja se pojavljuje na slici
kasnije je bila intervjuirana -
3:26 - 3:29i objasnila je da je bila
krajnje preplašena. -
3:29 - 3:31Bila je na telefonu s voljenom osobom
-
3:31 - 3:33i iz poštovanja nije gledala u žrtvu.
-
3:33 - 3:37Ali svejedno je proširena uz
islamofobne implikacije, -
3:37 - 3:40uz brojne hashtagove, uključujući:
#ZabraniteIslam. -
3:40 - 3:43Da radite u Twitteru, što biste učinili?
-
3:43 - 3:45Biste li ovo maknuli ili ostavili?
-
3:47 - 3:50Moja instinktivna, emocionalna
reakcija jest da bih to maknula. -
3:50 - 3:52Mrzim implikacije ove slike.
-
3:53 - 3:55Ali sloboda izražavanja je ljudsko pravo,
-
3:55 - 3:58a ako počnemo micati govor koji
čini da se osjećamo nelagodno, -
3:58 - 3:59onda smo u nevolji.
-
4:00 - 4:02Ovo može izgledati kao
kristalno jasan slučaj, -
4:02 - 4:04ali zapravo, većina govora nije takva.
-
4:04 - 4:06Izuzetno je teško povući te crte.
-
4:06 - 4:08Ono što je za jednu osobu
dobronamjerna odluka, -
4:08 - 4:10za drugu može biti otvorena cenzura.
-
4:11 - 4:14Sada znamo da je ovaj Twitter-račun,
Texas Lone Star, -
4:14 - 4:17dio široke ruske kampanje dezinformiranja,
-
4:17 - 4:19koja je otada odstranjena.
-
4:19 - 4:21Bi li to promijenilo vaš stav?
-
4:21 - 4:22Moj bi,
-
4:22 - 4:25jer sada je to slučaj usmjerene kampanje
-
4:25 - 4:26za sijanje nemira.
-
4:26 - 4:28A vama koji volite misliti
-
4:28 - 4:31kako će umjetna inteligencija
riješiti sve naše probleme, -
4:31 - 4:33mislim da se možemo složiti
kako je još dug put -
4:33 - 4:36do UI-ja koji bi mogao razlučiti
smisao ovakvih postova. -
4:37 - 4:39Želim objasniti tri isprepletena problema
-
4:39 - 4:42koji ovo čine toliko složenim,
-
4:42 - 4:45a zatim razmisliti o načinima kako
možemo razmotriti ove izazove. -
4:45 - 4:49Prvo, mi jednostavno nemamo
racionalan odnos s informacijama, -
4:49 - 4:51nego emocionalan.
-
4:51 - 4:55Jednostavno nije točno da će više
činjenica sve popraviti, -
4:55 - 4:58jer algoritmi koji određuju
koji sadržaj gledamo -
4:58 - 5:01napravljeni su tako da
nagrade naše emocionalne reakcije. -
5:01 - 5:02A kada strahujemo,
-
5:02 - 5:05pojednostavljene priče,
urotnička objašnjenja -
5:05 - 5:09i govor koji demonizira druge
su daleko učinkovitiji. -
5:10 - 5:11Usput, mnoge od ovih tvrtki,
-
5:11 - 5:14njihov poslovni model
veže se na pozornost, -
5:14 - 5:18što znači da će ti algoritmi uvijek
biti naklonjeni prema emocijama. -
5:18 - 5:23Drugo, većina govora koji
ovdje opisujem je legalan. -
5:23 - 5:24Bila bi to druga stvar
-
5:24 - 5:27ako bih govorila o slikama
spolnog zlostavljanja djece -
5:27 - 5:29ili o sadržaju koji poziva na nasilje.
-
5:29 - 5:32Može biti posve legalno
objaviti besramnu laž. -
5:33 - 5:37A ljudi i dalje pričaju o skidanju
"problematičnog" ili "štetnog" sadržaja, -
5:37 - 5:40ali bez jasne definicije
što pod tim smatraju, -
5:40 - 5:41čak i Mark Zuckerberg,
-
5:41 - 5:45koji je nedavno zatražio svjetsku
regulativu za moderiranje govora. -
5:45 - 5:47Vidim opasnost u tome što vlade
-
5:47 - 5:48po cijelom svijetu
-
5:48 - 5:51izbacuju žurne političke odluke
-
5:51 - 5:54koje bi zapravo mogle izazvati
puno ozbiljnije posljedice -
5:54 - 5:56kada se radi o našem govoru.
-
5:56 - 6:00Čak i ako bismo mogli odlučiti
koji govor postaviti ili maknuti, -
6:00 - 6:02nikada nije bilo toliko puno govora.
-
6:02 - 6:04Svake sekunde, milijune
komadića sadržaja -
6:04 - 6:06postavljaju ljudi iz cijelog svijeta
-
6:06 - 6:07na različitim jezicima,
-
6:07 - 6:10pozivajući se na tisuće različitih
kulturnih konteksta. -
6:10 - 6:13Nikada nismo imali učinkovita sredstva
-
6:13 - 6:15za moderiranje govora na ovoj razini,
-
6:15 - 6:17bilo da ih pokreću ljudi ili tehnologija.
-
6:18 - 6:22Treće, ove tvrtke -- Google, Twitter,
Facebook, WhatsApp -- -
6:22 - 6:25dio su šireg informacijskog ekosustava.
-
6:25 - 6:28Sviđa nam se svaliti sav
grijeh na njih, ali zapravo, -
6:28 - 6:32masovni mediji i dužnosnici na položajima
također igraju podjednaku ulogu -
6:32 - 6:35u preuveličavanju tračeva
i zavjera kada to žele. -
6:36 - 6:41Tu ulogu igramo i sami kada proslijedimo
huškajući ili neprovjeren sadržaj -
6:41 - 6:42a da se nismo ni potrudili.
-
6:42 - 6:44Pridonosimo zagađenju.
-
6:45 - 6:48Znam da svi tražimo lako rješenje.
-
6:48 - 6:50Ali jednostavno ga nema.
-
6:50 - 6:54Bilo koje rješenje trebalo bi biti
pokrenuto na visokoj razini, internetskoj, -
6:54 - 6:58i da, platforme su naviknute
raditi na toj razini. -
6:58 - 7:01Ali možemo li i trebamo li im dopustiti
da riješe ovaj problem? -
7:02 - 7:03Oni se svakako trude.
-
7:03 - 7:07Ali većina nas će se složiti da, zapravo,
ne želimo da globalne korporacije -
7:07 - 7:09postanu čuvari istine
i poštenja na internetu. -
7:09 - 7:12Mislim da bi se i same platforme
složile s time. -
7:12 - 7:15A trenutno, oni ocjenjuju svoje
vlastite domaće zadaće. -
7:15 - 7:16Vole nam reći
-
7:16 - 7:19kako intervencije koje poduzimaju
imaju učinak, -
7:19 - 7:22ali budući da sami pišu svoja
izvješća o transparentnosti, -
7:22 - 7:25nema načina da neovisno
utvrdimo što se zapravo događa. -
7:26 - 7:30(Pljesak)
-
7:30 - 7:33Razjasnimo također kako se
većina promjena koje vidimo -
7:33 - 7:36dogode tek nakon što novinari
poduzmu istragu -
7:36 - 7:37te pronađu dokaze pristranosti
-
7:37 - 7:40ili sadržaja koji krši njihove
društvene smjernice. -
7:41 - 7:45Da, te tvrtke moraju igrati
vrlo važnu ulogu u ovom procesu, -
7:45 - 7:47ali ga ne smiju kontrolirati.
-
7:48 - 7:49Što je s vladama?
-
7:50 - 7:53Mnogi ljudi vjeruju da je svjetska
regulativa posljednja nada -
7:53 - 7:56kada se radi o pročišćenju našeg
informacijskog ekosustava. -
7:56 - 7:59Ali vidim tek donositelje zakona
koji se bore da ostanu ukorak -
7:59 - 8:01s brzim promjenama u tehnologiji.
-
8:01 - 8:03Još gore, oni djeluju u mraku,
-
8:03 - 8:05jer nemaju pristup podacima
-
8:05 - 8:08kako bi razumjeli što se događa
na ovim platformama. -
8:08 - 8:11A i kojim bismo vladama
povjerili da to učine? -
8:11 - 8:14Potrebna nam je svjetska,
ne nacionalna, reakcija. -
8:15 - 8:18Mi smo karika koja nedostaje.
-
8:18 - 8:21Ljudi koji se služe ovim
tehnologijama svakodnevno. -
8:21 - 8:26Možemo li stvoriti novu infrastrukturu
za podršku kvalitetnim informacijama? -
8:26 - 8:28Vjerujem da možemo,
-
8:28 - 8:31i imam par ideja o tome
što zapravo možemo učiniti. -
8:31 - 8:34Najprije, ako ozbiljno mislimo
uključiti javnost u ovo, -
8:34 - 8:37možemo li crpiti nadahnuće iz Wikipedije?
-
8:37 - 8:38Oni su pokazali što je moguće.
-
8:38 - 8:40Nije savršena,
-
8:40 - 8:42ali prikazali su kako
pomoću pravih struktura, -
8:42 - 8:45globalnog pogleda te puno,
puno transparentnosti, -
8:45 - 8:48može se izgraditi nešto što će
steći povjerenje većine ljudi. -
8:48 - 8:51Jer moramo pronaći način da
zagrabimo u kolektivnu mudrost -
8:51 - 8:53te iskustvo svakog korisnika.
-
8:54 - 8:56To je posebno bitno za žene, nebijelce,
-
8:56 - 8:58i nedovoljno zastupljene skupine.
-
8:58 - 8:59Jer pogodite?
-
8:59 - 9:01Oni su stručnjaci kada se radi
o mržnji i dezinformiranju, -
9:02 - 9:05jer su oni toliko dugo
bili mete takvih kampanja. -
9:05 - 9:07Tijekom godina, podizali su zastavice,
-
9:07 - 9:09a nismo ih slušali.
-
9:09 - 9:10To se mora promijeniti.
-
9:11 - 9:15Možemo li sagraditi
Wikipediju za povjerenje? -
9:15 - 9:19Možemo li pronaći način da nam
korisnici zapravo omoguće uvide? -
9:19 - 9:23Mogu ponuditi uvide pri teškim
odlukama o moderiranju sadržaja. -
9:23 - 9:25Mogu nam dati povratnu informaciju
-
9:25 - 9:28kada platforme odluče
izbaciti nove promjene. -
9:28 - 9:32Drugo, ljudska iskustva s
informacijama su osobna. -
9:32 - 9:35Moj popis novosti na Facebooku
je vrlo različit od vašeg. -
9:35 - 9:38Vaše preporuke na YouTubeu su
vrlo različite od mojih. -
9:38 - 9:40To čini nemogućim da preispitamo
-
9:40 - 9:42koje informacije ljudi vide.
-
9:43 - 9:44Možemo li zamisliti
-
9:44 - 9:49da razvijemo neku vrstu središnjeg
otvorenog skladišta za anonimne podatke, -
9:49 - 9:52s ugrađenom privatnošću
i etičkim ogradama? -
9:52 - 9:54Jer zamislite što bismo mogli naučiti
-
9:54 - 9:57ako izgradimo svjetsku mrežu
angažiranih građana -
9:57 - 10:01koji žele donirati svoje
društvene podatke znanosti. -
10:01 - 10:03Jer zapravo znamo jako malo
-
10:03 - 10:06o dugoročnim posljedicama
mržnje i dezinformacija -
10:06 - 10:08na ljudske stavove i ponašanja.
-
10:08 - 10:09A ono što znamo
-
10:09 - 10:12većinom je bilo izvedeno u SAD-u,
-
10:12 - 10:14usprkos tome što je ovo svjetski problem.
-
10:14 - 10:16I na tome moramo raditi.
-
10:16 - 10:17Treće,
-
10:17 - 10:20možemo li naći način da spojimo točke?
-
10:20 - 10:23Nijedan sektor, posebno ne neprofitna
udruga, start-up tvrtka ili vlada -
10:23 - 10:25neće ovo riješiti.
-
10:25 - 10:27Ali ima jako pametnih ljudi
svuda po svijetu -
10:27 - 10:29koji rade na ovim izazovima,
-
10:29 - 10:32uredništva vijesti, civilno društvo,
akademski djelatnici, skupine aktivista. -
10:32 - 10:34Neke od njih možete vidjeti ovdje.
-
10:34 - 10:37Neki grade pokazatelje za
vjerodostojnost sadržaja. -
10:37 - 10:38Drugi provjeravaju podatke,
-
10:38 - 10:42kako bi lažne tvrdnje, videi i slike
bili nisko rangirani na platformama. -
10:42 - 10:44Pomogla sam osnovati neprofitnu
udrugu First Draft -
10:44 - 10:47koja radi s uobičajeno natjecateljskim
uredništvima vijesti po svijetu -
10:47 - 10:51da im pomogne u gradnji
istraživačkih, surađivačkih programa. -
10:51 - 10:54Danny Hillis, inženjer softvera,
-
10:54 - 10:56gradi novi sustav imenom The Underlay,
-
10:56 - 10:59koji će biti arhiv svih javnih činjenica
-
10:59 - 11:00povezanih sa svojim izvorom,
-
11:00 - 11:04kako bi ljudi i algoritmi bolje
procijenili što je vjerodostojno. -
11:05 - 11:08Edukatori diljem svijeta
testiraju različite tehnike -
11:08 - 11:12u nalaženju načina da ljudi postanu
kritični prema sadržaju koji koriste. -
11:13 - 11:16Svi ti pokušaji su divni,
ali oni rade nepovezano, -
11:16 - 11:19i mnogima od njih kronično
nedostaju financijska sredstva. -
11:19 - 11:21Ima i stotine vrlo pametnih ljudi
-
11:21 - 11:22koji rade unutar ovih tvrtki,
-
11:22 - 11:25ali opet, ta nastojanja su rascjepkana,
-
11:25 - 11:29jer oni zapravo razvijaju različita
rješenja za isti problem. -
11:29 - 11:31Kako možemo naći način da spojimo ljude
-
11:31 - 11:35na jednoj fizičkoj lokaciji
danima ili tjednima istodobno, -
11:35 - 11:37kako bi zajedno mogli
savladati ove probleme -
11:37 - 11:39ali s različitih gledišta?
-
11:39 - 11:40Pa možemo li to učiniti?
-
11:40 - 11:44Možemo li izgraditi koordiniranu,
ambicioznu reakciju -
11:44 - 11:47koja će se mjeriti s razinom i
kompleksnošću problema? -
11:48 - 11:49Stvarno mislim da možemo.
-
11:49 - 11:52Zajedno, izgradimo ponovno
naš informacijski krajolik. -
11:53 - 11:54Hvala.
-
11:54 - 11:58(Pljesak)
- Title:
- Kako možete pomoći da internet postane mjesto povjerenja
- Speaker:
- Claire Wardle
- Description:
-
Kako možemo spriječiti širenje netočnog, ponekad i opasnog sadržaja, istovremeno održavajući internet u duhu slobode izražavanja? Stručnjakinja za dezinformiranje, Claire Wardle, istražuje nove izazove našeg zagađenog internetskog okoliša i iznosi plan za preoblikovanje interneta u mjesto povjerenja - uz pomoć običnih korisnika. "Preoblikujmo zajedno naš informacijski krajolik", kaže.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Sanda L approved Croatian subtitles for How you can help transform the internet into a place of trust | ||
Sanda L accepted Croatian subtitles for How you can help transform the internet into a place of trust | ||
Sanda L edited Croatian subtitles for How you can help transform the internet into a place of trust | ||
Martina Peraic edited Croatian subtitles for How you can help transform the internet into a place of trust | ||
Martina Peraic edited Croatian subtitles for How you can help transform the internet into a place of trust | ||
Martina Peraic edited Croatian subtitles for How you can help transform the internet into a place of trust | ||
Martina Peraic edited Croatian subtitles for How you can help transform the internet into a place of trust | ||
Martina Peraic edited Croatian subtitles for How you can help transform the internet into a place of trust |