Prețul plătit pentru un internet „curat”
-
0:00 - 0:04[Discurs cu puternic impact emoțional]
-
0:05 - 0:09Moritz Riesewieck:
Pe 23 martie 2013 -
0:09 - 0:13utilizatori din toată lumea
au găsit pe paginile lor -
0:13 - 0:19un videoclip cu o fetiță care era violată
de un bărbat mai în vârstă. -
0:19 - 0:23Înainte ca acest clip
să fie șters de pe Facebook, -
0:23 - 0:28deja fusese redistribuit de 16.000 de ori
-
0:28 - 0:32și chiar a primit 4.000 de like-uri.
-
0:33 - 0:37Clipul a devenit viral,
infectând internetul. -
0:38 - 0:41Hans Block:
Ne-am întrebat, în acel moment: -
0:41 - 0:44cum a putut așa ceva
să ajungă pe Facebook? -
0:44 - 0:48Pe de altă parte, cum de nu vedem mai des
astfel de conținuturi? -
0:48 - 0:52În fond, mediul online chiar e plin
de materiale revoltătoare. -
0:52 - 0:56Deci cum de vedem atât de rar asemenea
grozăvii pe Facebook, Twitter sau Google? -
0:57 - 0:59MR: Deși aplicațiile
de recunoaștere a imaginilor -
0:59 - 1:05pot identifica în poze și clipuri
conturul organelor sexuale, -
1:05 - 1:08sângele sau nuditatea,
-
1:08 - 1:14ele nu pot totuși face diferența
între pornografie -
1:14 - 1:18și nuditatea unei poze de vacanță
sau a unei statui, -
1:18 - 1:21sau a unei campanii pentru depistarea
cancerului la sân. -
1:21 - 1:25Nu pot face diferența dintre Romeo
și Julieta murind pe scenă -
1:25 - 1:28și un atac armat real.
-
1:28 - 1:33Nu pot face diferența dintre satiră
și propagandă, -
1:33 - 1:37dintre ironie și ură,
și așa mai departe. -
1:38 - 1:42Prin urmare, e nevoie
de oameni care să decidă -
1:42 - 1:46care conținuturi suspecte ar trebui șterse
-
1:46 - 1:48și care pot rămâne.
-
1:49 - 1:52Oameni despre care nu știm mai nimic,
-
1:52 - 1:54pentru că ei lucrează în secret.
-
1:54 - 1:56Semnează acorduri de confidențialitate
-
1:56 - 1:59care le interzic să vorbească
și să împărtășească -
1:59 - 2:03despre ce văd pe ecrane
și despre ce efect are asta asupra lor. -
2:03 - 2:05Sunt obligați să folosească
un limbaj codificat -
2:05 - 2:08ca să nu se afle pentru cine lucrează.
-
2:08 - 2:10Sunt monitorizați de firme
de securitate private, -
2:11 - 2:14ca să nu poată vorbi cu presa.
-
2:14 - 2:18Sunt amenințați cu amenzi
în cazul în care vorbesc. -
2:18 - 2:22Toate acestea sună
ca o poveste polițistă ciudată, -
2:22 - 2:24dar e purul adevăr.
-
2:24 - 2:25Acești oameni chiar există
-
2:26 - 2:30și se numesc moderatori de conținut.
-
2:31 - 2:34HB: Noi suntem realizatorii
filmului documentar „Curățătorii” -
2:34 - 2:36și am vrea să vă luăm cu noi
-
2:36 - 2:39într-o lume pe care mulți dintre voi
nu o cunosc încă. -
2:39 - 2:41Iată o scurtă secvență din filmul nostru.
-
2:47 - 2:50(Muzică)
-
2:52 - 2:55(Video) Moderatorul de conținut:
Trebuie să rămân anonim, -
2:55 - 2:57deoarece am semnat un contract.
-
2:58 - 3:01Nu avem voie să spunem pentru cine lucrăm.
-
3:03 - 3:05Motivul pentru care vorbesc cu tine
-
3:05 - 3:09e că lumea ar trebui să știe că existăm.
-
3:11 - 3:13Că cineva verifică social media.
-
3:14 - 3:18Noi facem tot posibilul
ca aceste platforme -
3:18 - 3:20să fie sigure pentru toată lumea.
-
3:30 - 3:32Șterge.
-
3:32 - 3:34Ignoră.
-
3:34 - 3:35Șterge.
-
3:35 - 3:37Ignoră.
-
3:37 - 3:38Șterge.
-
3:39 - 3:40Ignoră.
-
3:40 - 3:41Ignoră.
-
3:42 - 3:43Șterge.
-
3:46 - 3:48HB: Așa-numiții moderatori de conținut
-
3:48 - 3:52nu sunt plătiți direct de Facebook,
Twitter sau Google. -
3:52 - 3:54Ei sunt angajați de firme
de leasing de personal, -
3:54 - 3:56ca să poată fi ținuți pe salarii mici.
-
3:57 - 3:59Zeci de mii de tineri
-
3:59 - 4:02se uită la lucruri pe care nimeni
nu ar trebui să le vadă. -
4:02 - 4:06Și ne referim la decapitări, mutilări,
-
4:06 - 4:09execuții, necrofilie, tortură,
abuzuri asupra minorilor. -
4:10 - 4:12Mii de imagini pe tură;
-
4:12 - 4:15ignoră sau șterge, zi și noapte.
-
4:15 - 4:19Mare parte din această muncă
se face în Manila, -
4:19 - 4:22locul către care deșeurile toxice
analogice ale lumii occidentale -
4:22 - 4:25au fost ani de zile expediate
în cargoboturi, -
4:25 - 4:28iar acum deșeurile digitale
sunt de asemenea „deversate” aici, -
4:28 - 4:29pe calea fibrei optice.
-
4:29 - 4:32Și exact cum așa-numiții
căutători prin gunoaie -
4:32 - 4:35scormonesc prin mormanele imense
de la marginea orașelor, -
4:35 - 4:40moderatorii de conținut navighează
printr-un ocean toxic nesfârșit -
4:40 - 4:44de imagini, clipuri și tot soiul
de gunoaie digitale, -
4:44 - 4:47pentru ca noi să nu fim nevoiți
să le vedem. -
4:47 - 4:50MR: Dar spre deosebire de rănile
căutătorilor prin gunoaie, -
4:50 - 4:54cele ale moderatorilor de conținut
sunt invizibile. -
4:54 - 4:57Pline de conținut șocant și tulburător,
-
4:57 - 5:00aceste imagini și clipuri
le rămân întipărite în memorie -
5:01 - 5:04iar de acolo, oricând,
pot declanșa efecte neprevăzute: -
5:04 - 5:07tulburări de alimentație,
pierderea apetitului sexual, -
5:07 - 5:11tulburări anxioase, alcoolism,
-
5:11 - 5:14depresie și chiar suicid.
-
5:14 - 5:17Imaginile și clipurile îi infectează
-
5:17 - 5:19și efectele sunt adesea ireversibile.
-
5:19 - 5:24Dacă sunt ghinioniști,
dezvoltă sindromul post-traumatic -
5:24 - 5:26exact ca soldații întorși din misiune.
-
5:27 - 5:31În documentarul nostru
relatăm povestea unui tânăr -
5:31 - 5:36care avea de monitorizat transmisii live
de automutilări și tentative de suicid, -
5:36 - 5:38din nou și din nou,
-
5:38 - 5:41până când, într-un final,
el însuși s-a sinucis. -
5:42 - 5:45Și, după cum ni s-a spus,
nu e un caz izolat. -
5:45 - 5:49Acesta e prețul pe care îl plătim cu toții
-
5:49 - 5:54pentru așa-numitele noastre
rețele sociale online -
5:54 - 5:57curate, sigure și „sănătoase”.
-
5:58 - 6:01Niciodată în istoria umanității
-
6:01 - 6:04n-a fost mai ușor să ajungi
la milioane de oameni din toată lumea -
6:04 - 6:06în câteva secunde.
-
6:06 - 6:10Postările de pe social media
se răspândesc extrem de rapid, -
6:10 - 6:14pot deveni virale și pot incita
mințile oamenilor din toată lumea. -
6:14 - 6:17Până să fie șterse,
-
6:17 - 6:18de multe ori e prea târziu.
-
6:19 - 6:21Milioane de oameni
deja au fost contaminați -
6:21 - 6:23cu ură și furie,
-
6:23 - 6:26iar aceștia fie devin activi online,
-
6:26 - 6:29împrăștiind și amplificând ura,
-
6:29 - 6:33fie ies pe stradă și folosesc armele.
-
6:33 - 6:36HB: Prin urmare, o armată
de moderatori de conținut -
6:36 - 6:40stă în fața calculatoarelor pentru
a evita și mai multe daune colaterale. -
6:40 - 6:43Și ei trebuie să decidă instantaneu
-
6:43 - 6:47dacă respectivul conținut
rămâne pe platformă: ignoră; -
6:47 - 6:49sau dispare: șterge.
-
6:50 - 6:52Dar nu toate deciziile sunt atât de clare
-
6:52 - 6:55precum cea despre un clip
cu un abuz asupra unui minor. -
6:55 - 6:58Mai sunt și conținuturi
controversate, ambivalente, -
6:58 - 7:01încărcate de apărători
ai drepturilor omului sau jurnaliști. -
7:02 - 7:05Moderatorii de conținut decid adesea
și în aceste cazuri -
7:05 - 7:08cu aceeași viteză cu care decid
în situațiile clare. -
7:10 - 7:12MR: Vă vom arăta un clip
-
7:12 - 7:16și o să vă rugăm pe voi să decideți:
-
7:16 - 7:17l-ați șterge de pe internet
-
7:17 - 7:19sau nu?
-
7:19 - 7:21(Video) (Sunete de atac aerian)
-
7:21 - 7:24(Explozie)
-
7:28 - 7:34(Oameni vorbind în arabă)
-
7:34 - 7:36MR: Da, am estompat unele imagini.
-
7:37 - 7:41E posibil ca un copil
să fie serios afectat -
7:41 - 7:44și foarte înspăimântat
de un asemenea conținut. -
7:44 - 7:46Așadar, l-ați șterge?
-
7:48 - 7:52Dar dacă acest clip ar putea ajuta la
investigarea crimelor de război din Siria? -
7:53 - 7:56Dacă nimeni nu ar fi aflat
despre acest atac aerian -
7:56 - 8:00din cauză că Facebook, YouTube, Twitter
ar fi decis să-l șteargă? -
8:01 - 8:05Airwars, o organizație non-guvernamentală
cu sediul în Londra -
8:05 - 8:08încearcă să găsească astfel de clipuri
cât mai repede, -
8:08 - 8:11de îndată ce sunt încărcate
pe social media, -
8:11 - 8:12cu scopul de a le arhiva.
-
8:13 - 8:16Asta pentru că ei știu că,
mai devreme sau mai târziu, -
8:16 - 8:19Facebook, YouTube, Twitter
vor șterge astfel de conținuturi. -
8:19 - 8:22Oameni înarmați cu telefoane mobile
-
8:22 - 8:26pot face vizibile lucruri la care
jurnaliștii adesea nu au acces. -
8:26 - 8:29De multe ori, apărătorii drepturilor
omului nu au altă opțiune mai bună -
8:29 - 8:33de a mediatiza la scară largă
abuzurile înregistrate, -
8:33 - 8:35decât dacă le încarcă
pe platformele sociale. -
8:36 - 8:40Și nu e aceasta însăși puterea
pe care ar trebui să ne-o dea internetul? -
8:41 - 8:43Nu sunt acestea visurile
-
8:43 - 8:47pe care oamenii și le făceau
în anii de început ai internetului? -
8:48 - 8:50Nu ar trebui ca astfel de imagini
și de clipuri -
8:50 - 8:56să-i oblige pe oamenii care au devenit
insensibili la ce se întâmplă -
8:56 - 8:57să-și revizuiască atitudinea?
-
8:58 - 9:02HB: În schimb, orice ar putea deranja
este șters. -
9:02 - 9:04A devenit o tendință generală
în societate. -
9:04 - 9:08Mass media, de pildă, utilizează
tot mai des mesaje de avertizare -
9:08 - 9:09la începutul articolelor
-
9:09 - 9:13care ar putea fi percepute de unii
cititori drept deranjante și ofensatoare. -
9:13 - 9:17Sau tot mai mulți studenți
ai universităților americane -
9:17 - 9:19cer interzicerea din programa școlară
a clasicilor antici -
9:19 - 9:23care descriu în operele lor
violențe sexuale și abuzuri. -
9:23 - 9:25Oare cât de departe să mergem cu asta?
-
9:26 - 9:29Integritatea fizică e obligatorie,
ca drept constituțional al omului, -
9:29 - 9:31peste tot în lume.
-
9:31 - 9:35În Carta Drepturilor Fundamentale
a Uniunii Europene -
9:35 - 9:39este în mod expres specificat
și dreptul la integritate mintală. -
9:39 - 9:42Dar chiar dacă efectul potențial traumatic
-
9:42 - 9:45al imaginilor și clipurilor
e dificil de anticipat, -
9:45 - 9:47chiar vrem să devenim atât de precauți
-
9:47 - 9:51încât să riscăm să pierdem conștientizarea
societății asupra nedreptății? -
9:51 - 9:52Atunci, ce e de făcut?
-
9:53 - 9:56Mark Zuckerberg a declarat
recent că în viitor -
9:56 - 10:00utilizatorii, adică noi toți,
-
10:00 - 10:02vom decide fiecare în parte
-
10:02 - 10:04ce vrem să vedem pe pagina noastră
-
10:04 - 10:06prin aplicarea unor filtre
de personalizare. -
10:06 - 10:09Astfel, oricine poate cu ușurință
să ceară să nu fie deranjat -
10:09 - 10:13de imagini cu războaie sau alt gen
de conflicte violente, cam așa: -
10:14 - 10:18MR: Sunt genul de bărbat
pe care nu-l deranjează să vadă sâni -
10:18 - 10:22și sunt foarte interesat
de încălzirea globală. -
10:22 - 10:25În schimb, războiul nu-mi prea place.
-
10:25 - 10:27HB: Iar eu sunt cam invers,
-
10:27 - 10:31adică sânii și nuditatea în general
mă lasă total indiferent. -
10:31 - 10:34Dar arme, de ce nu? Armele îmi plac.
-
10:35 - 10:39MR: Păi dacă nu împărtășim
aceeași conștiință socială, -
10:39 - 10:41cum să discutăm despre problemele sociale?
-
10:41 - 10:44Cum să cerem cetățenilor să acționeze?
-
10:44 - 10:47Vom fi și mai izolați ca până acum.
-
10:48 - 10:51Una din întrebările cheie este:
„Cum vom gestiona pe viitor -
10:51 - 10:56relația dintre libertatea de exprimare
și nevoia de protecție a oamenilor?” -
10:56 - 10:58E o chestiune de principiu.
-
10:59 - 11:02Vrem să creăm în spațiul digital
o societate deschisă -
11:02 - 11:05sau izolată?
-
11:05 - 11:11În esență, este vorba despre
„libertate versus securitate”. -
11:12 - 11:17Facebook și-a dorit dintotdeauna
să fie o platformă „sănătoasă”. -
11:17 - 11:18Mai presus de orice,
-
11:18 - 11:21toți utilizatorii ar trebui
să-și simtă intimitatea protejată. -
11:21 - 11:23Exact aceste cuvinte le-au folosit
-
11:23 - 11:26și moderatorii de conținut din Filipine
-
11:26 - 11:28în multe din interviurile noastre.
-
11:28 - 11:31(Video) Lumea în care trăim acum
-
11:31 - 11:33cred că nu e prea sănătoasă.
-
11:33 - 11:34(Muzică)
-
11:34 - 11:38În această lume, răul există cu adevărat.
-
11:38 - 11:41(Muzică)
-
11:41 - 11:43Trebuie să fim atenți la el.
-
11:43 - 11:45(Muzică)
-
11:45 - 11:48Trebuie să-l controlăm.
-
11:49 - 11:51(Muzică)
-
11:58 - 12:02[„Tinere, ai grijă!” - Dumnezeu]
-
12:03 - 12:07MR: Pentru tinerii moderatori de conținut
din acest Filipine foarte catolic -
12:07 - 12:10această misiune este una creștină.
-
12:11 - 12:14Să țină piept păcatelor lumii
-
12:14 - 12:16care se răspândesc pe internet.
-
12:17 - 12:20„Curățirea te aduce mai aproape
de Dumnezeu” -
12:20 - 12:24e o vorbă pe care tot poporul
filipinez o știe. -
12:24 - 12:26HB: Alții se automotivează
-
12:26 - 12:29comparându-se cu președintele lor,
Rodrigo Duterte. -
12:30 - 12:33El conduce statul Filipine din 2016
-
12:33 - 12:37și a câștigat alegerile cu promisiunea:
„Voi face curățenie.” -
12:38 - 12:41Asta înseamnă eliminarea
tuturor problemelor, de orice fel, -
12:41 - 12:44prin a ucide la propriu oamenii pe stradă,
-
12:44 - 12:47dacă sunt suspectați că sunt infractori,
orice ar putea însemna asta. -
12:47 - 12:48Într-adevăr, de când a fost ales,
-
12:48 - 12:51se presupune că 20.000 de oameni
au fost omorâți. -
12:52 - 12:54Iar în documentarul nostru,
un moderator de conținut spune: -
12:54 - 12:56„Ce face Duerte pe străzi,
-
12:56 - 12:58eu fac pe internet.”
-
12:59 - 13:02Iată-i, deci, pe acești super-eroi
autoproclamați -
13:03 - 13:05care impun legea și ordinea
în lumea noastră digitală. -
13:06 - 13:08Ei curăță, mușamalizează,
-
13:08 - 13:10ne țin la distanță de tot ce-i rău.
-
13:10 - 13:14Responsabilități aflate odată
în slujba autorităților statului -
13:14 - 13:18au fost preluate de tineri absolvenți
de douăzeci și ceva de ani, -
13:18 - 13:21„echipați” cu trei-cinci zile
de instruire, -
13:21 - 13:23în asta constă calificarea lor,
-
13:23 - 13:26care lucrează la nici mai mult nici mai
puțin decât salvarea acestei lumi. -
13:27 - 13:30MR: Responsabilități guvernamentale
au fost externalizate -
13:30 - 13:35către companii private, iar ele le dau
mai departe către subcontractori. -
13:35 - 13:38Este o externalizare a externalizării
a externalizării -
13:38 - 13:39ceea ce se întâmplă.
-
13:40 - 13:41Din cauza rețelelor sociale
-
13:41 - 13:44avem de-a face cu o infrastructură
complet nouă, -
13:44 - 13:46cu propriile ei mecanisme,
-
13:46 - 13:47propria ei logică a acțiunii
-
13:47 - 13:52și, prin urmare,
cu propriile ei noi pericole -
13:52 - 13:56care nu existau în spațiul public
al erei pre-digitale. -
13:56 - 13:59HB: Când Mark Zuckerberg a vorbit
în fața congresului american -
13:59 - 14:01sau a Parlamentului European,
-
14:01 - 14:03i s-au adus tot felul de critici.
-
14:03 - 14:06Răspunsul lui a fost mereu același:
-
14:07 - 14:08„Vom remedia asta,
-
14:08 - 14:11iar eu și echipa mea
vom monitoriza pe viitor.” -
14:11 - 14:15Dar astfel de discuții nu ar trebui
purtate în birourile Facebook, -
14:15 - 14:16Twitter sau Google,
-
14:16 - 14:21astfel de discuții ar trebui purtate
deschis în noile parlamente moderne, -
14:21 - 14:26în noile instituții care reflectă
diversitatea umană, -
14:26 - 14:31contribuind astfel la proiectul utopic
al unei rețele globale. -
14:31 - 14:34Chiar dacă pare imposibil
să ținem cont de valorile -
14:34 - 14:36utilizatorilor din lumea întreagă,
-
14:36 - 14:38merită să păstrăm convingerea
-
14:38 - 14:41că sunt mai multe lucrurile care
ne apropie decât cele care ne separă. -
14:42 - 14:45MR: În vremurile
în care populismul capătă putere -
14:45 - 14:49devine la modă să ne concentrăm
doar pe simptome, -
14:49 - 14:50să le eliminăm,
-
14:50 - 14:52să le ascundem.
-
14:53 - 14:56Această ideologie se răspândește
în toată lumea, -
14:56 - 14:59atât în spațiul analog
cât și în cel digital, -
15:00 - 15:03și e de datoria noastră să o oprim,
-
15:03 - 15:05până nu e prea târziu.
-
15:06 - 15:10Principiul libertății și democrației
-
15:10 - 15:13nu ar trebui să se rezume
la aceste două opțiuni. -
15:13 - 15:14HB: Șterge.
-
15:14 - 15:16MR: Sau ignoră.
-
15:17 - 15:19HB: Vă mulțumim foarte mult!
-
15:19 - 15:24(Aplauze)
- Title:
- Prețul plătit pentru un internet „curat”
- Speaker:
- Hans Block și Moritz Riesewieck
- Description:
-
Milioane de imagini și clipuri video sunt încărcate pe internet în fiecare zi și cu toate acestea foarte rar ajungem să vedem conținut șocant și tulburător pe paginile noastre. Cine păstrează internetul „curat” pentru noi? În acest discurs revelator, autorii de documentare Hans Block și Moritz Riesewieck ne poartă pe tărâmul obscur al moderatorilor de conținut digital, adică oamenii contractați de marile platforme online precum Facebook, Twitter și Google să elimine de pe internet aceste materiale toxice. Aflați mai multe despre impactul psihologic al acestui gen de activitate, precum și despre cum „curățenia digitală” influențează tot ceea ce noi vedem sau credem.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:37
Cristina Nicolae approved Romanian subtitles for The price of a "clean" internet | ||
Cristina Nicolae edited Romanian subtitles for The price of a "clean" internet | ||
Mirel-Gabriel Alexa accepted Romanian subtitles for The price of a "clean" internet | ||
Mirel-Gabriel Alexa edited Romanian subtitles for The price of a "clean" internet | ||
Mirona Sărăroiu edited Romanian subtitles for The price of a "clean" internet | ||
Mirel-Gabriel Alexa declined Romanian subtitles for The price of a "clean" internet | ||
Mirona Sărăroiu edited Romanian subtitles for The price of a "clean" internet | ||
Mirona Sărăroiu edited Romanian subtitles for The price of a "clean" internet |