Return to Video

Prețul plătit pentru un internet „curat”

  • 0:00 - 0:04
    [Discurs cu puternic impact emoțional]
  • 0:05 - 0:09
    Moritz Riesewieck:
    Pe 23 martie 2013
  • 0:09 - 0:13
    utilizatori din toată lumea
    au găsit pe paginile lor
  • 0:13 - 0:19
    un videoclip cu o fetiță care era violată
    de un bărbat mai în vârstă.
  • 0:19 - 0:23
    Înainte ca acest clip
    să fie șters de pe Facebook,
  • 0:23 - 0:28
    deja fusese redistribuit de 16.000 de ori
  • 0:28 - 0:32
    și chiar a primit 4.000 de like-uri.
  • 0:33 - 0:37
    Clipul a devenit viral,
    infectând internetul.
  • 0:38 - 0:41
    Hans Block:
    Ne-am întrebat, în acel moment:
  • 0:41 - 0:44
    cum a putut așa ceva
    să ajungă pe Facebook?
  • 0:44 - 0:48
    Pe de altă parte, cum de nu vedem mai des
    astfel de conținuturi?
  • 0:48 - 0:52
    În fond, mediul online chiar e plin
    de materiale revoltătoare.
  • 0:52 - 0:56
    Deci cum de vedem atât de rar asemenea
    grozăvii pe Facebook, Twitter sau Google?
  • 0:57 - 0:59
    MR: Deși aplicațiile
    de recunoaștere a imaginilor
  • 0:59 - 1:05
    pot identifica în poze și clipuri
    conturul organelor sexuale,
  • 1:05 - 1:08
    sângele sau nuditatea,
  • 1:08 - 1:14
    ele nu pot totuși face diferența
    între pornografie
  • 1:14 - 1:18
    și nuditatea unei poze de vacanță
    sau a unei statui,
  • 1:18 - 1:21
    sau a unei campanii pentru depistarea
    cancerului la sân.
  • 1:21 - 1:25
    Nu pot face diferența dintre Romeo
    și Julieta murind pe scenă
  • 1:25 - 1:28
    și un atac armat real.
  • 1:28 - 1:33
    Nu pot face diferența dintre satiră
    și propagandă,
  • 1:33 - 1:37
    dintre ironie și ură,
    și așa mai departe.
  • 1:38 - 1:42
    Prin urmare, e nevoie
    de oameni care să decidă
  • 1:42 - 1:46
    care conținuturi suspecte ar trebui șterse
  • 1:46 - 1:48
    și care pot rămâne.
  • 1:49 - 1:52
    Oameni despre care nu știm mai nimic,
  • 1:52 - 1:54
    pentru că ei lucrează în secret.
  • 1:54 - 1:56
    Semnează acorduri de confidențialitate
  • 1:56 - 1:59
    care le interzic să vorbească
    și să împărtășească
  • 1:59 - 2:03
    despre ce văd pe ecrane
    și despre ce efect are asta asupra lor.
  • 2:03 - 2:05
    Sunt obligați să folosească
    un limbaj codificat
  • 2:05 - 2:08
    ca să nu se afle pentru cine lucrează.
  • 2:08 - 2:10
    Sunt monitorizați de firme
    de securitate private,
  • 2:11 - 2:14
    ca să nu poată vorbi cu presa.
  • 2:14 - 2:18
    Sunt amenințați cu amenzi
    în cazul în care vorbesc.
  • 2:18 - 2:22
    Toate acestea sună
    ca o poveste polițistă ciudată,
  • 2:22 - 2:24
    dar e purul adevăr.
  • 2:24 - 2:25
    Acești oameni chiar există
  • 2:26 - 2:30
    și se numesc moderatori de conținut.
  • 2:31 - 2:34
    HB: Noi suntem realizatorii
    filmului documentar „Curățătorii”
  • 2:34 - 2:36
    și am vrea să vă luăm cu noi
  • 2:36 - 2:39
    într-o lume pe care mulți dintre voi
    nu o cunosc încă.
  • 2:39 - 2:41
    Iată o scurtă secvență din filmul nostru.
  • 2:47 - 2:50
    (Muzică)
  • 2:52 - 2:55
    (Video) Moderatorul de conținut:
    Trebuie să rămân anonim,
  • 2:55 - 2:57
    deoarece am semnat un contract.
  • 2:58 - 3:01
    Nu avem voie să spunem pentru cine lucrăm.
  • 3:03 - 3:05
    Motivul pentru care vorbesc cu tine
  • 3:05 - 3:09
    e că lumea ar trebui să știe că existăm.
  • 3:11 - 3:13
    Că cineva verifică social media.
  • 3:14 - 3:18
    Noi facem tot posibilul
    ca aceste platforme
  • 3:18 - 3:20
    să fie sigure pentru toată lumea.
  • 3:30 - 3:32
    Șterge.
  • 3:32 - 3:34
    Ignoră.
  • 3:34 - 3:35
    Șterge.
  • 3:35 - 3:37
    Ignoră.
  • 3:37 - 3:38
    Șterge.
  • 3:39 - 3:40
    Ignoră.
  • 3:40 - 3:41
    Ignoră.
  • 3:42 - 3:43
    Șterge.
  • 3:46 - 3:48
    HB: Așa-numiții moderatori de conținut
  • 3:48 - 3:52
    nu sunt plătiți direct de Facebook,
    Twitter sau Google.
  • 3:52 - 3:54
    Ei sunt angajați de firme
    de leasing de personal,
  • 3:54 - 3:56
    ca să poată fi ținuți pe salarii mici.
  • 3:57 - 3:59
    Zeci de mii de tineri
  • 3:59 - 4:02
    se uită la lucruri pe care nimeni
    nu ar trebui să le vadă.
  • 4:02 - 4:06
    Și ne referim la decapitări, mutilări,
  • 4:06 - 4:09
    execuții, necrofilie, tortură,
    abuzuri asupra minorilor.
  • 4:10 - 4:12
    Mii de imagini pe tură;
  • 4:12 - 4:15
    ignoră sau șterge, zi și noapte.
  • 4:15 - 4:19
    Mare parte din această muncă
    se face în Manila,
  • 4:19 - 4:22
    locul către care deșeurile toxice
    analogice ale lumii occidentale
  • 4:22 - 4:25
    au fost ani de zile expediate
    în cargoboturi,
  • 4:25 - 4:28
    iar acum deșeurile digitale
    sunt de asemenea „deversate” aici,
  • 4:28 - 4:29
    pe calea fibrei optice.
  • 4:29 - 4:32
    Și exact cum așa-numiții
    căutători prin gunoaie
  • 4:32 - 4:35
    scormonesc prin mormanele imense
    de la marginea orașelor,
  • 4:35 - 4:40
    moderatorii de conținut navighează
    printr-un ocean toxic nesfârșit
  • 4:40 - 4:44
    de imagini, clipuri și tot soiul
    de gunoaie digitale,
  • 4:44 - 4:47
    pentru ca noi să nu fim nevoiți
    să le vedem.
  • 4:47 - 4:50
    MR: Dar spre deosebire de rănile
    căutătorilor prin gunoaie,
  • 4:50 - 4:54
    cele ale moderatorilor de conținut
    sunt invizibile.
  • 4:54 - 4:57
    Pline de conținut șocant și tulburător,
  • 4:57 - 5:00
    aceste imagini și clipuri
    le rămân întipărite în memorie
  • 5:01 - 5:04
    iar de acolo, oricând,
    pot declanșa efecte neprevăzute:
  • 5:04 - 5:07
    tulburări de alimentație,
    pierderea apetitului sexual,
  • 5:07 - 5:11
    tulburări anxioase, alcoolism,
  • 5:11 - 5:14
    depresie și chiar suicid.
  • 5:14 - 5:17
    Imaginile și clipurile îi infectează
  • 5:17 - 5:19
    și efectele sunt adesea ireversibile.
  • 5:19 - 5:24
    Dacă sunt ghinioniști,
    dezvoltă sindromul post-traumatic
  • 5:24 - 5:26
    exact ca soldații întorși din misiune.
  • 5:27 - 5:31
    În documentarul nostru
    relatăm povestea unui tânăr
  • 5:31 - 5:36
    care avea de monitorizat transmisii live
    de automutilări și tentative de suicid,
  • 5:36 - 5:38
    din nou și din nou,
  • 5:38 - 5:41
    până când, într-un final,
    el însuși s-a sinucis.
  • 5:42 - 5:45
    Și, după cum ni s-a spus,
    nu e un caz izolat.
  • 5:45 - 5:49
    Acesta e prețul pe care îl plătim cu toții
  • 5:49 - 5:54
    pentru așa-numitele noastre
    rețele sociale online
  • 5:54 - 5:57
    curate, sigure și „sănătoase”.
  • 5:58 - 6:01
    Niciodată în istoria umanității
  • 6:01 - 6:04
    n-a fost mai ușor să ajungi
    la milioane de oameni din toată lumea
  • 6:04 - 6:06
    în câteva secunde.
  • 6:06 - 6:10
    Postările de pe social media
    se răspândesc extrem de rapid,
  • 6:10 - 6:14
    pot deveni virale și pot incita
    mințile oamenilor din toată lumea.
  • 6:14 - 6:17
    Până să fie șterse,
  • 6:17 - 6:18
    de multe ori e prea târziu.
  • 6:19 - 6:21
    Milioane de oameni
    deja au fost contaminați
  • 6:21 - 6:23
    cu ură și furie,
  • 6:23 - 6:26
    iar aceștia fie devin activi online,
  • 6:26 - 6:29
    împrăștiind și amplificând ura,
  • 6:29 - 6:33
    fie ies pe stradă și folosesc armele.
  • 6:33 - 6:36
    HB: Prin urmare, o armată
    de moderatori de conținut
  • 6:36 - 6:40
    stă în fața calculatoarelor pentru
    a evita și mai multe daune colaterale.
  • 6:40 - 6:43
    Și ei trebuie să decidă instantaneu
  • 6:43 - 6:47
    dacă respectivul conținut
    rămâne pe platformă: ignoră;
  • 6:47 - 6:49
    sau dispare: șterge.
  • 6:50 - 6:52
    Dar nu toate deciziile sunt atât de clare
  • 6:52 - 6:55
    precum cea despre un clip
    cu un abuz asupra unui minor.
  • 6:55 - 6:58
    Mai sunt și conținuturi
    controversate, ambivalente,
  • 6:58 - 7:01
    încărcate de apărători
    ai drepturilor omului sau jurnaliști.
  • 7:02 - 7:05
    Moderatorii de conținut decid adesea
    și în aceste cazuri
  • 7:05 - 7:08
    cu aceeași viteză cu care decid
    în situațiile clare.
  • 7:10 - 7:12
    MR: Vă vom arăta un clip
  • 7:12 - 7:16
    și o să vă rugăm pe voi să decideți:
  • 7:16 - 7:17
    l-ați șterge de pe internet
  • 7:17 - 7:19
    sau nu?
  • 7:19 - 7:21
    (Video) (Sunete de atac aerian)
  • 7:21 - 7:24
    (Explozie)
  • 7:28 - 7:34
    (Oameni vorbind în arabă)
  • 7:34 - 7:36
    MR: Da, am estompat unele imagini.
  • 7:37 - 7:41
    E posibil ca un copil
    să fie serios afectat
  • 7:41 - 7:44
    și foarte înspăimântat
    de un asemenea conținut.
  • 7:44 - 7:46
    Așadar, l-ați șterge?
  • 7:48 - 7:52
    Dar dacă acest clip ar putea ajuta la
    investigarea crimelor de război din Siria?
  • 7:53 - 7:56
    Dacă nimeni nu ar fi aflat
    despre acest atac aerian
  • 7:56 - 8:00
    din cauză că Facebook, YouTube, Twitter
    ar fi decis să-l șteargă?
  • 8:01 - 8:05
    Airwars, o organizație non-guvernamentală
    cu sediul în Londra
  • 8:05 - 8:08
    încearcă să găsească astfel de clipuri
    cât mai repede,
  • 8:08 - 8:11
    de îndată ce sunt încărcate
    pe social media,
  • 8:11 - 8:12
    cu scopul de a le arhiva.
  • 8:13 - 8:16
    Asta pentru că ei știu că,
    mai devreme sau mai târziu,
  • 8:16 - 8:19
    Facebook, YouTube, Twitter
    vor șterge astfel de conținuturi.
  • 8:19 - 8:22
    Oameni înarmați cu telefoane mobile
  • 8:22 - 8:26
    pot face vizibile lucruri la care
    jurnaliștii adesea nu au acces.
  • 8:26 - 8:29
    De multe ori, apărătorii drepturilor
    omului nu au altă opțiune mai bună
  • 8:29 - 8:33
    de a mediatiza la scară largă
    abuzurile înregistrate,
  • 8:33 - 8:35
    decât dacă le încarcă
    pe platformele sociale.
  • 8:36 - 8:40
    Și nu e aceasta însăși puterea
    pe care ar trebui să ne-o dea internetul?
  • 8:41 - 8:43
    Nu sunt acestea visurile
  • 8:43 - 8:47
    pe care oamenii și le făceau
    în anii de început ai internetului?
  • 8:48 - 8:50
    Nu ar trebui ca astfel de imagini
    și de clipuri
  • 8:50 - 8:56
    să-i oblige pe oamenii care au devenit
    insensibili la ce se întâmplă
  • 8:56 - 8:57
    să-și revizuiască atitudinea?
  • 8:58 - 9:02
    HB: În schimb, orice ar putea deranja
    este șters.
  • 9:02 - 9:04
    A devenit o tendință generală
    în societate.
  • 9:04 - 9:08
    Mass media, de pildă, utilizează
    tot mai des mesaje de avertizare
  • 9:08 - 9:09
    la începutul articolelor
  • 9:09 - 9:13
    care ar putea fi percepute de unii
    cititori drept deranjante și ofensatoare.
  • 9:13 - 9:17
    Sau tot mai mulți studenți
    ai universităților americane
  • 9:17 - 9:19
    cer interzicerea din programa școlară
    a clasicilor antici
  • 9:19 - 9:23
    care descriu în operele lor
    violențe sexuale și abuzuri.
  • 9:23 - 9:25
    Oare cât de departe să mergem cu asta?
  • 9:26 - 9:29
    Integritatea fizică e obligatorie,
    ca drept constituțional al omului,
  • 9:29 - 9:31
    peste tot în lume.
  • 9:31 - 9:35
    În Carta Drepturilor Fundamentale
    a Uniunii Europene
  • 9:35 - 9:39
    este în mod expres specificat
    și dreptul la integritate mintală.
  • 9:39 - 9:42
    Dar chiar dacă efectul potențial traumatic
  • 9:42 - 9:45
    al imaginilor și clipurilor
    e dificil de anticipat,
  • 9:45 - 9:47
    chiar vrem să devenim atât de precauți
  • 9:47 - 9:51
    încât să riscăm să pierdem conștientizarea
    societății asupra nedreptății?
  • 9:51 - 9:52
    Atunci, ce e de făcut?
  • 9:53 - 9:56
    Mark Zuckerberg a declarat
    recent că în viitor
  • 9:56 - 10:00
    utilizatorii, adică noi toți,
  • 10:00 - 10:02
    vom decide fiecare în parte
  • 10:02 - 10:04
    ce vrem să vedem pe pagina noastră
  • 10:04 - 10:06
    prin aplicarea unor filtre
    de personalizare.
  • 10:06 - 10:09
    Astfel, oricine poate cu ușurință
    să ceară să nu fie deranjat
  • 10:09 - 10:13
    de imagini cu războaie sau alt gen
    de conflicte violente, cam așa:
  • 10:14 - 10:18
    MR: Sunt genul de bărbat
    pe care nu-l deranjează să vadă sâni
  • 10:18 - 10:22
    și sunt foarte interesat
    de încălzirea globală.
  • 10:22 - 10:25
    În schimb, războiul nu-mi prea place.
  • 10:25 - 10:27
    HB: Iar eu sunt cam invers,
  • 10:27 - 10:31
    adică sânii și nuditatea în general
    mă lasă total indiferent.
  • 10:31 - 10:34
    Dar arme, de ce nu? Armele îmi plac.
  • 10:35 - 10:39
    MR: Păi dacă nu împărtășim
    aceeași conștiință socială,
  • 10:39 - 10:41
    cum să discutăm despre problemele sociale?
  • 10:41 - 10:44
    Cum să cerem cetățenilor să acționeze?
  • 10:44 - 10:47
    Vom fi și mai izolați ca până acum.
  • 10:48 - 10:51
    Una din întrebările cheie este:
    „Cum vom gestiona pe viitor
  • 10:51 - 10:56
    relația dintre libertatea de exprimare
    și nevoia de protecție a oamenilor?”
  • 10:56 - 10:58
    E o chestiune de principiu.
  • 10:59 - 11:02
    Vrem să creăm în spațiul digital
    o societate deschisă
  • 11:02 - 11:05
    sau izolată?
  • 11:05 - 11:11
    În esență, este vorba despre
    „libertate versus securitate”.
  • 11:12 - 11:17
    Facebook și-a dorit dintotdeauna
    să fie o platformă „sănătoasă”.
  • 11:17 - 11:18
    Mai presus de orice,
  • 11:18 - 11:21
    toți utilizatorii ar trebui
    să-și simtă intimitatea protejată.
  • 11:21 - 11:23
    Exact aceste cuvinte le-au folosit
  • 11:23 - 11:26
    și moderatorii de conținut din Filipine
  • 11:26 - 11:28
    în multe din interviurile noastre.
  • 11:28 - 11:31
    (Video) Lumea în care trăim acum
  • 11:31 - 11:33
    cred că nu e prea sănătoasă.
  • 11:33 - 11:34
    (Muzică)
  • 11:34 - 11:38
    În această lume, răul există cu adevărat.
  • 11:38 - 11:41
    (Muzică)
  • 11:41 - 11:43
    Trebuie să fim atenți la el.
  • 11:43 - 11:45
    (Muzică)
  • 11:45 - 11:48
    Trebuie să-l controlăm.
  • 11:49 - 11:51
    (Muzică)
  • 11:58 - 12:02
    [„Tinere, ai grijă!” - Dumnezeu]
  • 12:03 - 12:07
    MR: Pentru tinerii moderatori de conținut
    din acest Filipine foarte catolic
  • 12:07 - 12:10
    această misiune este una creștină.
  • 12:11 - 12:14
    Să țină piept păcatelor lumii
  • 12:14 - 12:16
    care se răspândesc pe internet.
  • 12:17 - 12:20
    „Curățirea te aduce mai aproape
    de Dumnezeu”
  • 12:20 - 12:24
    e o vorbă pe care tot poporul
    filipinez o știe.
  • 12:24 - 12:26
    HB: Alții se automotivează
  • 12:26 - 12:29
    comparându-se cu președintele lor,
    Rodrigo Duterte.
  • 12:30 - 12:33
    El conduce statul Filipine din 2016
  • 12:33 - 12:37
    și a câștigat alegerile cu promisiunea:
    „Voi face curățenie.”
  • 12:38 - 12:41
    Asta înseamnă eliminarea
    tuturor problemelor, de orice fel,
  • 12:41 - 12:44
    prin a ucide la propriu oamenii pe stradă,
  • 12:44 - 12:47
    dacă sunt suspectați că sunt infractori,
    orice ar putea însemna asta.
  • 12:47 - 12:48
    Într-adevăr, de când a fost ales,
  • 12:48 - 12:51
    se presupune că 20.000 de oameni
    au fost omorâți.
  • 12:52 - 12:54
    Iar în documentarul nostru,
    un moderator de conținut spune:
  • 12:54 - 12:56
    „Ce face Duerte pe străzi,
  • 12:56 - 12:58
    eu fac pe internet.”
  • 12:59 - 13:02
    Iată-i, deci, pe acești super-eroi
    autoproclamați
  • 13:03 - 13:05
    care impun legea și ordinea
    în lumea noastră digitală.
  • 13:06 - 13:08
    Ei curăță, mușamalizează,
  • 13:08 - 13:10
    ne țin la distanță de tot ce-i rău.
  • 13:10 - 13:14
    Responsabilități aflate odată
    în slujba autorităților statului
  • 13:14 - 13:18
    au fost preluate de tineri absolvenți
    de douăzeci și ceva de ani,
  • 13:18 - 13:21
    „echipați” cu trei-cinci zile
    de instruire,
  • 13:21 - 13:23
    în asta constă calificarea lor,
  • 13:23 - 13:26
    care lucrează la nici mai mult nici mai
    puțin decât salvarea acestei lumi.
  • 13:27 - 13:30
    MR: Responsabilități guvernamentale
    au fost externalizate
  • 13:30 - 13:35
    către companii private, iar ele le dau
    mai departe către subcontractori.
  • 13:35 - 13:38
    Este o externalizare a externalizării
    a externalizării
  • 13:38 - 13:39
    ceea ce se întâmplă.
  • 13:40 - 13:41
    Din cauza rețelelor sociale
  • 13:41 - 13:44
    avem de-a face cu o infrastructură
    complet nouă,
  • 13:44 - 13:46
    cu propriile ei mecanisme,
  • 13:46 - 13:47
    propria ei logică a acțiunii
  • 13:47 - 13:52
    și, prin urmare,
    cu propriile ei noi pericole
  • 13:52 - 13:56
    care nu existau în spațiul public
    al erei pre-digitale.
  • 13:56 - 13:59
    HB: Când Mark Zuckerberg a vorbit
    în fața congresului american
  • 13:59 - 14:01
    sau a Parlamentului European,
  • 14:01 - 14:03
    i s-au adus tot felul de critici.
  • 14:03 - 14:06
    Răspunsul lui a fost mereu același:
  • 14:07 - 14:08
    „Vom remedia asta,
  • 14:08 - 14:11
    iar eu și echipa mea
    vom monitoriza pe viitor.”
  • 14:11 - 14:15
    Dar astfel de discuții nu ar trebui
    purtate în birourile Facebook,
  • 14:15 - 14:16
    Twitter sau Google,
  • 14:16 - 14:21
    astfel de discuții ar trebui purtate
    deschis în noile parlamente moderne,
  • 14:21 - 14:26
    în noile instituții care reflectă
    diversitatea umană,
  • 14:26 - 14:31
    contribuind astfel la proiectul utopic
    al unei rețele globale.
  • 14:31 - 14:34
    Chiar dacă pare imposibil
    să ținem cont de valorile
  • 14:34 - 14:36
    utilizatorilor din lumea întreagă,
  • 14:36 - 14:38
    merită să păstrăm convingerea
  • 14:38 - 14:41
    că sunt mai multe lucrurile care
    ne apropie decât cele care ne separă.
  • 14:42 - 14:45
    MR: În vremurile
    în care populismul capătă putere
  • 14:45 - 14:49
    devine la modă să ne concentrăm
    doar pe simptome,
  • 14:49 - 14:50
    să le eliminăm,
  • 14:50 - 14:52
    să le ascundem.
  • 14:53 - 14:56
    Această ideologie se răspândește
    în toată lumea,
  • 14:56 - 14:59
    atât în spațiul analog
    cât și în cel digital,
  • 15:00 - 15:03
    și e de datoria noastră să o oprim,
  • 15:03 - 15:05
    până nu e prea târziu.
  • 15:06 - 15:10
    Principiul libertății și democrației
  • 15:10 - 15:13
    nu ar trebui să se rezume
    la aceste două opțiuni.
  • 15:13 - 15:14
    HB: Șterge.
  • 15:14 - 15:16
    MR: Sau ignoră.
  • 15:17 - 15:19
    HB: Vă mulțumim foarte mult!
  • 15:19 - 15:24
    (Aplauze)
Title:
Prețul plătit pentru un internet „curat”
Speaker:
Hans Block și Moritz Riesewieck
Description:

Milioane de imagini și clipuri video sunt încărcate pe internet în fiecare zi și cu toate acestea foarte rar ajungem să vedem conținut șocant și tulburător pe paginile noastre. Cine păstrează internetul „curat” pentru noi? În acest discurs revelator, autorii de documentare Hans Block și Moritz Riesewieck ne poartă pe tărâmul obscur al moderatorilor de conținut digital, adică oamenii contractați de marile platforme online precum Facebook, Twitter și Google să elimine de pe internet aceste materiale toxice. Aflați mai multe despre impactul psihologic al acestui gen de activitate, precum și despre cum „curățenia digitală” influențează tot ceea ce noi vedem sau credem.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37
Cristina Nicolae approved Romanian subtitles for The price of a "clean" internet
Cristina Nicolae edited Romanian subtitles for The price of a "clean" internet
Mirel-Gabriel Alexa accepted Romanian subtitles for The price of a "clean" internet
Mirel-Gabriel Alexa edited Romanian subtitles for The price of a "clean" internet
Mirona Sărăroiu edited Romanian subtitles for The price of a "clean" internet
Mirel-Gabriel Alexa declined Romanian subtitles for The price of a "clean" internet
Mirona Sărăroiu edited Romanian subtitles for The price of a "clean" internet
Mirona Sărăroiu edited Romanian subtitles for The price of a "clean" internet
Show all

Romanian subtitles

Revisions