Return to Video

Cum putem eradica materialele cu abuzuri sexuale asupra copiilor de pe internet?

  • 0:01 - 0:03
    [Discurs cu puternic impact emoțional]
  • 0:06 - 0:07
    În urmă cu cinci ani,
  • 0:07 - 0:11
    am primit un telefon
    care mi-a schimbat viața.
  • 0:12 - 0:14
    Îmi aduc aminte foarte clar acea zi.
  • 0:15 - 0:17
    Era cam în perioada asta a anului,
  • 0:17 - 0:19
    iar eu eram la birou.
  • 0:20 - 0:23
    Îmi amintesc că soarele
    strălucea prin fereastră.
  • 0:24 - 0:25
    A sunat telefonul.
  • 0:26 - 0:27
    Am răspuns,
  • 0:28 - 0:32
    erau doi agenți federali
    care îmi cereau ajutorul
  • 0:32 - 0:34
    în identificarea unei fetițe
  • 0:34 - 0:40
    ce apărea în sute de poze găsite online,
    în care era abuzată sexual.
  • 0:41 - 0:44
    Tocmai începuseră să lucreze la caz,
  • 0:44 - 0:47
    dar ce știau deja
  • 0:47 - 0:51
    era că abuzul ei se difuza
    pe internet de ani de zile
  • 0:51 - 0:57
    pe site-uri obscure,
    dedicate abuzului sexual al copiilor.
  • 0:58 - 1:02
    Cel care o abuza era incredibil
    de priceput la tehnologie:
  • 1:02 - 1:07
    imagini și videoclipuri noi
    la fiecare câteva săptămâni,
  • 1:07 - 1:11
    dar foarte puține indicii
    despre cine era victima
  • 1:11 - 1:12
    sau unde se afla.
  • 1:13 - 1:15
    Așa că au apelat la noi,
  • 1:15 - 1:17
    pentru că auziseră că eram
    o organizație non-profit nouă
  • 1:17 - 1:21
    ce construia tehnologie pentru combaterea
    abuzului sexual asupra copiilor.
  • 1:22 - 1:24
    Însa noi aveam doar doi ani vechime
  • 1:24 - 1:27
    și ne ocupasem numai de cazuri
    de trafic de copii în scop sexual.
  • 1:28 - 1:30
    Așa că am fost nevoită să-i spun
  • 1:30 - 1:32
    că nu aveam nimic.
  • 1:32 - 1:36
    Nu aveam nicio informație care să-i poată
    ajuta să oprească acest abuz.
  • 1:37 - 1:41
    Le-a luat acelor agenți încă un an
  • 1:41 - 1:44
    pentru a găsi în cele din urmă fetița.
  • 1:45 - 1:47
    Și până când au reușit să o salveze,
  • 1:47 - 1:54
    deja sute de imagini și videoclipuri
    cu violurile asupra ei deveniseră virale,
  • 1:54 - 1:55
    pornind de la acel site obscur,
  • 1:55 - 1:58
    până la rețele private,
    grupuri private de chat,
  • 1:58 - 2:02
    ba chiar și pe site-uri obișnuite,
    folosite de oameni ca noi
  • 2:02 - 2:04
    zi de zi.
  • 2:05 - 2:09
    Iar astăzi, în timp ce ea încearcă
    să-și revină,
  • 2:09 - 2:13
    are de trăit cu realitatea
    că mii de oameni din întreaga lume
  • 2:13 - 2:16
    continuă să vizioneze
    abuzurile a căror victimă a fost.
  • 2:18 - 2:20
    Am înțeles, în ultimii cinci ani,
  • 2:20 - 2:23
    că acest caz e departe de a fi singurul.
  • 2:24 - 2:28
    Cum am ajuns aici, ca societate?
  • 2:29 - 2:33
    La sfârșitul anilor 1980,
    pornografia infantilă
  • 2:33 - 2:39
    sau, mai precis, materialele
    cu abuz sexual asupra minorilor,
  • 2:39 - 2:40
    fusese aproape eliminată.
  • 2:41 - 2:46
    Noile legi și înăsprirea pedepselor
    au făcut pur și simplu prea riscantă
  • 2:46 - 2:48
    comercializarea ei
    prin poșta tradițională.
  • 2:48 - 2:52
    Dar apoi a apărut internetul,
    iar piața a explodat.
  • 2:53 - 2:57
    Cantitatea de materiale
    aflate în circulație azi
  • 2:57 - 3:00
    este imensă și în creștere.
  • 3:00 - 3:04
    Vorbim de o problemă globală,
  • 3:04 - 3:06
    dar dacă ne uităm doar în SUA:
  • 3:06 - 3:08
    numai aici, anul trecut,
  • 3:08 - 3:14
    mai mult de 45 de milioane de imagini și
    clipuri cu abuzuri sexuale asupra copiilor
  • 3:14 - 3:17
    au fost raportate către Centrul Național
    pentru Copii Dispăruți și Exploatați,
  • 3:17 - 3:22
    și asta e aproape dublu
    față de anul anterior.
  • 3:23 - 3:28
    Iar detaliile din spatele acestor numere
    sunt greu de digerat:
  • 3:28 - 3:34
    peste 60% din imagini
    sunt cu copii mai mici de 12 ani,
  • 3:34 - 3:38
    iar majoritatea dintre ele includ
    acte extreme de violență sexuală.
  • 3:39 - 3:44
    Agresorii sunt invitați în camerele
    de chat dedicate abuzului asupra copiilor,
  • 3:44 - 3:47
    unde câștigă puncte și notorietate
  • 3:47 - 3:50
    cu cât săvârșesc mai multe abuzuri
    și aduc mai multe victime.
  • 3:50 - 3:53
    Pe această piață,
  • 3:53 - 3:57
    moneda de schimb e reprezentată
    de conținut în sine.
  • 3:58 - 4:02
    E clar că agresorii au învățat repede
    să se folosească de noile tehnologii,
  • 4:02 - 4:05
    iar riposta noastră ca societate
    nu a ținut pasul.
  • 4:06 - 4:10
    Acești agresori nu citesc acorduri
    de utilizare a site-urilor web,
  • 4:10 - 4:14
    iar conținutul nu respectă
    limitele geografice.
  • 4:15 - 4:21
    Iar când noi vedem doar o bucățică
    din toată realitatea, ei câștigă,
  • 4:21 - 4:25
    pentru că exact așa răspundem în prezent.
  • 4:25 - 4:28
    Forțele de ordine acționează
    doar într-o anumită zonă de jurisdicție.
  • 4:28 - 4:32
    Companiile se uită
    doar pe platformele lor.
  • 4:32 - 4:34
    Și orice află la un moment dat,
  • 4:35 - 4:37
    rareori este împărtășit.
  • 4:37 - 4:43
    E foarte clar că această abordare
    descentralizată nu funcționează.
  • 4:44 - 4:48
    Trebuie să ne readaptăm
    abordarea împotriva acestei epidemii
  • 4:48 - 4:49
    la era digitală.
  • 4:50 - 4:53
    Exact asta facem noi la Thorn.
  • 4:53 - 4:57
    Construim tehnologia necesară
    pentru a conecta aceste puncte,
  • 4:57 - 4:59
    pentru a-i înarma pe cei din linia întâi,
  • 4:59 - 5:02
    forțele de ordine, ONG-uri și companii,
  • 5:02 - 5:06
    cu instrumentele necesare
    eliminării totale de pe internet
  • 5:06 - 5:08
    a materialelor cu abuzuri
    asupra copiilor.
  • 5:09 - 5:11
    Haideți să discutăm puțin...
  • 5:11 - 5:12
    (Aplauze)
  • 5:12 - 5:14
    Vă mulțumesc!
  • 5:14 - 5:16
    (Aplauze)
  • 5:18 - 5:21
    Haideți să discutăm puțin despre
    care sunt aceste puncte, mai precis.
  • 5:21 - 5:25
    După cum vă puteți imagina,
    acest conținut e îngrozitor.
  • 5:25 - 5:28
    Nu vrei să te uiți la așa ceva
    dacă nu ești absolut obligat.
  • 5:28 - 5:33
    Astfel, majoritatea companiilor
    sau structurilor de ordine
  • 5:33 - 5:35
    care au acces la aceste informații
  • 5:35 - 5:39
    pot transforma fiecare fișier
    într-un șir unic de numere.
  • 5:39 - 5:40
    Se numește „hash”.
  • 5:40 - 5:42
    E practic un fel de amprentă
  • 5:42 - 5:45
    pentru fiecare fișier sau videoclip.
  • 5:45 - 5:49
    Asta permite ca informația
    să fie folosită în investigații
  • 5:49 - 5:53
    sau de către companii pentru a înlătura
    conținutul nedorit de pe platformele lor,
  • 5:53 - 5:58
    fără să revadă
    de fiecare dată acele imagini.
  • 5:58 - 6:00
    Totuși, problema care apare
  • 6:00 - 6:04
    este că sunt sute de milioane
    de astfel de „hash”-uri
  • 6:04 - 6:08
    depozitate în baze de date
    din toată lumea.
  • 6:08 - 6:10
    Într-o astfel de bază de date,
  • 6:10 - 6:13
    un „hash” poate fi folosit
    doar de instituția căreia îi aparține.
  • 6:13 - 6:17
    Dar neexistând o corelare între aceste
    date, nu știm câte sunt de fapt.
  • 6:17 - 6:20
    Nu știm câte se referă la copii
    care au fost deja salvați
  • 6:20 - 6:23
    sau care trebuie identificați.
  • 6:23 - 6:27
    Deci prima noastră premisă, și cea mai
    importantă, e că toate aceste date
  • 6:27 - 6:30
    trebuie corelate.
  • 6:30 - 6:36
    Există două moduri în care aceste date,
    combinate cu un program la scară globală,
  • 6:37 - 6:40
    pot avea un impact important
    în spațiul digital.
  • 6:40 - 6:43
    Primul e pentru forțele de ordine:
  • 6:43 - 6:47
    să-i ajute să identifice
    noile victime mai rapid,
  • 6:47 - 6:48
    împiedicând abuzul
  • 6:48 - 6:51
    și oprindu-i pe cei care produc
    aceste materiale.
  • 6:51 - 6:54
    Al doilea e pentru companii:
  • 6:54 - 6:58
    pot obține astfel indicii în identificarea
    sutelor de milioane de fișiere
  • 6:58 - 6:59
    aflate în circulație astăzi,
  • 6:59 - 7:01
    le pot elimina
  • 7:01 - 7:07
    și pot opri încărcarea de noi fișiere,
    anulând riscul de a deveni virale.
  • 7:10 - 7:11
    Acum patru ani,
  • 7:11 - 7:13
    când acel caz a fost soluționat,
  • 7:14 - 7:18
    stăteam pur și simplu cu echipa,
    și am simțit acest...
  • 7:20 - 7:23
    ... sentiment profund de eșec,
    aș putea să spun,
  • 7:23 - 7:27
    pentru că am urmărit îndeaproape
    pe tot parcursul acelui an
  • 7:27 - 7:28
    căutarea fetiței.
  • 7:28 - 7:32
    Și am putut identifica
    fiecare etapă a anchetei
  • 7:32 - 7:34
    în care, dacă tehnologia
    ar fi fost disponibilă,
  • 7:34 - 7:37
    ar fi găsit-o mai repede.
  • 7:38 - 7:40
    Așa că după această experiență
  • 7:40 - 7:43
    am început să facem
    singurul lucru la care ne pricepeam:
  • 7:43 - 7:45
    am început să construim
    un program software.
  • 7:46 - 7:48
    Am început cu forțele de ordine.
  • 7:48 - 7:51
    Visul nostru era să implementăm
    un fel de buton de alarmă
  • 7:51 - 7:54
    în birourile poliției din întreaga lume,
    astfel încât în secunda în care
  • 7:54 - 7:57
    oricine îndrăznea să posteze
    o nouă victimă online,
  • 7:57 - 8:00
    cineva să înceapă să-o caute imediat.
  • 8:01 - 8:04
    Desigur, nu vă pot da detalii
    despre acest program,
  • 8:04 - 8:07
    dar e funcțional astăzi în 38 de țari,
  • 8:07 - 8:10
    și a redus timpul necesar
    pentru a ajunge la un copil abuzat
  • 8:10 - 8:12
    cu peste 65%.
  • 8:12 - 8:17
    (Aplauze)
  • 8:21 - 8:24
    Iar acum ne pregătim
    pentru al doilea obiectiv:
  • 8:24 - 8:27
    realizarea unui program
    care să ajute companiile
  • 8:27 - 8:31
    să identifice și să elimine
    astfel de conținuturi.
  • 8:31 - 8:34
    Haideți să vorbim puțin
    despre aceste companii.
  • 8:34 - 8:38
    Vă spuneam: 45 de milioane de imagini
    și videoclipuri doar în SUA,
  • 8:38 - 8:40
    doar anul trecut.
  • 8:40 - 8:44
    Acestea proveneau doar de la 12 companii.
  • 8:46 - 8:52
    12 companii, 45 de milioane de fișiere
    cu abuz sexual asupra copiilor.
  • 8:52 - 8:55
    Și e vorba de exact acele companii
    care au puterea financiară
  • 8:55 - 9:00
    să investească în infrastructura
    necesară eliminării acestor materiale.
  • 9:00 - 9:02
    Dar există și sute de alte companii,
  • 9:02 - 9:05
    companii mici și mijlocii din toată lumea,
  • 9:05 - 9:07
    care trebuie să facă acest efort,
  • 9:07 - 9:11
    dar ele fie: 1) nu-și pot imagina
    că platforma lor va fi folosită
  • 9:11 - 9:12
    pentru a publica abuzuri,
  • 9:12 - 9:18
    sau 2) nu își permit să cheltuiască
    pe ceva ce nu aduce profit.
  • 9:19 - 9:22
    Așa că am construit
    noi pentru ei acest program,
  • 9:22 - 9:27
    care devine tot mai inteligent, pe măsură
    ce e folosit de mai multe companii.
  • 9:28 - 9:30
    Să vă dau un exemplu.
  • 9:30 - 9:34
    Primul nostru partener, Imgur,
    dacă nu ați auzit de această companie,
  • 9:34 - 9:38
    e una dintre cele mai vizitate
    site-uri din SUA,
  • 9:38 - 9:43
    cu milioane de fișiere încărcate
    de utilizatori în fiecare zi,
  • 9:43 - 9:45
    având misiunea de a face internetul
    un loc mai distractiv.
  • 9:46 - 9:48
    Ei au fost primii cu care am colaborat.
  • 9:48 - 9:51
    În primele 20 de minute de folosire
    a programului nostru,
  • 9:51 - 9:55
    deja cineva a încercat să încarce
    un material cunoscut de abuz.
  • 9:55 - 9:57
    Au reușit să-l oprească și să-l elimine,
  • 9:57 - 10:00
    raportând-ul apoi Centrului Național
    pentru Copii Dispăruți și Exploatați.
  • 10:00 - 10:02
    Dar au mers chiar și mai departe,
  • 10:02 - 10:07
    și au inspectat contul persoanei
    care l-a încărcat.
  • 10:07 - 10:12
    Au găsit acolo alte sute de materiale
    cu abuz sexual asupra copiilor
  • 10:12 - 10:14
    pe care noi nu le observasem niciodată.
  • 10:14 - 10:18
    Și de aici am început să vedem
    impactul exponențial.
  • 10:18 - 10:19
    Am eliminat materialele găsite,
  • 10:20 - 10:23
    le raportăm Centrului Național
    pentru Copii Dispăruți și Exploatați,
  • 10:23 - 10:26
    iar apoi aceste „hash”-uri
    sunt reintroduse în sistem
  • 10:26 - 10:28
    ca să poată fi folosite
    de toate celelalte companii.
  • 10:28 - 10:32
    Iar când milioanele de materiale
    identificate duc către alte milioane
  • 10:32 - 10:36
    și, în timp real, companii din întreaga
    lume au șansa să identifice și să șteargă
  • 10:36 - 10:42
    aceste conținuturi, vom fi mărit drastic
    viteza cu care eliminăm
  • 10:42 - 10:46
    materialele cu abuz sexual asupra copiilor
    de pe internet, din întreaga lume.
  • 10:46 - 10:52
    (Aplauze)
  • 10:54 - 10:57
    Dar asta nu se poate realiza
    doar cu un program software,
  • 10:57 - 10:59
    fără niște acțiuni de amploare.
  • 10:59 - 11:03
    Trebuie să mobilizăm mii de polițiști,
  • 11:03 - 11:05
    sute de companii din întreaga lume,
  • 11:05 - 11:09
    iar tehnologia ne va permite
    să-i întrecem pe răufăcători
  • 11:09 - 11:13
    și să eradicăm comunitățile care consideră
    normal abuzul sexual asupra copiilor
  • 11:13 - 11:15
    din întreaga lume.
  • 11:15 - 11:18
    Și acum e cel mai bun moment
    să facem asta.
  • 11:18 - 11:24
    Nu mai putem pretinde că nu înțelegem
    ce impact are asta asupra copiilor noștri.
  • 11:25 - 11:29
    Prima generație de copii a căror abuzuri
    au făcut înconjurul lumii
  • 11:29 - 11:31
    sunt acum tineri adulți.
  • 11:31 - 11:34
    Centrul Canadian
    pentru Protecția Copilului
  • 11:34 - 11:37
    tocmai a făcut recent un studiu
    asupra acestor tineri,
  • 11:37 - 11:41
    ca să înțeleagă traumele unice
    din care încearcă să își revină,
  • 11:41 - 11:45
    știind ca abuzul la care au fost supuși
    încă exstă online.
  • 11:45 - 11:50
    80% din acești tineri
    au luat în considerare sinuciderea.
  • 11:51 - 11:55
    Mai mult de 60% din ei
    au și încercat să o facă.
  • 11:56 - 12:01
    Iar majoritatea trăiesc zi de zi cu spaima
  • 12:01 - 12:05
    că în timp ce merg pe stradă,
    sau se duc la un interviu pentru angajare,
  • 12:05 - 12:08
    sau se duc la școală,
  • 12:08 - 12:10
    sau întâlnesc pe cineva online,
  • 12:10 - 12:14
    că acea persoană a văzut abuzul lor.
  • 12:15 - 12:19
    Această îngrijorare a devenit realitate
    pentru mai mult de 30% dintre ei.
  • 12:20 - 12:25
    Au fost recunoscuți din materialele
    de pe internet cu abuzul asupra lor.
  • 12:26 - 12:29
    Nu e nicidecum ușor ce facem,
  • 12:29 - 12:32
    dar nu este nici imposibil.
  • 12:32 - 12:35
    Acum e nevoie de voință:
  • 12:35 - 12:36
    voință din partea societății
  • 12:37 - 12:40
    de a se uita la ceva
    care este foarte greu de privit,
  • 12:40 - 12:42
    și de a aduce acel ceva la lumină,
  • 12:42 - 12:45
    astfel încât acești copii să fie auziți;
  • 12:46 - 12:50
    voință din partea companiilor
    de a acționa și a se asigura
  • 12:50 - 12:54
    că platformele lor
    nu conțin abuzuri ale minorilor;
  • 12:55 - 12:59
    dorință din partea guvernelor
    de a dota forțele de ordine
  • 12:59 - 13:04
    cu instrumentele necesare
    investigării infracțiunilor digitale,
  • 13:04 - 13:08
    mai ales când victimele nu se pot apăra.
  • 13:10 - 13:13
    Acest angajament cutezător
    face parte din această hotărâre.
  • 13:14 - 13:17
    E o declarație de război împotriva
  • 13:17 - 13:20
    unuia dintre cei mai întunecați
    demoni ai omenirii.
  • 13:20 - 13:22
    Dar vreau să cred
  • 13:22 - 13:26
    că ce facem acum
    e o investiție pentru un viitor
  • 13:26 - 13:29
    în care fiecare copil poate fi,
    pur și simplu, doar un copil.
  • 13:29 - 13:31
    Vă mulțumesc!
  • 13:31 - 13:37
    (Aplauze)
Title:
Cum putem eradica materialele cu abuzuri sexuale asupra copiilor de pe internet?
Speaker:
Julie Cordua
Description:

Antreprenoarea socială Julie Cordua lucrează la o problemă despre care nu este ușor de discutat: imaginile și videoclipurile de pe internet cu abuzuri sexuale asupra copiilor. La Thorn, ea construiește o tehnologie care să interconecteze industria IT cu forțele de ordine și cu guverne - astfel încât să putem opri cu ușurință distribuția virală a materialelor cu abuzuri și să-i salvăm pe copii mai rapid. Aflați mai multe despre cum această soluție, folosită la scară globală, poate ajuta la distrugerea comunităților care consideră normal abuzul sexual asupra copiilor. (Acest plan ambițios face parte din proiectul Audacious, inițiativa TED de a inspira și finanța schimbarea globală.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Romanian subtitles

Revisions