Cum putem eradica materialele cu abuzuri sexuale asupra copiilor de pe internet?
-
0:01 - 0:03[Discurs cu puternic impact emoțional]
-
0:06 - 0:07În urmă cu cinci ani,
-
0:07 - 0:11am primit un telefon
care mi-a schimbat viața. -
0:12 - 0:14Îmi aduc aminte foarte clar acea zi.
-
0:15 - 0:17Era cam în perioada asta a anului,
-
0:17 - 0:19iar eu eram la birou.
-
0:20 - 0:23Îmi amintesc că soarele
strălucea prin fereastră. -
0:24 - 0:25A sunat telefonul.
-
0:26 - 0:27Am răspuns,
-
0:28 - 0:32erau doi agenți federali
care îmi cereau ajutorul -
0:32 - 0:34în identificarea unei fetițe
-
0:34 - 0:40ce apărea în sute de poze găsite online,
în care era abuzată sexual. -
0:41 - 0:44Tocmai începuseră să lucreze la caz,
-
0:44 - 0:47dar ce știau deja
-
0:47 - 0:51era că abuzul ei se difuza
pe internet de ani de zile -
0:51 - 0:57pe site-uri obscure,
dedicate abuzului sexual al copiilor. -
0:58 - 1:02Cel care o abuza era incredibil
de priceput la tehnologie: -
1:02 - 1:07imagini și videoclipuri noi
la fiecare câteva săptămâni, -
1:07 - 1:11dar foarte puține indicii
despre cine era victima -
1:11 - 1:12sau unde se afla.
-
1:13 - 1:15Așa că au apelat la noi,
-
1:15 - 1:17pentru că auziseră că eram
o organizație non-profit nouă -
1:17 - 1:21ce construia tehnologie pentru combaterea
abuzului sexual asupra copiilor. -
1:22 - 1:24Însa noi aveam doar doi ani vechime
-
1:24 - 1:27și ne ocupasem numai de cazuri
de trafic de copii în scop sexual. -
1:28 - 1:30Așa că am fost nevoită să-i spun
-
1:30 - 1:32că nu aveam nimic.
-
1:32 - 1:36Nu aveam nicio informație care să-i poată
ajuta să oprească acest abuz. -
1:37 - 1:41Le-a luat acelor agenți încă un an
-
1:41 - 1:44pentru a găsi în cele din urmă fetița.
-
1:45 - 1:47Și până când au reușit să o salveze,
-
1:47 - 1:54deja sute de imagini și videoclipuri
cu violurile asupra ei deveniseră virale, -
1:54 - 1:55pornind de la acel site obscur,
-
1:55 - 1:58până la rețele private,
grupuri private de chat, -
1:58 - 2:02ba chiar și pe site-uri obișnuite,
folosite de oameni ca noi -
2:02 - 2:04zi de zi.
-
2:05 - 2:09Iar astăzi, în timp ce ea încearcă
să-și revină, -
2:09 - 2:13are de trăit cu realitatea
că mii de oameni din întreaga lume -
2:13 - 2:16continuă să vizioneze
abuzurile a căror victimă a fost. -
2:18 - 2:20Am înțeles, în ultimii cinci ani,
-
2:20 - 2:23că acest caz e departe de a fi singurul.
-
2:24 - 2:28Cum am ajuns aici, ca societate?
-
2:29 - 2:33La sfârșitul anilor 1980,
pornografia infantilă -
2:33 - 2:39sau, mai precis, materialele
cu abuz sexual asupra minorilor, -
2:39 - 2:40fusese aproape eliminată.
-
2:41 - 2:46Noile legi și înăsprirea pedepselor
au făcut pur și simplu prea riscantă -
2:46 - 2:48comercializarea ei
prin poșta tradițională. -
2:48 - 2:52Dar apoi a apărut internetul,
iar piața a explodat. -
2:53 - 2:57Cantitatea de materiale
aflate în circulație azi -
2:57 - 3:00este imensă și în creștere.
-
3:00 - 3:04Vorbim de o problemă globală,
-
3:04 - 3:06dar dacă ne uităm doar în SUA:
-
3:06 - 3:08numai aici, anul trecut,
-
3:08 - 3:14mai mult de 45 de milioane de imagini și
clipuri cu abuzuri sexuale asupra copiilor -
3:14 - 3:17au fost raportate către Centrul Național
pentru Copii Dispăruți și Exploatați, -
3:17 - 3:22și asta e aproape dublu
față de anul anterior. -
3:23 - 3:28Iar detaliile din spatele acestor numere
sunt greu de digerat: -
3:28 - 3:34peste 60% din imagini
sunt cu copii mai mici de 12 ani, -
3:34 - 3:38iar majoritatea dintre ele includ
acte extreme de violență sexuală. -
3:39 - 3:44Agresorii sunt invitați în camerele
de chat dedicate abuzului asupra copiilor, -
3:44 - 3:47unde câștigă puncte și notorietate
-
3:47 - 3:50cu cât săvârșesc mai multe abuzuri
și aduc mai multe victime. -
3:50 - 3:53Pe această piață,
-
3:53 - 3:57moneda de schimb e reprezentată
de conținut în sine. -
3:58 - 4:02E clar că agresorii au învățat repede
să se folosească de noile tehnologii, -
4:02 - 4:05iar riposta noastră ca societate
nu a ținut pasul. -
4:06 - 4:10Acești agresori nu citesc acorduri
de utilizare a site-urilor web, -
4:10 - 4:14iar conținutul nu respectă
limitele geografice. -
4:15 - 4:21Iar când noi vedem doar o bucățică
din toată realitatea, ei câștigă, -
4:21 - 4:25pentru că exact așa răspundem în prezent.
-
4:25 - 4:28Forțele de ordine acționează
doar într-o anumită zonă de jurisdicție. -
4:28 - 4:32Companiile se uită
doar pe platformele lor. -
4:32 - 4:34Și orice află la un moment dat,
-
4:35 - 4:37rareori este împărtășit.
-
4:37 - 4:43E foarte clar că această abordare
descentralizată nu funcționează. -
4:44 - 4:48Trebuie să ne readaptăm
abordarea împotriva acestei epidemii -
4:48 - 4:49la era digitală.
-
4:50 - 4:53Exact asta facem noi la Thorn.
-
4:53 - 4:57Construim tehnologia necesară
pentru a conecta aceste puncte, -
4:57 - 4:59pentru a-i înarma pe cei din linia întâi,
-
4:59 - 5:02forțele de ordine, ONG-uri și companii,
-
5:02 - 5:06cu instrumentele necesare
eliminării totale de pe internet -
5:06 - 5:08a materialelor cu abuzuri
asupra copiilor. -
5:09 - 5:11Haideți să discutăm puțin...
-
5:11 - 5:12(Aplauze)
-
5:12 - 5:14Vă mulțumesc!
-
5:14 - 5:16(Aplauze)
-
5:18 - 5:21Haideți să discutăm puțin despre
care sunt aceste puncte, mai precis. -
5:21 - 5:25După cum vă puteți imagina,
acest conținut e îngrozitor. -
5:25 - 5:28Nu vrei să te uiți la așa ceva
dacă nu ești absolut obligat. -
5:28 - 5:33Astfel, majoritatea companiilor
sau structurilor de ordine -
5:33 - 5:35care au acces la aceste informații
-
5:35 - 5:39pot transforma fiecare fișier
într-un șir unic de numere. -
5:39 - 5:40Se numește „hash”.
-
5:40 - 5:42E practic un fel de amprentă
-
5:42 - 5:45pentru fiecare fișier sau videoclip.
-
5:45 - 5:49Asta permite ca informația
să fie folosită în investigații -
5:49 - 5:53sau de către companii pentru a înlătura
conținutul nedorit de pe platformele lor, -
5:53 - 5:58fără să revadă
de fiecare dată acele imagini. -
5:58 - 6:00Totuși, problema care apare
-
6:00 - 6:04este că sunt sute de milioane
de astfel de „hash”-uri -
6:04 - 6:08depozitate în baze de date
din toată lumea. -
6:08 - 6:10Într-o astfel de bază de date,
-
6:10 - 6:13un „hash” poate fi folosit
doar de instituția căreia îi aparține. -
6:13 - 6:17Dar neexistând o corelare între aceste
date, nu știm câte sunt de fapt. -
6:17 - 6:20Nu știm câte se referă la copii
care au fost deja salvați -
6:20 - 6:23sau care trebuie identificați.
-
6:23 - 6:27Deci prima noastră premisă, și cea mai
importantă, e că toate aceste date -
6:27 - 6:30trebuie corelate.
-
6:30 - 6:36Există două moduri în care aceste date,
combinate cu un program la scară globală, -
6:37 - 6:40pot avea un impact important
în spațiul digital. -
6:40 - 6:43Primul e pentru forțele de ordine:
-
6:43 - 6:47să-i ajute să identifice
noile victime mai rapid, -
6:47 - 6:48împiedicând abuzul
-
6:48 - 6:51și oprindu-i pe cei care produc
aceste materiale. -
6:51 - 6:54Al doilea e pentru companii:
-
6:54 - 6:58pot obține astfel indicii în identificarea
sutelor de milioane de fișiere -
6:58 - 6:59aflate în circulație astăzi,
-
6:59 - 7:01le pot elimina
-
7:01 - 7:07și pot opri încărcarea de noi fișiere,
anulând riscul de a deveni virale. -
7:10 - 7:11Acum patru ani,
-
7:11 - 7:13când acel caz a fost soluționat,
-
7:14 - 7:18stăteam pur și simplu cu echipa,
și am simțit acest... -
7:20 - 7:23... sentiment profund de eșec,
aș putea să spun, -
7:23 - 7:27pentru că am urmărit îndeaproape
pe tot parcursul acelui an -
7:27 - 7:28căutarea fetiței.
-
7:28 - 7:32Și am putut identifica
fiecare etapă a anchetei -
7:32 - 7:34în care, dacă tehnologia
ar fi fost disponibilă, -
7:34 - 7:37ar fi găsit-o mai repede.
-
7:38 - 7:40Așa că după această experiență
-
7:40 - 7:43am început să facem
singurul lucru la care ne pricepeam: -
7:43 - 7:45am început să construim
un program software. -
7:46 - 7:48Am început cu forțele de ordine.
-
7:48 - 7:51Visul nostru era să implementăm
un fel de buton de alarmă -
7:51 - 7:54în birourile poliției din întreaga lume,
astfel încât în secunda în care -
7:54 - 7:57oricine îndrăznea să posteze
o nouă victimă online, -
7:57 - 8:00cineva să înceapă să-o caute imediat.
-
8:01 - 8:04Desigur, nu vă pot da detalii
despre acest program, -
8:04 - 8:07dar e funcțional astăzi în 38 de țari,
-
8:07 - 8:10și a redus timpul necesar
pentru a ajunge la un copil abuzat -
8:10 - 8:12cu peste 65%.
-
8:12 - 8:17(Aplauze)
-
8:21 - 8:24Iar acum ne pregătim
pentru al doilea obiectiv: -
8:24 - 8:27realizarea unui program
care să ajute companiile -
8:27 - 8:31să identifice și să elimine
astfel de conținuturi. -
8:31 - 8:34Haideți să vorbim puțin
despre aceste companii. -
8:34 - 8:38Vă spuneam: 45 de milioane de imagini
și videoclipuri doar în SUA, -
8:38 - 8:40doar anul trecut.
-
8:40 - 8:44Acestea proveneau doar de la 12 companii.
-
8:46 - 8:5212 companii, 45 de milioane de fișiere
cu abuz sexual asupra copiilor. -
8:52 - 8:55Și e vorba de exact acele companii
care au puterea financiară -
8:55 - 9:00să investească în infrastructura
necesară eliminării acestor materiale. -
9:00 - 9:02Dar există și sute de alte companii,
-
9:02 - 9:05companii mici și mijlocii din toată lumea,
-
9:05 - 9:07care trebuie să facă acest efort,
-
9:07 - 9:11dar ele fie: 1) nu-și pot imagina
că platforma lor va fi folosită -
9:11 - 9:12pentru a publica abuzuri,
-
9:12 - 9:18sau 2) nu își permit să cheltuiască
pe ceva ce nu aduce profit. -
9:19 - 9:22Așa că am construit
noi pentru ei acest program, -
9:22 - 9:27care devine tot mai inteligent, pe măsură
ce e folosit de mai multe companii. -
9:28 - 9:30Să vă dau un exemplu.
-
9:30 - 9:34Primul nostru partener, Imgur,
dacă nu ați auzit de această companie, -
9:34 - 9:38e una dintre cele mai vizitate
site-uri din SUA, -
9:38 - 9:43cu milioane de fișiere încărcate
de utilizatori în fiecare zi, -
9:43 - 9:45având misiunea de a face internetul
un loc mai distractiv. -
9:46 - 9:48Ei au fost primii cu care am colaborat.
-
9:48 - 9:51În primele 20 de minute de folosire
a programului nostru, -
9:51 - 9:55deja cineva a încercat să încarce
un material cunoscut de abuz. -
9:55 - 9:57Au reușit să-l oprească și să-l elimine,
-
9:57 - 10:00raportând-ul apoi Centrului Național
pentru Copii Dispăruți și Exploatați. -
10:00 - 10:02Dar au mers chiar și mai departe,
-
10:02 - 10:07și au inspectat contul persoanei
care l-a încărcat. -
10:07 - 10:12Au găsit acolo alte sute de materiale
cu abuz sexual asupra copiilor -
10:12 - 10:14pe care noi nu le observasem niciodată.
-
10:14 - 10:18Și de aici am început să vedem
impactul exponențial. -
10:18 - 10:19Am eliminat materialele găsite,
-
10:20 - 10:23le raportăm Centrului Național
pentru Copii Dispăruți și Exploatați, -
10:23 - 10:26iar apoi aceste „hash”-uri
sunt reintroduse în sistem -
10:26 - 10:28ca să poată fi folosite
de toate celelalte companii. -
10:28 - 10:32Iar când milioanele de materiale
identificate duc către alte milioane -
10:32 - 10:36și, în timp real, companii din întreaga
lume au șansa să identifice și să șteargă -
10:36 - 10:42aceste conținuturi, vom fi mărit drastic
viteza cu care eliminăm -
10:42 - 10:46materialele cu abuz sexual asupra copiilor
de pe internet, din întreaga lume. -
10:46 - 10:52(Aplauze)
-
10:54 - 10:57Dar asta nu se poate realiza
doar cu un program software, -
10:57 - 10:59fără niște acțiuni de amploare.
-
10:59 - 11:03Trebuie să mobilizăm mii de polițiști,
-
11:03 - 11:05sute de companii din întreaga lume,
-
11:05 - 11:09iar tehnologia ne va permite
să-i întrecem pe răufăcători -
11:09 - 11:13și să eradicăm comunitățile care consideră
normal abuzul sexual asupra copiilor -
11:13 - 11:15din întreaga lume.
-
11:15 - 11:18Și acum e cel mai bun moment
să facem asta. -
11:18 - 11:24Nu mai putem pretinde că nu înțelegem
ce impact are asta asupra copiilor noștri. -
11:25 - 11:29Prima generație de copii a căror abuzuri
au făcut înconjurul lumii -
11:29 - 11:31sunt acum tineri adulți.
-
11:31 - 11:34Centrul Canadian
pentru Protecția Copilului -
11:34 - 11:37tocmai a făcut recent un studiu
asupra acestor tineri, -
11:37 - 11:41ca să înțeleagă traumele unice
din care încearcă să își revină, -
11:41 - 11:45știind ca abuzul la care au fost supuși
încă exstă online. -
11:45 - 11:5080% din acești tineri
au luat în considerare sinuciderea. -
11:51 - 11:55Mai mult de 60% din ei
au și încercat să o facă. -
11:56 - 12:01Iar majoritatea trăiesc zi de zi cu spaima
-
12:01 - 12:05că în timp ce merg pe stradă,
sau se duc la un interviu pentru angajare, -
12:05 - 12:08sau se duc la școală,
-
12:08 - 12:10sau întâlnesc pe cineva online,
-
12:10 - 12:14că acea persoană a văzut abuzul lor.
-
12:15 - 12:19Această îngrijorare a devenit realitate
pentru mai mult de 30% dintre ei. -
12:20 - 12:25Au fost recunoscuți din materialele
de pe internet cu abuzul asupra lor. -
12:26 - 12:29Nu e nicidecum ușor ce facem,
-
12:29 - 12:32dar nu este nici imposibil.
-
12:32 - 12:35Acum e nevoie de voință:
-
12:35 - 12:36voință din partea societății
-
12:37 - 12:40de a se uita la ceva
care este foarte greu de privit, -
12:40 - 12:42și de a aduce acel ceva la lumină,
-
12:42 - 12:45astfel încât acești copii să fie auziți;
-
12:46 - 12:50voință din partea companiilor
de a acționa și a se asigura -
12:50 - 12:54că platformele lor
nu conțin abuzuri ale minorilor; -
12:55 - 12:59dorință din partea guvernelor
de a dota forțele de ordine -
12:59 - 13:04cu instrumentele necesare
investigării infracțiunilor digitale, -
13:04 - 13:08mai ales când victimele nu se pot apăra.
-
13:10 - 13:13Acest angajament cutezător
face parte din această hotărâre. -
13:14 - 13:17E o declarație de război împotriva
-
13:17 - 13:20unuia dintre cei mai întunecați
demoni ai omenirii. -
13:20 - 13:22Dar vreau să cred
-
13:22 - 13:26că ce facem acum
e o investiție pentru un viitor -
13:26 - 13:29în care fiecare copil poate fi,
pur și simplu, doar un copil. -
13:29 - 13:31Vă mulțumesc!
-
13:31 - 13:37(Aplauze)
- Title:
- Cum putem eradica materialele cu abuzuri sexuale asupra copiilor de pe internet?
- Speaker:
- Julie Cordua
- Description:
-
Antreprenoarea socială Julie Cordua lucrează la o problemă despre care nu este ușor de discutat: imaginile și videoclipurile de pe internet cu abuzuri sexuale asupra copiilor. La Thorn, ea construiește o tehnologie care să interconecteze industria IT cu forțele de ordine și cu guverne - astfel încât să putem opri cu ușurință distribuția virală a materialelor cu abuzuri și să-i salvăm pe copii mai rapid. Aflați mai multe despre cum această soluție, folosită la scară globală, poate ajuta la distrugerea comunităților care consideră normal abuzul sexual asupra copiilor. (Acest plan ambițios face parte din proiectul Audacious, inițiativa TED de a inspira și finanța schimbarea globală.)
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Mirel-Gabriel Alexa approved Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirona Sărăroiu accepted Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirona Sărăroiu edited Romanian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Mirona Sărăroiu edited Romanian subtitles for How we can eliminate child sexual abuse material from the internet |