Return to Video

Ce știu companiile IT despre copiii tăi

  • 0:01 - 0:03
    În fiecare zi, în fiecare săptămână,
  • 0:03 - 0:05
    acceptăm termeni și condiții.
  • 0:05 - 0:07
    Când facem asta,
  • 0:07 - 0:09
    oferim companiilor dreptul legal
  • 0:09 - 0:13
    să facă ce vor cu informațiile noastre
  • 0:13 - 0:15
    și ale copiilor noștri.
  • 0:17 - 0:20
    Ceea ce ne face să ne întrebăm:
  • 0:20 - 0:23
    câte informații
    referitoare la copii oferim,
  • 0:23 - 0:25
    și care sunt implicațiile?
  • 0:26 - 0:28
    Sunt antropolog
  • 0:28 - 0:31
    și mamă a două fetițe.
  • 0:31 - 0:35
    Această întrebare a început
    să mă intereseze în 2015,
  • 0:35 - 0:38
    când am realizat subit că sunt multe —
  • 0:38 - 0:43
    aproape inimaginabil de multe date
    care sunt produse și colectate
  • 0:43 - 0:44
    referitoare la copii.
  • 0:45 - 0:47
    Am lansat un proiect de cercetare
  • 0:47 - 0:49
    numit Child Data Citizen,
  • 0:49 - 0:51
    menit să umple spațiile goale.
  • 0:53 - 0:56
    Acum ați putea crede că sunt aici
    ca să vă învinuiesc
  • 0:56 - 0:58
    că postați poze cu propriii copii
    pe rețele de socializare,
  • 0:58 - 1:01
    dar nu e acesta scopul.
  • 1:01 - 1:04
    Problema e mult mai mare
    decât așa-numitul „părin-share”.
  • 1:05 - 1:09
    E vorba de sisteme, nu de indivizi.
  • 1:09 - 1:11
    Nu voi și obiceiurile voastre
    sunt de vină.
  • 1:13 - 1:16
    Pentru prima oară în istorie,
  • 1:16 - 1:18
    urmărim informații individuale
    ale copiilor
  • 1:18 - 1:20
    cu mult înainte să se nască —
  • 1:20 - 1:23
    câteodată de la momentul concepției
  • 1:23 - 1:25
    iar după, pe parcursul vieții.
  • 1:25 - 1:28
    Vedeți voi, când părinții decid
    să conceapă un copil,
  • 1:28 - 1:31
    caută online „moduri de a rămâne
    însărcinată”,
  • 1:31 - 1:34
    sau descarcă aplicații care urmăresc
    perioada de ovulație.
  • 1:35 - 1:38
    Când rămân însărcinate,
  • 1:38 - 1:41
    postează ultrasunetele
    bebelușului pe rețele de socializare,
  • 1:41 - 1:43
    descarcă aplicații pentru graviditate,
  • 1:43 - 1:47
    sau îl consultă pe Dr. Google
    pentru tot felul de lucruri
  • 1:47 - 1:48
    cum ar fi, știți voi —
  • 1:48 - 1:51
    „risc de pierdere a sarcinii
    în timpul zborului”
  • 1:51 - 1:54
    sau „crampe abdominale
    în graviditatea timpurie”.
  • 1:54 - 1:56
    Știu pentru că am făcut și eu asta —
  • 1:56 - 1:57
    de multe ori.
  • 1:58 - 2:02
    Iar după ce bebelușul s-a născut,
    aplicațiile îi monitorizează somnul,
  • 2:02 - 2:03
    hrănirea,
  • 2:03 - 2:05
    fiecare eveniment din viață
    cu diferite tehnologii.
  • 2:06 - 2:08
    Și din toate aceste tehnologii,
  • 2:08 - 2:14
    transformă cele mai intime informații
    despre bebeluș în profit,
  • 2:14 - 2:16
    împărtășindu-le cu alții.
  • 2:17 - 2:19
    Ca să vă dau o idee cum funcționează:
  • 2:19 - 2:24
    în 2019, British Medical Journal
    a publicat o cercetare care arăta
  • 2:24 - 2:28
    că din 24 de aplicații de mobil
    pentru sănătate,
  • 2:28 - 2:31
    19 împărtășeau informațiile
    cu părți terțe.
  • 2:32 - 2:38
    Iar aceste părți terțe împărtășeau
    informațiile cu alte 216 organizații.
  • 2:39 - 2:42
    Din aceste 216 organizații,
  • 2:42 - 2:45
    doar trei aparțineau sectorului medical.
  • 2:46 - 2:50
    Celelalte companii care aveau acces
    la informații erau companii IT,
  • 2:50 - 2:54
    cum ar fi Google, Facebook sau Oracle,
  • 2:54 - 2:56
    erau companii de reclame digitale,
  • 2:56 - 3:00
    era de asemenea și o agenție de raportare
    a creditului pentru consumatori.
  • 3:01 - 3:03
    Deci ați înțeles:
  • 3:03 - 3:08
    companiile de reclame și de creditare
    au deja informații despre bebeluși.
  • 3:09 - 3:12
    Dar aplicațiile, căutările web
    și rețelele de socializare
  • 3:12 - 3:15
    sunt doar vârful aisbergului,
  • 3:15 - 3:18
    pentru că acești copii sunt urmăriți
    de tehnologii multiple
  • 3:18 - 3:20
    în viețile lor cotidiene.
  • 3:20 - 3:24
    Sunt urmăriți de tehnologii din casă
    și de asistenți virtuali.
  • 3:24 - 3:26
    Sunt urmăriți de platforme educaționale
  • 3:26 - 3:28
    și de tehnologii educaționale în școli,
  • 3:28 - 3:30
    prin înregistrări online
  • 3:30 - 3:33
    și portaluri online la cabinetul medical.
  • 3:33 - 3:35
    Sunt urmăriți de jucării conectate
    la internet
  • 3:35 - 3:36
    de jocurile online,
  • 3:36 - 3:39
    și de multe, multe, multe alte tehnologii.
  • 3:40 - 3:42
    În timpul cercetării mele,
  • 3:42 - 3:46
    mulți părinți au venit
    și mi-au zis: „Și ce dacă?
  • 3:46 - 3:49
    De ce contează dacă ai mei copii
    sunt urmăriți?
  • 3:50 - 3:51
    Nu avem nimic de ascuns.”
  • 3:53 - 3:54
    Ei bine, contează.
  • 3:55 - 4:01
    Contează pentru că, în ziua de azi,
    indivizii nu doar că sunt urmăriți,
  • 4:01 - 4:05
    dar se și profită de pe urma lor,
    în funcție de datele acestora.
  • 4:05 - 4:09
    Inteligența artificială și analiza
    predictivă sunt folosite
  • 4:09 - 4:13
    pentru a obține cât mai multe informații
    despre o persoană,
  • 4:13 - 4:15
    din diferite surse: istoria familiei,
  • 4:15 - 4:19
    obiceiuri de cumpărături,
    comentarii pe rețelele de socializare.
  • 4:19 - 4:21
    Iar ei pun informațiile la un loc
  • 4:21 - 4:24
    pentru a lua decizii bazate
    pe informațiile unui individ.
  • 4:25 - 4:28
    Iar aceste tehnologii sunt folosite
    pretutindeni.
  • 4:28 - 4:31
    Băncile pentru a decide
    acordarea creditelor.
  • 4:31 - 4:33
    În asigurări la calculul
    primei de asigurare.
  • 4:34 - 4:37
    Cei ce recrutează și angajatorii
    le folosesc
  • 4:37 - 4:40
    pentru a decide dacă ai profilul potrivit
    unui job sau nu.
  • 4:41 - 4:44
    Poliția și instanțele le folosesc
  • 4:44 - 4:47
    pentru a determina dacă cineva
    e un potențial infractor,
  • 4:47 - 4:50
    sau dacă e probabil să recidiveze.
  • 4:52 - 4:57
    Nu avem cunoștințe, nici control
  • 4:57 - 5:00
    asupra felului în care cei care
    ne cumpără, ne folosesc și ne vând datele
  • 5:00 - 5:03
    ne profilează pe noi și copiii noștri.
  • 5:04 - 5:08
    Dar aceste profile pot să ne afecteze
    drepturile în moduri însemnate.
  • 5:09 - 5:11
    Ca să vă dau un exemplu:
  • 5:14 - 5:18
    În 2018, „New York Times”
    a publicat știrea
  • 5:18 - 5:20
    că informațiile strânse
  • 5:20 - 5:23
    prin serviciile de planificare
    pentru facultate —
  • 5:23 - 5:28
    care sunt completate de milioane
    de liceeni din Statele Unite,
  • 5:28 - 5:31
    care caută o facultate, o bursă —
  • 5:31 - 5:34
    au fost vândute brokerilor
    de date educaționale.
  • 5:36 - 5:41
    Cercetătorii de la Fordham care au
    studiat brokerii de date educaționale
  • 5:41 - 5:46
    au dezvăluit că aceste companii profilau
    copii chiar și în vârstă de doi ani,
  • 5:46 - 5:50
    pe baza mai multor categorii:
  • 5:50 - 5:54
    etnie, religie, bunăstare,
  • 5:54 - 5:56
    jenă socială,
  • 5:56 - 5:59
    și multe alte categorii aleatorii.
  • 5:59 - 6:04
    Și apoi vând aceste profile,
    împreună cu numele copilului,
  • 6:04 - 6:07
    adresa de acasă și detaliile de contact,
  • 6:07 - 6:09
    diferitelor companii,
  • 6:09 - 6:11
    inclusiv instituțiilor de meserii
    și carieră,
  • 6:12 - 6:13
    companiilor de creditare
  • 6:13 - 6:15
    și bancare pentru studenți.
  • 6:17 - 6:18
    Pentru a forța nota,
  • 6:18 - 6:22
    cercetătorii de la Fordham i-au cerut
    unui broker de informații educaționale
  • 6:22 - 6:28
    să le dea o listă
    cu fete de 14 până la 15 ani
  • 6:28 - 6:31
    care erau interesate de servicii
    de planificare familială.
  • 6:32 - 6:35
    Brokerul de informații a fost de acord.
  • 6:35 - 6:40
    Imaginați-vă cât de intim și intruziv
    e asta pentru copiii noștri.
  • 6:41 - 6:45
    Dar brokerii de informații educaționale
    sunt doar un exemplu.
  • 6:45 - 6:50
    Adevărul e că copiii noștri sunt profilați
    în moduri pe care nu le controlăm,
  • 6:50 - 6:53
    dar care pot să le influențeze
    șansele în viață.
  • 6:54 - 6:58
    Trebuie să ne întrebăm:
  • 6:58 - 7:02
    putem avea încredere în aceste tehnologii
    în legătură cu profilarea copiilor noștri?
  • 7:02 - 7:04
    Putem?
  • 7:06 - 7:07
    Răspunsul meu e nu.
  • 7:08 - 7:09
    Ca antropolog,
  • 7:09 - 7:13
    cred că inteligența artificială
    și analiza predictivă sunt grozave
  • 7:13 - 7:15
    când prezic parcursul unei boli
  • 7:15 - 7:17
    sau în combaterea schimbărilor climatice.
  • 7:18 - 7:20
    Dar nu trebuie să credem
  • 7:20 - 7:23
    că aceste tehnologii pot să profileze
    oamenii în mod obiectiv,
  • 7:23 - 7:27
    și că ne putem baza pe ele
    pentru a lua decizii bazate pe date
  • 7:27 - 7:28
    vizând viețile individuale.
  • 7:28 - 7:31
    Pentru că nu pot profila oamenii.
  • 7:31 - 7:34
    Informațiile nu sunt oglinda noastră.
  • 7:34 - 7:37
    Oamenii se gândesc la ceva
    și spun opusul,
  • 7:37 - 7:39
    se simt într-un fel și acționează altfel.
  • 7:39 - 7:42
    Predicțiile algoritmice
    și practicile digitale
  • 7:42 - 7:47
    nu pot lua în calcul imprevizibilitatea
    și complexitatea experienței umane.
  • 7:48 - 7:50
    Dar mai presus de atât,
  • 7:50 - 7:53
    aceste tehnologii sunt mereu —
  • 7:53 - 7:54
    mereu —
  • 7:54 - 7:56
    într-un fel sau altul, părtinitoare.
  • 7:57 - 8:02
    Vedeți voi, algoritmii sunt prin definiție
    o mulțime de reguli și pași
  • 8:02 - 8:06
    care au fost concepuți pentru a obține
    un anume rezultat, da?
  • 8:07 - 8:10
    Dar aceste reguli sau pași
    nu pot fi obiectivi
  • 8:10 - 8:12
    pentru că au fost creați de oameni
  • 8:12 - 8:13
    într-un anume context cultural
  • 8:14 - 8:16
    și sunt formate
    de anumite valori culturale.
  • 8:17 - 8:18
    Deci, când mașinăriile învață,
  • 8:18 - 8:21
    învață prin algoritmi părtinitori
  • 8:22 - 8:25
    și învață adesea din baze de date
    părtinitoare.
  • 8:26 - 8:30
    În prezent, vedem primele exemple
    de prejudecăți ale algoritmilor.
  • 8:30 - 8:33
    Iar unele din aceste exemple sunt,
    sincer, terifiante.
  • 8:34 - 8:39
    Anul acesta, AI Now Institute
    din New York a publicat un raport
  • 8:39 - 8:41
    care dezvăluie că tehnologiile AI
  • 8:41 - 8:44
    care sunt folosite
    pentru poliția predictivă
  • 8:44 - 8:48
    au fost antrenate cu informații „murdare”.
  • 8:48 - 8:51
    Practic, informații obținute
  • 8:51 - 8:55
    în perioade istorice
    cu prejudecăți rasiale
  • 8:55 - 8:58
    și cu practici netransparente
    ale poliției.
  • 8:59 - 9:03
    Pentru că aceste tehnologii sunt
    antrenate cu informații „murdare”,
  • 9:03 - 9:04
    acestea nu sunt obiective,
  • 9:04 - 9:09
    iar rezultatele lor doar amplifică
    și perpetuează
  • 9:09 - 9:10
    prejudecățile și erorile poliției.
  • 9:13 - 9:16
    Cred că avem în față
    o problemă fundamentală
  • 9:16 - 9:18
    în societatea noastră.
  • 9:18 - 9:23
    Începem să avem încredere în tehnologii,
    când vine vorba de profilarea oamenilor.
  • 9:24 - 9:26
    Știm că atunci când e vorba
    de profilarea oamenilor,
  • 9:26 - 9:29
    aceste tehnologii vor avea mereu
    prejudecăți
  • 9:29 - 9:32
    și niciodată nu vor fi precise
    cu adevărat.
  • 9:32 - 9:35
    Ce ne trebuie acum
    este o soluție politică.
  • 9:35 - 9:38
    Guvernele trebuie să admită
    că drepturile la datele noastre
  • 9:38 - 9:40
    fac parte din drepturile omului.
  • 9:40 - 9:44
    (Aplauze și urale)
  • 9:48 - 9:52
    Până când asta nu se întâmplă,
    nu putem spera la un viitor mai corect.
  • 9:53 - 9:55
    Mi-e teamă că fiicele mele vor fi expuse
  • 9:56 - 9:59
    la tot felul de discriminări algoritmice
    și erori.
  • 9:59 - 10:02
    Diferența dintre mine și fiicele mele
  • 10:02 - 10:05
    este că nu există înregistrări publice
    despre copilăria mea.
  • 10:05 - 10:09
    Nu există o bază de date
    cu toate prostiile pe care le-am făcut
  • 10:09 - 10:11
    și la care m-am gândit
    când eram adolescentă.
  • 10:11 - 10:13
    (Râsete)
  • 10:14 - 10:17
    Dar pentru fiicele mele,
    asta ar putea fi diferit.
  • 10:17 - 10:20
    Informațiile colectate despre ele acum
  • 10:20 - 10:24
    pot fi folosite ca să fie judecate
    în viitor
  • 10:24 - 10:27
    și pot să le împiedice să-și realizeze
    speranțele și visele.
  • 10:29 - 10:30
    Cred că a venit timpul.
  • 10:30 - 10:32
    Trebuie pus piciorul în prag.
  • 10:32 - 10:34
    E vremea să lucrăm împreună,
  • 10:34 - 10:36
    ca indivizi,
  • 10:36 - 10:38
    ca organizații, ca instituții
  • 10:38 - 10:41
    și să cerem dreptate pentru datele noastre
  • 10:41 - 10:43
    și pentru copiii noștri,
  • 10:43 - 10:44
    înainte să fie prea târziu.
  • 10:44 - 10:45
    Vă mulțumesc!
  • 10:45 - 10:47
    (Aplauze)
タイトル:
Ce știu companiile IT despre copiii tăi
話者:
Veronica Barassi
概説:

Platformele digitale pe care voi și familia voastră le folosiți în fiecare zi — de la jocuri online, la aplicații educaționale și site-uri medicale — pot să colecteze și să vândă informații despre copiii voștri, spune antropologa Veronica Barassi. Împărtășind cercetările sale revelatoare, Barassi le cere părinților să se uite de două ori peste termenii și condițiile digitale, în loc să le accepte orbește — și să ceară ca informațiile despre copiii lor să nu fie folosite astfel încât să le afecteze viitorul.

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Romanian subtitles

改訂 Compare revisions