Ce știu companiile IT despre copiii tăi
-
0:01 - 0:03În fiecare zi, în fiecare săptămână,
-
0:03 - 0:05acceptăm termeni și condiții.
-
0:05 - 0:07Când facem asta,
-
0:07 - 0:09oferim companiilor dreptul legal
-
0:09 - 0:13să facă ce vor cu informațiile noastre
-
0:13 - 0:15și ale copiilor noștri.
-
0:17 - 0:20Ceea ce ne face să ne întrebăm:
-
0:20 - 0:23câte informații
referitoare la copii oferim, -
0:23 - 0:25și care sunt implicațiile?
-
0:26 - 0:28Sunt antropolog
-
0:28 - 0:31și mamă a două fetițe.
-
0:31 - 0:35Această întrebare a început
să mă intereseze în 2015, -
0:35 - 0:38când am realizat subit că sunt multe —
-
0:38 - 0:43aproape inimaginabil de multe date
care sunt produse și colectate -
0:43 - 0:44referitoare la copii.
-
0:45 - 0:47Am lansat un proiect de cercetare
-
0:47 - 0:49numit Child Data Citizen,
-
0:49 - 0:51menit să umple spațiile goale.
-
0:53 - 0:56Acum ați putea crede că sunt aici
ca să vă învinuiesc -
0:56 - 0:58că postați poze cu propriii copii
pe rețele de socializare, -
0:58 - 1:01dar nu e acesta scopul.
-
1:01 - 1:04Problema e mult mai mare
decât așa-numitul „părin-share”. -
1:05 - 1:09E vorba de sisteme, nu de indivizi.
-
1:09 - 1:11Nu voi și obiceiurile voastre
sunt de vină. -
1:13 - 1:16Pentru prima oară în istorie,
-
1:16 - 1:18urmărim informații individuale
ale copiilor -
1:18 - 1:20cu mult înainte să se nască —
-
1:20 - 1:23câteodată de la momentul concepției
-
1:23 - 1:25iar după, pe parcursul vieții.
-
1:25 - 1:28Vedeți voi, când părinții decid
să conceapă un copil, -
1:28 - 1:31caută online „moduri de a rămâne
însărcinată”, -
1:31 - 1:34sau descarcă aplicații care urmăresc
perioada de ovulație. -
1:35 - 1:38Când rămân însărcinate,
-
1:38 - 1:41postează ultrasunetele
bebelușului pe rețele de socializare, -
1:41 - 1:43descarcă aplicații pentru graviditate,
-
1:43 - 1:47sau îl consultă pe Dr. Google
pentru tot felul de lucruri -
1:47 - 1:48cum ar fi, știți voi —
-
1:48 - 1:51„risc de pierdere a sarcinii
în timpul zborului” -
1:51 - 1:54sau „crampe abdominale
în graviditatea timpurie”. -
1:54 - 1:56Știu pentru că am făcut și eu asta —
-
1:56 - 1:57de multe ori.
-
1:58 - 2:02Iar după ce bebelușul s-a născut,
aplicațiile îi monitorizează somnul, -
2:02 - 2:03hrănirea,
-
2:03 - 2:05fiecare eveniment din viață
cu diferite tehnologii. -
2:06 - 2:08Și din toate aceste tehnologii,
-
2:08 - 2:14transformă cele mai intime informații
despre bebeluș în profit, -
2:14 - 2:16împărtășindu-le cu alții.
-
2:17 - 2:19Ca să vă dau o idee cum funcționează:
-
2:19 - 2:24în 2019, British Medical Journal
a publicat o cercetare care arăta -
2:24 - 2:28că din 24 de aplicații de mobil
pentru sănătate, -
2:28 - 2:3119 împărtășeau informațiile
cu părți terțe. -
2:32 - 2:38Iar aceste părți terțe împărtășeau
informațiile cu alte 216 organizații. -
2:39 - 2:42Din aceste 216 organizații,
-
2:42 - 2:45doar trei aparțineau sectorului medical.
-
2:46 - 2:50Celelalte companii care aveau acces
la informații erau companii IT, -
2:50 - 2:54cum ar fi Google, Facebook sau Oracle,
-
2:54 - 2:56erau companii de reclame digitale,
-
2:56 - 3:00era de asemenea și o agenție de raportare
a creditului pentru consumatori. -
3:01 - 3:03Deci ați înțeles:
-
3:03 - 3:08companiile de reclame și de creditare
au deja informații despre bebeluși. -
3:09 - 3:12Dar aplicațiile, căutările web
și rețelele de socializare -
3:12 - 3:15sunt doar vârful aisbergului,
-
3:15 - 3:18pentru că acești copii sunt urmăriți
de tehnologii multiple -
3:18 - 3:20în viețile lor cotidiene.
-
3:20 - 3:24Sunt urmăriți de tehnologii din casă
și de asistenți virtuali. -
3:24 - 3:26Sunt urmăriți de platforme educaționale
-
3:26 - 3:28și de tehnologii educaționale în școli,
-
3:28 - 3:30prin înregistrări online
-
3:30 - 3:33și portaluri online la cabinetul medical.
-
3:33 - 3:35Sunt urmăriți de jucării conectate
la internet -
3:35 - 3:36de jocurile online,
-
3:36 - 3:39și de multe, multe, multe alte tehnologii.
-
3:40 - 3:42În timpul cercetării mele,
-
3:42 - 3:46mulți părinți au venit
și mi-au zis: „Și ce dacă? -
3:46 - 3:49De ce contează dacă ai mei copii
sunt urmăriți? -
3:50 - 3:51Nu avem nimic de ascuns.”
-
3:53 - 3:54Ei bine, contează.
-
3:55 - 4:01Contează pentru că, în ziua de azi,
indivizii nu doar că sunt urmăriți, -
4:01 - 4:05dar se și profită de pe urma lor,
în funcție de datele acestora. -
4:05 - 4:09Inteligența artificială și analiza
predictivă sunt folosite -
4:09 - 4:13pentru a obține cât mai multe informații
despre o persoană, -
4:13 - 4:15din diferite surse: istoria familiei,
-
4:15 - 4:19obiceiuri de cumpărături,
comentarii pe rețelele de socializare. -
4:19 - 4:21Iar ei pun informațiile la un loc
-
4:21 - 4:24pentru a lua decizii bazate
pe informațiile unui individ. -
4:25 - 4:28Iar aceste tehnologii sunt folosite
pretutindeni. -
4:28 - 4:31Băncile pentru a decide
acordarea creditelor. -
4:31 - 4:33În asigurări la calculul
primei de asigurare. -
4:34 - 4:37Cei ce recrutează și angajatorii
le folosesc -
4:37 - 4:40pentru a decide dacă ai profilul potrivit
unui job sau nu. -
4:41 - 4:44Poliția și instanțele le folosesc
-
4:44 - 4:47pentru a determina dacă cineva
e un potențial infractor, -
4:47 - 4:50sau dacă e probabil să recidiveze.
-
4:52 - 4:57Nu avem cunoștințe, nici control
-
4:57 - 5:00asupra felului în care cei care
ne cumpără, ne folosesc și ne vând datele -
5:00 - 5:03ne profilează pe noi și copiii noștri.
-
5:04 - 5:08Dar aceste profile pot să ne afecteze
drepturile în moduri însemnate. -
5:09 - 5:11Ca să vă dau un exemplu:
-
5:14 - 5:18În 2018, „New York Times”
a publicat știrea -
5:18 - 5:20că informațiile strânse
-
5:20 - 5:23prin serviciile de planificare
pentru facultate — -
5:23 - 5:28care sunt completate de milioane
de liceeni din Statele Unite, -
5:28 - 5:31care caută o facultate, o bursă —
-
5:31 - 5:34au fost vândute brokerilor
de date educaționale. -
5:36 - 5:41Cercetătorii de la Fordham care au
studiat brokerii de date educaționale -
5:41 - 5:46au dezvăluit că aceste companii profilau
copii chiar și în vârstă de doi ani, -
5:46 - 5:50pe baza mai multor categorii:
-
5:50 - 5:54etnie, religie, bunăstare,
-
5:54 - 5:56jenă socială,
-
5:56 - 5:59și multe alte categorii aleatorii.
-
5:59 - 6:04Și apoi vând aceste profile,
împreună cu numele copilului, -
6:04 - 6:07adresa de acasă și detaliile de contact,
-
6:07 - 6:09diferitelor companii,
-
6:09 - 6:11inclusiv instituțiilor de meserii
și carieră, -
6:12 - 6:13companiilor de creditare
-
6:13 - 6:15și bancare pentru studenți.
-
6:17 - 6:18Pentru a forța nota,
-
6:18 - 6:22cercetătorii de la Fordham i-au cerut
unui broker de informații educaționale -
6:22 - 6:28să le dea o listă
cu fete de 14 până la 15 ani -
6:28 - 6:31care erau interesate de servicii
de planificare familială. -
6:32 - 6:35Brokerul de informații a fost de acord.
-
6:35 - 6:40Imaginați-vă cât de intim și intruziv
e asta pentru copiii noștri. -
6:41 - 6:45Dar brokerii de informații educaționale
sunt doar un exemplu. -
6:45 - 6:50Adevărul e că copiii noștri sunt profilați
în moduri pe care nu le controlăm, -
6:50 - 6:53dar care pot să le influențeze
șansele în viață. -
6:54 - 6:58Trebuie să ne întrebăm:
-
6:58 - 7:02putem avea încredere în aceste tehnologii
în legătură cu profilarea copiilor noștri? -
7:02 - 7:04Putem?
-
7:06 - 7:07Răspunsul meu e nu.
-
7:08 - 7:09Ca antropolog,
-
7:09 - 7:13cred că inteligența artificială
și analiza predictivă sunt grozave -
7:13 - 7:15când prezic parcursul unei boli
-
7:15 - 7:17sau în combaterea schimbărilor climatice.
-
7:18 - 7:20Dar nu trebuie să credem
-
7:20 - 7:23că aceste tehnologii pot să profileze
oamenii în mod obiectiv, -
7:23 - 7:27și că ne putem baza pe ele
pentru a lua decizii bazate pe date -
7:27 - 7:28vizând viețile individuale.
-
7:28 - 7:31Pentru că nu pot profila oamenii.
-
7:31 - 7:34Informațiile nu sunt oglinda noastră.
-
7:34 - 7:37Oamenii se gândesc la ceva
și spun opusul, -
7:37 - 7:39se simt într-un fel și acționează altfel.
-
7:39 - 7:42Predicțiile algoritmice
și practicile digitale -
7:42 - 7:47nu pot lua în calcul imprevizibilitatea
și complexitatea experienței umane. -
7:48 - 7:50Dar mai presus de atât,
-
7:50 - 7:53aceste tehnologii sunt mereu —
-
7:53 - 7:54mereu —
-
7:54 - 7:56într-un fel sau altul, părtinitoare.
-
7:57 - 8:02Vedeți voi, algoritmii sunt prin definiție
o mulțime de reguli și pași -
8:02 - 8:06care au fost concepuți pentru a obține
un anume rezultat, da? -
8:07 - 8:10Dar aceste reguli sau pași
nu pot fi obiectivi -
8:10 - 8:12pentru că au fost creați de oameni
-
8:12 - 8:13într-un anume context cultural
-
8:14 - 8:16și sunt formate
de anumite valori culturale. -
8:17 - 8:18Deci, când mașinăriile învață,
-
8:18 - 8:21învață prin algoritmi părtinitori
-
8:22 - 8:25și învață adesea din baze de date
părtinitoare. -
8:26 - 8:30În prezent, vedem primele exemple
de prejudecăți ale algoritmilor. -
8:30 - 8:33Iar unele din aceste exemple sunt,
sincer, terifiante. -
8:34 - 8:39Anul acesta, AI Now Institute
din New York a publicat un raport -
8:39 - 8:41care dezvăluie că tehnologiile AI
-
8:41 - 8:44care sunt folosite
pentru poliția predictivă -
8:44 - 8:48au fost antrenate cu informații „murdare”.
-
8:48 - 8:51Practic, informații obținute
-
8:51 - 8:55în perioade istorice
cu prejudecăți rasiale -
8:55 - 8:58și cu practici netransparente
ale poliției. -
8:59 - 9:03Pentru că aceste tehnologii sunt
antrenate cu informații „murdare”, -
9:03 - 9:04acestea nu sunt obiective,
-
9:04 - 9:09iar rezultatele lor doar amplifică
și perpetuează -
9:09 - 9:10prejudecățile și erorile poliției.
-
9:13 - 9:16Cred că avem în față
o problemă fundamentală -
9:16 - 9:18în societatea noastră.
-
9:18 - 9:23Începem să avem încredere în tehnologii,
când vine vorba de profilarea oamenilor. -
9:24 - 9:26Știm că atunci când e vorba
de profilarea oamenilor, -
9:26 - 9:29aceste tehnologii vor avea mereu
prejudecăți -
9:29 - 9:32și niciodată nu vor fi precise
cu adevărat. -
9:32 - 9:35Ce ne trebuie acum
este o soluție politică. -
9:35 - 9:38Guvernele trebuie să admită
că drepturile la datele noastre -
9:38 - 9:40fac parte din drepturile omului.
-
9:40 - 9:44(Aplauze și urale)
-
9:48 - 9:52Până când asta nu se întâmplă,
nu putem spera la un viitor mai corect. -
9:53 - 9:55Mi-e teamă că fiicele mele vor fi expuse
-
9:56 - 9:59la tot felul de discriminări algoritmice
și erori. -
9:59 - 10:02Diferența dintre mine și fiicele mele
-
10:02 - 10:05este că nu există înregistrări publice
despre copilăria mea. -
10:05 - 10:09Nu există o bază de date
cu toate prostiile pe care le-am făcut -
10:09 - 10:11și la care m-am gândit
când eram adolescentă. -
10:11 - 10:13(Râsete)
-
10:14 - 10:17Dar pentru fiicele mele,
asta ar putea fi diferit. -
10:17 - 10:20Informațiile colectate despre ele acum
-
10:20 - 10:24pot fi folosite ca să fie judecate
în viitor -
10:24 - 10:27și pot să le împiedice să-și realizeze
speranțele și visele. -
10:29 - 10:30Cred că a venit timpul.
-
10:30 - 10:32Trebuie pus piciorul în prag.
-
10:32 - 10:34E vremea să lucrăm împreună,
-
10:34 - 10:36ca indivizi,
-
10:36 - 10:38ca organizații, ca instituții
-
10:38 - 10:41și să cerem dreptate pentru datele noastre
-
10:41 - 10:43și pentru copiii noștri,
-
10:43 - 10:44înainte să fie prea târziu.
-
10:44 - 10:45Vă mulțumesc!
-
10:45 - 10:47(Aplauze)
- Title:
- Ce știu companiile IT despre copiii tăi
- Speaker:
- Veronica Barassi
- Description:
-
Platformele digitale pe care voi și familia voastră le folosiți în fiecare zi — de la jocuri online, la aplicații educaționale și site-uri medicale — pot să colecteze și să vândă informații despre copiii voștri, spune antropologa Veronica Barassi. Împărtășind cercetările sale revelatoare, Barassi le cere părinților să se uite de două ori peste termenii și condițiile digitale, în loc să le accepte orbește — și să ceară ca informațiile despre copiii lor să nu fie folosite astfel încât să le afecteze viitorul.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Mirel-Gabriel Alexa edited Romanian subtitles for What tech companies know about your kids | ||
Mirel-Gabriel Alexa approved Romanian subtitles for What tech companies know about your kids | ||
Mirel-Gabriel Alexa edited Romanian subtitles for What tech companies know about your kids | ||
Mirel-Gabriel Alexa edited Romanian subtitles for What tech companies know about your kids | ||
Bianca-Ioanidia Mirea accepted Romanian subtitles for What tech companies know about your kids | ||
Bianca-Ioanidia Mirea edited Romanian subtitles for What tech companies know about your kids | ||
Bianca-Ioanidia Mirea edited Romanian subtitles for What tech companies know about your kids | ||
Cristian Boros edited Romanian subtitles for What tech companies know about your kids |