0:00:00.792,0:00:03.059 În fiecare zi, în fiecare săptămână, 0:00:03.083,0:00:05.268 acceptăm termeni și condiții. 0:00:05.292,0:00:06.768 Când facem asta, 0:00:06.792,0:00:09.268 oferim companiilor dreptul legal 0:00:09.292,0:00:12.976 să facă ce vor cu informațiile noastre 0:00:13.000,0:00:15.375 și ale copiilor noștri. 0:00:16.792,0:00:19.768 Ceea ce ne face să ne întrebăm: 0:00:19.792,0:00:22.684 câte informații[br]referitoare la copii oferim, 0:00:22.708,0:00:24.708 și care sunt implicațiile? 0:00:26.500,0:00:27.893 Sunt antropolog 0:00:27.917,0:00:30.518 și mamă a două fetițe. 0:00:30.542,0:00:35.018 Această întrebare a început[br]să mă intereseze în 2015, 0:00:35.042,0:00:37.768 când am realizat subit că sunt multe — 0:00:37.792,0:00:42.993 aproape inimaginabil de multe date[br]care sunt produse și colectate 0:00:42.993,0:00:44.000 referitoare la copii. 0:00:44.792,0:00:46.768 Am lansat un proiect de cercetare 0:00:46.792,0:00:49.268 numit Child Data Citizen, 0:00:49.292,0:00:51.417 menit să umple spațiile goale. 0:00:52.583,0:00:55.601 Acum ați putea crede că sunt aici[br]ca să vă învinuiesc 0:00:55.625,0:00:58.393 că postați poze cu propriii copii[br]pe rețele de socializare, 0:00:58.417,0:01:00.559 dar nu e acesta scopul. 0:01:00.583,0:01:04.000 Problema e mult mai mare[br]decât așa-numitul „părin-share”. 0:01:04.792,0:01:08.893 E vorba de sisteme, nu de indivizi. 0:01:08.917,0:01:11.208 Nu voi și obiceiurile voastre[br]sunt de vină. 0:01:12.833,0:01:15.684 Pentru prima oară în istorie, 0:01:15.708,0:01:18.268 urmărim informații individuale[br]ale copiilor 0:01:18.292,0:01:20.059 cu mult înainte să se nască — 0:01:20.083,0:01:22.768 câteodată de la momentul concepției 0:01:22.792,0:01:25.143 iar după, pe parcursul vieții. 0:01:25.167,0:01:28.268 Vedeți voi, când părinții decid[br]să conceapă un copil, 0:01:28.292,0:01:31.268 caută online „moduri de a rămâne[br]însărcinată”, 0:01:31.292,0:01:34.042 sau descarcă aplicații care urmăresc[br]perioada de ovulație. 0:01:35.250,0:01:37.851 Când rămân însărcinate, 0:01:37.875,0:01:41.018 postează ultrasunetele[br]bebelușului pe rețele de socializare, 0:01:41.042,0:01:43.059 descarcă aplicații pentru graviditate, 0:01:43.083,0:01:46.809 sau îl consultă pe Dr. Google[br]pentru tot felul de lucruri 0:01:46.833,0:01:48.351 cum ar fi, știți voi — 0:01:48.375,0:01:50.934 „risc de pierdere a sarcinii[br]în timpul zborului” 0:01:50.958,0:01:53.726 sau „crampe abdominale[br]în graviditatea timpurie”. 0:01:53.750,0:01:55.559 Știu pentru că am făcut și eu asta — 0:01:55.583,0:01:57.208 de multe ori. 0:01:58.458,0:02:01.812 Iar după ce bebelușul s-a născut,[br]aplicațiile îi monitorizează somnul, 0:02:01.812,0:02:02.753 hrănirea, 0:02:02.753,0:02:05.167 fiecare eveniment din viață[br]cu diferite tehnologii. 0:02:06.083,0:02:07.559 Și din toate aceste tehnologii, 0:02:07.583,0:02:13.726 transformă cele mai intime informații[br]despre bebeluș în profit, 0:02:13.750,0:02:15.542 împărtășindu-le cu alții. 0:02:16.583,0:02:18.726 Ca să vă dau o idee cum funcționează: 0:02:18.750,0:02:23.934 în 2019, British Medical Journal[br]a publicat o cercetare care arăta 0:02:23.958,0:02:27.601 că din 24 de aplicații de mobil[br]pentru sănătate, 0:02:27.625,0:02:31.083 19 împărtășeau informațiile[br]cu părți terțe. 0:02:32.083,0:02:37.917 Iar aceste părți terțe împărtășeau[br]informațiile cu alte 216 organizații. 0:02:38.875,0:02:42.309 Din aceste 216 organizații, 0:02:42.333,0:02:45.476 doar trei aparțineau sectorului medical. 0:02:45.500,0:02:50.018 Celelalte companii care aveau acces[br]la informații erau companii IT, 0:02:50.042,0:02:53.559 cum ar fi Google, Facebook sau Oracle, 0:02:53.583,0:02:56.184 erau companii de reclame digitale, 0:02:56.208,0:03:00.333 era de asemenea și o agenție de raportare[br]a creditului pentru consumatori. 0:03:01.125,0:03:02.559 Deci ați înțeles: 0:03:02.583,0:03:07.708 companiile de reclame și de creditare[br]au deja informații despre bebeluși. 0:03:09.125,0:03:11.893 Dar aplicațiile, căutările web[br]și rețelele de socializare 0:03:11.917,0:03:15.018 sunt doar vârful aisbergului, 0:03:15.042,0:03:17.893 pentru că acești copii sunt urmăriți[br]de tehnologii multiple 0:03:17.917,0:03:19.643 în viețile lor cotidiene. 0:03:19.667,0:03:23.809 Sunt urmăriți de tehnologii din casă[br]și de asistenți virtuali. 0:03:23.833,0:03:25.809 Sunt urmăriți de platforme educaționale 0:03:25.833,0:03:28.018 și de tehnologii educaționale în școli, 0:03:28.042,0:03:29.643 prin înregistrări online 0:03:29.667,0:03:32.684 și portaluri online la cabinetul medical. 0:03:32.708,0:03:35.059 Sunt urmăriți de jucării conectate[br]la internet 0:03:35.083,0:03:36.393 de jocurile online, 0:03:36.417,0:03:39.083 și de multe, multe, multe alte tehnologii. 0:03:40.250,0:03:41.893 În timpul cercetării mele, 0:03:41.917,0:03:46.059 mulți părinți au venit[br]și mi-au zis: „Și ce dacă? 0:03:46.083,0:03:49.000 De ce contează dacă ai mei copii[br]sunt urmăriți? 0:03:50.042,0:03:51.375 Nu avem nimic de ascuns.” 0:03:52.958,0:03:54.458 Ei bine, contează. 0:03:55.083,0:04:01.101 Contează pentru că, în ziua de azi,[br]indivizii nu doar că sunt urmăriți, 0:04:01.125,0:04:05.226 dar se și profită de pe urma lor,[br]în funcție de datele acestora. 0:04:05.250,0:04:09.059 Inteligența artificială și analiza[br]predictivă sunt folosite 0:04:09.083,0:04:12.726 pentru a obține cât mai multe informații[br]despre o persoană, 0:04:12.750,0:04:15.472 din diferite surse: istoria familiei, 0:04:15.472,0:04:19.143 obiceiuri de cumpărături,[br]comentarii pe rețelele de socializare. 0:04:19.167,0:04:21.018 Iar ei pun informațiile la un loc 0:04:21.042,0:04:23.792 pentru a lua decizii bazate[br]pe informațiile unui individ. 0:04:24.792,0:04:28.226 Iar aceste tehnologii sunt folosite[br]pretutindeni. 0:04:28.250,0:04:30.643 Băncile pentru a decide[br]acordarea creditelor. 0:04:30.667,0:04:33.042 În asigurări la calculul[br]primei de asigurare. 0:04:34.208,0:04:36.684 Cei ce recrutează și angajatorii[br]le folosesc 0:04:36.708,0:04:39.625 pentru a decide dacă ai profilul potrivit[br]unui job sau nu. 0:04:40.750,0:04:43.851 Poliția și instanțele le folosesc 0:04:43.875,0:04:47.393 pentru a determina dacă cineva[br]e un potențial infractor, 0:04:47.417,0:04:50.042 sau dacă e probabil să recidiveze. 0:04:52.458,0:04:56.518 Nu avem cunoștințe, nici control 0:04:56.542,0:05:00.184 asupra felului în care cei care[br]ne cumpără, ne folosesc și ne vând datele 0:05:00.208,0:05:02.917 ne profilează pe noi și copiii noștri. 0:05:03.625,0:05:07.667 Dar aceste profile pot să ne afecteze[br]drepturile în moduri însemnate. 0:05:08.917,0:05:11.125 Ca să vă dau un exemplu: 0:05:13.792,0:05:17.851 În 2018, „New York Times”[br]a publicat știrea 0:05:17.875,0:05:19.851 că informațiile strânse 0:05:19.875,0:05:22.934 prin serviciile de planificare[br]pentru facultate — 0:05:22.958,0:05:27.684 care sunt completate de milioane[br]de liceeni din Statele Unite, 0:05:27.708,0:05:31.351 care caută o facultate, o bursă — 0:05:31.375,0:05:34.417 au fost vândute brokerilor[br]de date educaționale. 0:05:35.792,0:05:41.226 Cercetătorii de la Fordham care au[br]studiat brokerii de date educaționale 0:05:41.250,0:05:46.476 au dezvăluit că aceste companii profilau[br]copii chiar și în vârstă de doi ani, 0:05:46.500,0:05:49.559 pe baza mai multor categorii: 0:05:49.583,0:05:53.768 etnie, religie, bunăstare, 0:05:53.792,0:05:55.851 jenă socială, 0:05:55.875,0:05:58.809 și multe alte categorii aleatorii. 0:05:58.833,0:06:03.851 Și apoi vând aceste profile,[br]împreună cu numele copilului, 0:06:03.875,0:06:06.684 adresa de acasă și detaliile de contact, 0:06:06.708,0:06:08.559 diferitelor companii, 0:06:08.583,0:06:11.042 inclusiv instituțiilor de meserii[br]și carieră, 0:06:12.083,0:06:13.375 companiilor de creditare 0:06:13.375,0:06:15.125 și bancare pentru studenți. 0:06:16.542,0:06:17.893 Pentru a forța nota, 0:06:17.917,0:06:21.726 cercetătorii de la Fordham i-au cerut[br]unui broker de informații educaționale 0:06:21.750,0:06:27.559 să le dea o listă[br]cu fete de 14 până la 15 ani 0:06:27.583,0:06:30.958 care erau interesate de servicii[br]de planificare familială. 0:06:32.208,0:06:34.684 Brokerul de informații a fost de acord. 0:06:34.708,0:06:39.583 Imaginați-vă cât de intim și intruziv[br]e asta pentru copiii noștri. 0:06:40.833,0:06:44.809 Dar brokerii de informații educaționale[br]sunt doar un exemplu. 0:06:44.833,0:06:49.518 Adevărul e că copiii noștri sunt profilați[br]în moduri pe care nu le controlăm, 0:06:49.542,0:06:52.958 dar care pot să le influențeze[br]șansele în viață. 0:06:54.167,0:06:57.643 Trebuie să ne întrebăm: 0:06:57.667,0:07:02.351 putem avea încredere în aceste tehnologii[br]în legătură cu profilarea copiilor noștri? 0:07:02.375,0:07:03.625 Putem? 0:07:05.708,0:07:06.958 Răspunsul meu e nu. 0:07:07.792,0:07:09.059 Ca antropolog, 0:07:09.083,0:07:12.851 cred că inteligența artificială[br]și analiza predictivă sunt grozave 0:07:12.875,0:07:14.893 când prezic parcursul unei boli 0:07:14.917,0:07:17.130 sau în combaterea schimbărilor climatice. 0:07:18.000,0:07:19.643 Dar nu trebuie să credem 0:07:19.667,0:07:23.351 că aceste tehnologii pot să profileze[br]oamenii în mod obiectiv, 0:07:23.375,0:07:26.559 și că ne putem baza pe ele[br]pentru a lua decizii bazate pe date 0:07:26.583,0:07:28.476 vizând viețile individuale. 0:07:28.500,0:07:31.059 Pentru că nu pot profila oamenii. 0:07:31.083,0:07:34.434 Informațiile nu sunt oglinda noastră. 0:07:34.458,0:07:36.559 Oamenii se gândesc la ceva[br]și spun opusul, 0:07:36.583,0:07:39.018 se simt într-un fel și acționează altfel. 0:07:39.042,0:07:41.518 Predicțiile algoritmice[br]și practicile digitale 0:07:41.542,0:07:46.708 nu pot lua în calcul imprevizibilitatea[br]și complexitatea experienței umane. 0:07:48.417,0:07:49.976 Dar mai presus de atât, 0:07:50.000,0:07:52.684 aceste tehnologii sunt mereu — 0:07:52.708,0:07:53.976 mereu — 0:07:54.000,0:07:55.917 într-un fel sau altul, părtinitoare. 0:07:57.125,0:08:02.184 Vedeți voi, algoritmii sunt prin definiție[br]o mulțime de reguli și pași 0:08:02.208,0:08:05.917 care au fost concepuți pentru a obține[br]un anume rezultat, da? 0:08:06.833,0:08:09.559 Dar aceste reguli sau pași[br]nu pot fi obiectivi 0:08:09.583,0:08:11.726 pentru că au fost creați de oameni 0:08:11.750,0:08:13.476 într-un anume context cultural 0:08:13.500,0:08:16.000 și sunt formate[br]de anumite valori culturale. 0:08:16.667,0:08:18.393 Deci, când mașinăriile învață, 0:08:18.417,0:08:20.667 învață prin algoritmi părtinitori 0:08:21.625,0:08:24.833 și învață adesea din baze de date[br]părtinitoare. 0:08:25.833,0:08:29.559 În prezent, vedem primele exemple[br]de prejudecăți ale algoritmilor. 0:08:29.583,0:08:33.083 Iar unele din aceste exemple sunt,[br]sincer, terifiante. 0:08:34.500,0:08:38.559 Anul acesta, AI Now Institute[br]din New York a publicat un raport 0:08:38.583,0:08:40.976 care dezvăluie că tehnologiile AI 0:08:41.000,0:08:44.476 care sunt folosite[br]pentru poliția predictivă 0:08:44.500,0:08:47.625 au fost antrenate cu informații „murdare”. 0:08:48.333,0:08:51.226 Practic, informații obținute 0:08:51.250,0:08:55.434 în perioade istorice[br]cu prejudecăți rasiale 0:08:55.458,0:08:57.708 și cu practici netransparente[br]ale poliției. 0:08:58.542,0:09:02.601 Pentru că aceste tehnologii sunt[br]antrenate cu informații „murdare”, 0:09:02.625,0:09:04.059 acestea nu sunt obiective, 0:09:04.083,0:09:08.601 iar rezultatele lor doar amplifică[br]și perpetuează 0:09:08.625,0:09:10.250 prejudecățile și erorile poliției. 0:09:13.167,0:09:16.309 Cred că avem în față[br]o problemă fundamentală 0:09:16.333,0:09:17.976 în societatea noastră. 0:09:18.000,0:09:22.792 Începem să avem încredere în tehnologii,[br]când vine vorba de profilarea oamenilor. 0:09:23.750,0:09:26.268 Știm că atunci când e vorba[br]de profilarea oamenilor, 0:09:26.292,0:09:29.101 aceste tehnologii vor avea mereu[br]prejudecăți 0:09:29.125,0:09:31.851 și niciodată nu vor fi precise[br]cu adevărat. 0:09:31.875,0:09:34.809 Ce ne trebuie acum[br]este o soluție politică. 0:09:34.833,0:09:38.365 Guvernele trebuie să admită[br]că drepturile la datele noastre 0:09:38.365,0:09:40.292 fac parte din drepturile omului. 0:09:40.292,0:09:44.375 (Aplauze și urale) 0:09:47.833,0:09:51.917 Până când asta nu se întâmplă,[br]nu putem spera la un viitor mai corect. 0:09:52.750,0:09:55.476 Mi-e teamă că fiicele mele vor fi expuse 0:09:55.500,0:09:59.226 la tot felul de discriminări algoritmice[br]și erori. 0:09:59.250,0:10:01.643 Diferența dintre mine și fiicele mele 0:10:01.667,0:10:04.851 este că nu există înregistrări publice[br]despre copilăria mea. 0:10:04.875,0:10:08.893 Nu există o bază de date[br]cu toate prostiile pe care le-am făcut 0:10:08.917,0:10:11.059 și la care m-am gândit[br]când eram adolescentă. 0:10:11.083,0:10:12.583 (Râsete) 0:10:13.833,0:10:16.583 Dar pentru fiicele mele,[br]asta ar putea fi diferit. 0:10:17.292,0:10:20.476 Informațiile colectate despre ele acum 0:10:20.500,0:10:24.309 pot fi folosite ca să fie judecate[br]în viitor 0:10:24.333,0:10:27.292 și pot să le împiedice să-și realizeze[br]speranțele și visele. 0:10:28.583,0:10:30.101 Cred că a venit timpul. 0:10:30.125,0:10:31.559 Trebuie pus piciorul în prag. 0:10:31.583,0:10:34.059 E vremea să lucrăm împreună, 0:10:34.083,0:10:35.518 ca indivizi, 0:10:35.542,0:10:38.059 ca organizații, ca instituții 0:10:38.083,0:10:41.184 și să cerem dreptate pentru datele noastre 0:10:41.208,0:10:42.601 și pentru copiii noștri, 0:10:42.625,0:10:44.143 înainte să fie prea târziu. 0:10:44.167,0:10:45.434 Vă mulțumesc! 0:10:45.458,0:10:46.875 (Aplauze)