1 00:00:00,792 --> 00:00:03,059 În fiecare zi, în fiecare săptămână, 2 00:00:03,083 --> 00:00:05,268 acceptăm termeni și condiții. 3 00:00:05,292 --> 00:00:06,768 Când facem asta, 4 00:00:06,792 --> 00:00:09,268 oferim companiilor dreptul legal 5 00:00:09,292 --> 00:00:12,976 să facă ce vor cu informațiile noastre 6 00:00:13,000 --> 00:00:15,375 și ale copiilor noștri. 7 00:00:16,792 --> 00:00:19,768 Ceea ce ne face să ne întrebăm: 8 00:00:19,792 --> 00:00:22,684 câte informații referitoare la copii oferim, 9 00:00:22,708 --> 00:00:24,708 și care sunt implicațiile? 10 00:00:26,500 --> 00:00:27,893 Sunt antropolog 11 00:00:27,917 --> 00:00:30,518 și mamă a două fetițe. 12 00:00:30,542 --> 00:00:35,018 Această întrebare a început să mă intereseze în 2015, 13 00:00:35,042 --> 00:00:37,768 când am realizat subit că sunt multe — 14 00:00:37,792 --> 00:00:42,993 aproape inimaginabil de multe date care sunt produse și colectate 15 00:00:42,993 --> 00:00:44,000 referitoare la copii. 16 00:00:44,792 --> 00:00:46,768 Am lansat un proiect de cercetare 17 00:00:46,792 --> 00:00:49,268 numit Child Data Citizen, 18 00:00:49,292 --> 00:00:51,417 menit să umple spațiile goale. 19 00:00:52,583 --> 00:00:55,601 Acum ați putea crede că sunt aici ca să vă învinuiesc 20 00:00:55,625 --> 00:00:58,393 că postați poze cu propriii copii pe rețele de socializare, 21 00:00:58,417 --> 00:01:00,559 dar nu e acesta scopul. 22 00:01:00,583 --> 00:01:04,000 Problema e mult mai mare decât așa-numitul „părin-share”. 23 00:01:04,792 --> 00:01:08,893 E vorba de sisteme, nu de indivizi. 24 00:01:08,917 --> 00:01:11,208 Nu voi și obiceiurile voastre sunt de vină. 25 00:01:12,833 --> 00:01:15,684 Pentru prima oară în istorie, 26 00:01:15,708 --> 00:01:18,268 urmărim informații individuale ale copiilor 27 00:01:18,292 --> 00:01:20,059 cu mult înainte să se nască — 28 00:01:20,083 --> 00:01:22,768 câteodată de la momentul concepției 29 00:01:22,792 --> 00:01:25,143 iar după, pe parcursul vieții. 30 00:01:25,167 --> 00:01:28,268 Vedeți voi, când părinții decid să conceapă un copil, 31 00:01:28,292 --> 00:01:31,268 caută online „moduri de a rămâne însărcinată”, 32 00:01:31,292 --> 00:01:34,042 sau descarcă aplicații care urmăresc perioada de ovulație. 33 00:01:35,250 --> 00:01:37,851 Când rămân însărcinate, 34 00:01:37,875 --> 00:01:41,018 postează ultrasunetele bebelușului pe rețele de socializare, 35 00:01:41,042 --> 00:01:43,059 descarcă aplicații pentru graviditate, 36 00:01:43,083 --> 00:01:46,809 sau îl consultă pe Dr. Google pentru tot felul de lucruri 37 00:01:46,833 --> 00:01:48,351 cum ar fi, știți voi — 38 00:01:48,375 --> 00:01:50,934 „risc de pierdere a sarcinii în timpul zborului” 39 00:01:50,958 --> 00:01:53,726 sau „crampe abdominale în graviditatea timpurie”. 40 00:01:53,750 --> 00:01:55,559 Știu pentru că am făcut și eu asta — 41 00:01:55,583 --> 00:01:57,208 de multe ori. 42 00:01:58,458 --> 00:02:01,812 Iar după ce bebelușul s-a născut, aplicațiile îi monitorizează somnul, 43 00:02:01,812 --> 00:02:02,753 hrănirea, 44 00:02:02,753 --> 00:02:05,167 fiecare eveniment din viață cu diferite tehnologii. 45 00:02:06,083 --> 00:02:07,559 Și din toate aceste tehnologii, 46 00:02:07,583 --> 00:02:13,726 transformă cele mai intime informații despre bebeluș în profit, 47 00:02:13,750 --> 00:02:15,542 împărtășindu-le cu alții. 48 00:02:16,583 --> 00:02:18,726 Ca să vă dau o idee cum funcționează: 49 00:02:18,750 --> 00:02:23,934 în 2019, British Medical Journal a publicat o cercetare care arăta 50 00:02:23,958 --> 00:02:27,601 că din 24 de aplicații de mobil pentru sănătate, 51 00:02:27,625 --> 00:02:31,083 19 împărtășeau informațiile cu părți terțe. 52 00:02:32,083 --> 00:02:37,917 Iar aceste părți terțe împărtășeau informațiile cu alte 216 organizații. 53 00:02:38,875 --> 00:02:42,309 Din aceste 216 organizații, 54 00:02:42,333 --> 00:02:45,476 doar trei aparțineau sectorului medical. 55 00:02:45,500 --> 00:02:50,018 Celelalte companii care aveau acces la informații erau companii IT, 56 00:02:50,042 --> 00:02:53,559 cum ar fi Google, Facebook sau Oracle, 57 00:02:53,583 --> 00:02:56,184 erau companii de reclame digitale, 58 00:02:56,208 --> 00:03:00,333 era de asemenea și o agenție de raportare a creditului pentru consumatori. 59 00:03:01,125 --> 00:03:02,559 Deci ați înțeles: 60 00:03:02,583 --> 00:03:07,708 companiile de reclame și de creditare au deja informații despre bebeluși. 61 00:03:09,125 --> 00:03:11,893 Dar aplicațiile, căutările web și rețelele de socializare 62 00:03:11,917 --> 00:03:15,018 sunt doar vârful aisbergului, 63 00:03:15,042 --> 00:03:17,893 pentru că acești copii sunt urmăriți de tehnologii multiple 64 00:03:17,917 --> 00:03:19,643 în viețile lor cotidiene. 65 00:03:19,667 --> 00:03:23,809 Sunt urmăriți de tehnologii din casă și de asistenți virtuali. 66 00:03:23,833 --> 00:03:25,809 Sunt urmăriți de platforme educaționale 67 00:03:25,833 --> 00:03:28,018 și de tehnologii educaționale în școli, 68 00:03:28,042 --> 00:03:29,643 prin înregistrări online 69 00:03:29,667 --> 00:03:32,684 și portaluri online la cabinetul medical. 70 00:03:32,708 --> 00:03:35,059 Sunt urmăriți de jucării conectate la internet 71 00:03:35,083 --> 00:03:36,393 de jocurile online, 72 00:03:36,417 --> 00:03:39,083 și de multe, multe, multe alte tehnologii. 73 00:03:40,250 --> 00:03:41,893 În timpul cercetării mele, 74 00:03:41,917 --> 00:03:46,059 mulți părinți au venit și mi-au zis: „Și ce dacă? 75 00:03:46,083 --> 00:03:49,000 De ce contează dacă ai mei copii sunt urmăriți? 76 00:03:50,042 --> 00:03:51,375 Nu avem nimic de ascuns.” 77 00:03:52,958 --> 00:03:54,458 Ei bine, contează. 78 00:03:55,083 --> 00:04:01,101 Contează pentru că, în ziua de azi, indivizii nu doar că sunt urmăriți, 79 00:04:01,125 --> 00:04:05,226 dar se și profită de pe urma lor, în funcție de datele acestora. 80 00:04:05,250 --> 00:04:09,059 Inteligența artificială și analiza predictivă sunt folosite 81 00:04:09,083 --> 00:04:12,726 pentru a obține cât mai multe informații despre o persoană, 82 00:04:12,750 --> 00:04:15,472 din diferite surse: istoria familiei, 83 00:04:15,472 --> 00:04:19,143 obiceiuri de cumpărături, comentarii pe rețelele de socializare. 84 00:04:19,167 --> 00:04:21,018 Iar ei pun informațiile la un loc 85 00:04:21,042 --> 00:04:23,792 pentru a lua decizii bazate pe informațiile unui individ. 86 00:04:24,792 --> 00:04:28,226 Iar aceste tehnologii sunt folosite pretutindeni. 87 00:04:28,250 --> 00:04:30,643 Băncile pentru a decide acordarea creditelor. 88 00:04:30,667 --> 00:04:33,042 În asigurări la calculul primei de asigurare. 89 00:04:34,208 --> 00:04:36,684 Cei ce recrutează și angajatorii le folosesc 90 00:04:36,708 --> 00:04:39,625 pentru a decide dacă ai profilul potrivit unui job sau nu. 91 00:04:40,750 --> 00:04:43,851 Poliția și instanțele le folosesc 92 00:04:43,875 --> 00:04:47,393 pentru a determina dacă cineva e un potențial infractor, 93 00:04:47,417 --> 00:04:50,042 sau dacă e probabil să recidiveze. 94 00:04:52,458 --> 00:04:56,518 Nu avem cunoștințe, nici control 95 00:04:56,542 --> 00:05:00,184 asupra felului în care cei care ne cumpără, ne folosesc și ne vând datele 96 00:05:00,208 --> 00:05:02,917 ne profilează pe noi și copiii noștri. 97 00:05:03,625 --> 00:05:07,667 Dar aceste profile pot să ne afecteze drepturile în moduri însemnate. 98 00:05:08,917 --> 00:05:11,125 Ca să vă dau un exemplu: 99 00:05:13,792 --> 00:05:17,851 În 2018, „New York Times” a publicat știrea 100 00:05:17,875 --> 00:05:19,851 că informațiile strânse 101 00:05:19,875 --> 00:05:22,934 prin serviciile de planificare pentru facultate — 102 00:05:22,958 --> 00:05:27,684 care sunt completate de milioane de liceeni din Statele Unite, 103 00:05:27,708 --> 00:05:31,351 care caută o facultate, o bursă — 104 00:05:31,375 --> 00:05:34,417 au fost vândute brokerilor de date educaționale. 105 00:05:35,792 --> 00:05:41,226 Cercetătorii de la Fordham care au studiat brokerii de date educaționale 106 00:05:41,250 --> 00:05:46,476 au dezvăluit că aceste companii profilau copii chiar și în vârstă de doi ani, 107 00:05:46,500 --> 00:05:49,559 pe baza mai multor categorii: 108 00:05:49,583 --> 00:05:53,768 etnie, religie, bunăstare, 109 00:05:53,792 --> 00:05:55,851 jenă socială, 110 00:05:55,875 --> 00:05:58,809 și multe alte categorii aleatorii. 111 00:05:58,833 --> 00:06:03,851 Și apoi vând aceste profile, împreună cu numele copilului, 112 00:06:03,875 --> 00:06:06,684 adresa de acasă și detaliile de contact, 113 00:06:06,708 --> 00:06:08,559 diferitelor companii, 114 00:06:08,583 --> 00:06:11,042 inclusiv instituțiilor de meserii și carieră, 115 00:06:12,083 --> 00:06:13,375 companiilor de creditare 116 00:06:13,375 --> 00:06:15,125 și bancare pentru studenți. 117 00:06:16,542 --> 00:06:17,893 Pentru a forța nota, 118 00:06:17,917 --> 00:06:21,726 cercetătorii de la Fordham i-au cerut unui broker de informații educaționale 119 00:06:21,750 --> 00:06:27,559 să le dea o listă cu fete de 14 până la 15 ani 120 00:06:27,583 --> 00:06:30,958 care erau interesate de servicii de planificare familială. 121 00:06:32,208 --> 00:06:34,684 Brokerul de informații a fost de acord. 122 00:06:34,708 --> 00:06:39,583 Imaginați-vă cât de intim și intruziv e asta pentru copiii noștri. 123 00:06:40,833 --> 00:06:44,809 Dar brokerii de informații educaționale sunt doar un exemplu. 124 00:06:44,833 --> 00:06:49,518 Adevărul e că copiii noștri sunt profilați în moduri pe care nu le controlăm, 125 00:06:49,542 --> 00:06:52,958 dar care pot să le influențeze șansele în viață. 126 00:06:54,167 --> 00:06:57,643 Trebuie să ne întrebăm: 127 00:06:57,667 --> 00:07:02,351 putem avea încredere în aceste tehnologii în legătură cu profilarea copiilor noștri? 128 00:07:02,375 --> 00:07:03,625 Putem? 129 00:07:05,708 --> 00:07:06,958 Răspunsul meu e nu. 130 00:07:07,792 --> 00:07:09,059 Ca antropolog, 131 00:07:09,083 --> 00:07:12,851 cred că inteligența artificială și analiza predictivă sunt grozave 132 00:07:12,875 --> 00:07:14,893 când prezic parcursul unei boli 133 00:07:14,917 --> 00:07:17,130 sau în combaterea schimbărilor climatice. 134 00:07:18,000 --> 00:07:19,643 Dar nu trebuie să credem 135 00:07:19,667 --> 00:07:23,351 că aceste tehnologii pot să profileze oamenii în mod obiectiv, 136 00:07:23,375 --> 00:07:26,559 și că ne putem baza pe ele pentru a lua decizii bazate pe date 137 00:07:26,583 --> 00:07:28,476 vizând viețile individuale. 138 00:07:28,500 --> 00:07:31,059 Pentru că nu pot profila oamenii. 139 00:07:31,083 --> 00:07:34,434 Informațiile nu sunt oglinda noastră. 140 00:07:34,458 --> 00:07:36,559 Oamenii se gândesc la ceva și spun opusul, 141 00:07:36,583 --> 00:07:39,018 se simt într-un fel și acționează altfel. 142 00:07:39,042 --> 00:07:41,518 Predicțiile algoritmice și practicile digitale 143 00:07:41,542 --> 00:07:46,708 nu pot lua în calcul imprevizibilitatea și complexitatea experienței umane. 144 00:07:48,417 --> 00:07:49,976 Dar mai presus de atât, 145 00:07:50,000 --> 00:07:52,684 aceste tehnologii sunt mereu — 146 00:07:52,708 --> 00:07:53,976 mereu — 147 00:07:54,000 --> 00:07:55,917 într-un fel sau altul, părtinitoare. 148 00:07:57,125 --> 00:08:02,184 Vedeți voi, algoritmii sunt prin definiție o mulțime de reguli și pași 149 00:08:02,208 --> 00:08:05,917 care au fost concepuți pentru a obține un anume rezultat, da? 150 00:08:06,833 --> 00:08:09,559 Dar aceste reguli sau pași nu pot fi obiectivi 151 00:08:09,583 --> 00:08:11,726 pentru că au fost creați de oameni 152 00:08:11,750 --> 00:08:13,476 într-un anume context cultural 153 00:08:13,500 --> 00:08:16,000 și sunt formate de anumite valori culturale. 154 00:08:16,667 --> 00:08:18,393 Deci, când mașinăriile învață, 155 00:08:18,417 --> 00:08:20,667 învață prin algoritmi părtinitori 156 00:08:21,625 --> 00:08:24,833 și învață adesea din baze de date părtinitoare. 157 00:08:25,833 --> 00:08:29,559 În prezent, vedem primele exemple de prejudecăți ale algoritmilor. 158 00:08:29,583 --> 00:08:33,083 Iar unele din aceste exemple sunt, sincer, terifiante. 159 00:08:34,500 --> 00:08:38,559 Anul acesta, AI Now Institute din New York a publicat un raport 160 00:08:38,583 --> 00:08:40,976 care dezvăluie că tehnologiile AI 161 00:08:41,000 --> 00:08:44,476 care sunt folosite pentru poliția predictivă 162 00:08:44,500 --> 00:08:47,625 au fost antrenate cu informații „murdare”. 163 00:08:48,333 --> 00:08:51,226 Practic, informații obținute 164 00:08:51,250 --> 00:08:55,434 în perioade istorice cu prejudecăți rasiale 165 00:08:55,458 --> 00:08:57,708 și cu practici netransparente ale poliției. 166 00:08:58,542 --> 00:09:02,601 Pentru că aceste tehnologii sunt antrenate cu informații „murdare”, 167 00:09:02,625 --> 00:09:04,059 acestea nu sunt obiective, 168 00:09:04,083 --> 00:09:08,601 iar rezultatele lor doar amplifică și perpetuează 169 00:09:08,625 --> 00:09:10,250 prejudecățile și erorile poliției. 170 00:09:13,167 --> 00:09:16,309 Cred că avem în față o problemă fundamentală 171 00:09:16,333 --> 00:09:17,976 în societatea noastră. 172 00:09:18,000 --> 00:09:22,792 Începem să avem încredere în tehnologii, când vine vorba de profilarea oamenilor. 173 00:09:23,750 --> 00:09:26,268 Știm că atunci când e vorba de profilarea oamenilor, 174 00:09:26,292 --> 00:09:29,101 aceste tehnologii vor avea mereu prejudecăți 175 00:09:29,125 --> 00:09:31,851 și niciodată nu vor fi precise cu adevărat. 176 00:09:31,875 --> 00:09:34,809 Ce ne trebuie acum este o soluție politică. 177 00:09:34,833 --> 00:09:38,365 Guvernele trebuie să admită că drepturile la datele noastre 178 00:09:38,365 --> 00:09:40,292 fac parte din drepturile omului. 179 00:09:40,292 --> 00:09:44,375 (Aplauze și urale) 180 00:09:47,833 --> 00:09:51,917 Până când asta nu se întâmplă, nu putem spera la un viitor mai corect. 181 00:09:52,750 --> 00:09:55,476 Mi-e teamă că fiicele mele vor fi expuse 182 00:09:55,500 --> 00:09:59,226 la tot felul de discriminări algoritmice și erori. 183 00:09:59,250 --> 00:10:01,643 Diferența dintre mine și fiicele mele 184 00:10:01,667 --> 00:10:04,851 este că nu există înregistrări publice despre copilăria mea. 185 00:10:04,875 --> 00:10:08,893 Nu există o bază de date cu toate prostiile pe care le-am făcut 186 00:10:08,917 --> 00:10:11,059 și la care m-am gândit când eram adolescentă. 187 00:10:11,083 --> 00:10:12,583 (Râsete) 188 00:10:13,833 --> 00:10:16,583 Dar pentru fiicele mele, asta ar putea fi diferit. 189 00:10:17,292 --> 00:10:20,476 Informațiile colectate despre ele acum 190 00:10:20,500 --> 00:10:24,309 pot fi folosite ca să fie judecate în viitor 191 00:10:24,333 --> 00:10:27,292 și pot să le împiedice să-și realizeze speranțele și visele. 192 00:10:28,583 --> 00:10:30,101 Cred că a venit timpul. 193 00:10:30,125 --> 00:10:31,559 Trebuie pus piciorul în prag. 194 00:10:31,583 --> 00:10:34,059 E vremea să lucrăm împreună, 195 00:10:34,083 --> 00:10:35,518 ca indivizi, 196 00:10:35,542 --> 00:10:38,059 ca organizații, ca instituții 197 00:10:38,083 --> 00:10:41,184 și să cerem dreptate pentru datele noastre 198 00:10:41,208 --> 00:10:42,601 și pentru copiii noștri, 199 00:10:42,625 --> 00:10:44,143 înainte să fie prea târziu. 200 00:10:44,167 --> 00:10:45,434 Vă mulțumesc! 201 00:10:45,458 --> 00:10:46,875 (Aplauze)