Romanian 字幕

← Ce știu companiile IT despre copiii tăi

埋め込みコードを取得する
36言語

Showing Revision 7 created 06/14/2020 by Mirel-Gabriel Alexa.

  1. În fiecare zi, în fiecare săptămână,
  2. acceptăm termeni și condiții.
  3. Când facem asta,
  4. oferim companiilor dreptul legal
  5. să facă ce vor cu informațiile noastre
  6. și ale copiilor noștri.
  7. Ceea ce ne face să ne întrebăm:
  8. câte informații
    referitoare la copii oferim,
  9. și care sunt implicațiile?
  10. Sunt antropolog
  11. și mamă a două fetițe.
  12. Această întrebare a început
    să mă intereseze în 2015,
  13. când am realizat subit că sunt multe —
  14. aproape inimaginabil de multe date
    care sunt produse și colectate
  15. referitoare la copii.
  16. Am lansat un proiect de cercetare
  17. numit Child Data Citizen,
  18. menit să umple spațiile goale.
  19. Acum ați putea crede că sunt aici
    ca să vă învinuiesc
  20. că postați poze cu propriii copii
    pe rețele de socializare,
  21. dar nu e acesta scopul.
  22. Problema e mult mai mare
    decât așa-numitul „părin-share”.
  23. E vorba de sisteme, nu de indivizi.
  24. Nu voi și obiceiurile voastre
    sunt de vină.
  25. Pentru prima oară în istorie,
  26. urmărim informații individuale
    ale copiilor
  27. cu mult înainte să se nască —
  28. câteodată de la momentul concepției
  29. iar după, pe parcursul vieții.
  30. Vedeți voi, când părinții decid
    să conceapă un copil,
  31. caută online „moduri de a rămâne
    însărcinată”,
  32. sau descarcă aplicații care urmăresc
    perioada de ovulație.
  33. Când rămân însărcinate,
  34. postează ultrasunetele
    bebelușului pe rețele de socializare,
  35. descarcă aplicații pentru graviditate,
  36. sau îl consultă pe Dr. Google
    pentru tot felul de lucruri
  37. cum ar fi, știți voi —
  38. „risc de pierdere a sarcinii
    în timpul zborului”
  39. sau „crampe abdominale
    în graviditatea timpurie”.
  40. Știu pentru că am făcut și eu asta —
  41. de multe ori.
  42. Iar după ce bebelușul s-a născut,
    aplicațiile îi monitorizează somnul,
  43. hrănirea,
  44. fiecare eveniment din viață
    cu diferite tehnologii.
  45. Și din toate aceste tehnologii,
  46. transformă cele mai intime informații
    despre bebeluș în profit,
  47. împărtășindu-le cu alții.
  48. Ca să vă dau o idee cum funcționează:
  49. în 2019, British Medical Journal
    a publicat o cercetare care arăta
  50. că din 24 de aplicații de mobil
    pentru sănătate,
  51. 19 împărtășeau informațiile
    cu părți terțe.
  52. Iar aceste părți terțe împărtășeau
    informațiile cu alte 216 organizații.
  53. Din aceste 216 organizații,
  54. doar trei aparțineau sectorului medical.
  55. Celelalte companii care aveau acces
    la informații erau companii IT,
  56. cum ar fi Google, Facebook sau Oracle,
  57. erau companii de reclame digitale,
  58. era de asemenea și o agenție de raportare
    a creditului pentru consumatori.
  59. Deci ați înțeles:
  60. companiile de reclame și de creditare
    au deja informații despre bebeluși.
  61. Dar aplicațiile, căutările web
    și rețelele de socializare
  62. sunt doar vârful aisbergului,
  63. pentru că acești copii sunt urmăriți
    de tehnologii multiple
  64. în viețile lor cotidiene.
  65. Sunt urmăriți de tehnologii din casă
    și de asistenți virtuali.
  66. Sunt urmăriți de platforme educaționale
  67. și de tehnologii educaționale în școli,
  68. prin înregistrări online
  69. și portaluri online la cabinetul medical.
  70. Sunt urmăriți de jucării conectate
    la internet
  71. de jocurile online,
  72. și de multe, multe, multe alte tehnologii.
  73. În timpul cercetării mele,
  74. mulți părinți au venit
    și mi-au zis: „Și ce dacă?
  75. De ce contează dacă ai mei copii
    sunt urmăriți?
  76. Nu avem nimic de ascuns.”
  77. Ei bine, contează.
  78. Contează pentru că, în ziua de azi,
    indivizii nu doar că sunt urmăriți,
  79. dar se și profită de pe urma lor,
    în funcție de datele acestora.
  80. Inteligența artificială și analiza
    predictivă sunt folosite
  81. pentru a obține cât mai multe informații
    despre o persoană,
  82. din diferite surse: istoria familiei,
  83. obiceiuri de cumpărături,
    comentarii pe rețelele de socializare.
  84. Iar ei pun informațiile la un loc
  85. pentru a lua decizii bazate
    pe informațiile unui individ.
  86. Iar aceste tehnologii sunt folosite
    pretutindeni.
  87. Băncile pentru a decide
    acordarea creditelor.
  88. În asigurări la calculul
    primei de asigurare.
  89. Cei ce recrutează și angajatorii
    le folosesc
  90. pentru a decide dacă ai profilul potrivit
    unui job sau nu.
  91. Poliția și instanțele le folosesc
  92. pentru a determina dacă cineva
    e un potențial infractor,
  93. sau dacă e probabil să recidiveze.
  94. Nu avem cunoștințe, nici control
  95. asupra felului în care cei care
    ne cumpără, ne folosesc și ne vând datele
  96. ne profilează pe noi și copiii noștri.
  97. Dar aceste profile pot să ne afecteze
    drepturile în moduri însemnate.
  98. Ca să vă dau un exemplu:
  99. În 2018, „New York Times”
    a publicat știrea
  100. că informațiile strânse
  101. prin serviciile de planificare
    pentru facultate —
  102. care sunt completate de milioane
    de liceeni din Statele Unite,
  103. care caută o facultate, o bursă —
  104. au fost vândute brokerilor
    de date educaționale.
  105. Cercetătorii de la Fordham care au
    studiat brokerii de date educaționale
  106. au dezvăluit că aceste companii profilau
    copii chiar și în vârstă de doi ani,
  107. pe baza mai multor categorii:
  108. etnie, religie, bunăstare,
  109. jenă socială,
  110. și multe alte categorii aleatorii.
  111. Și apoi vând aceste profile,
    împreună cu numele copilului,
  112. adresa de acasă și detaliile de contact,
  113. diferitelor companii,
  114. inclusiv instituțiilor de meserii
    și carieră,
  115. companiilor de creditare
  116. și bancare pentru studenți.
  117. Pentru a forța nota,
  118. cercetătorii de la Fordham i-au cerut
    unui broker de informații educaționale
  119. să le dea o listă
    cu fete de 14 până la 15 ani
  120. care erau interesate de servicii
    de planificare familială.
  121. Brokerul de informații a fost de acord.
  122. Imaginați-vă cât de intim și intruziv
    e asta pentru copiii noștri.
  123. Dar brokerii de informații educaționale
    sunt doar un exemplu.
  124. Adevărul e că copiii noștri sunt profilați
    în moduri pe care nu le controlăm,
  125. dar care pot să le influențeze
    șansele în viață.
  126. Trebuie să ne întrebăm:
  127. putem avea încredere în aceste tehnologii
    în legătură cu profilarea copiilor noștri?
  128. Putem?
  129. Răspunsul meu e nu.
  130. Ca antropolog,
  131. cred că inteligența artificială
    și analiza predictivă sunt grozave
  132. când prezic parcursul unei boli
  133. sau în combaterea schimbărilor climatice.
  134. Dar nu trebuie să credem
  135. că aceste tehnologii pot să profileze
    oamenii în mod obiectiv,
  136. și că ne putem baza pe ele
    pentru a lua decizii bazate pe date
  137. vizând viețile individuale.
  138. Pentru că nu pot profila oamenii.
  139. Informațiile nu sunt oglinda noastră.
  140. Oamenii se gândesc la ceva
    și spun opusul,
  141. se simt într-un fel și acționează altfel.
  142. Predicțiile algoritmice
    și practicile digitale
  143. nu pot lua în calcul imprevizibilitatea
    și complexitatea experienței umane.
  144. Dar mai presus de atât,
  145. aceste tehnologii sunt mereu —
  146. mereu —
  147. într-un fel sau altul, părtinitoare.
  148. Vedeți voi, algoritmii sunt prin definiție
    o mulțime de reguli și pași
  149. care au fost concepuți pentru a obține
    un anume rezultat, da?
  150. Dar aceste reguli sau pași
    nu pot fi obiectivi
  151. pentru că au fost creați de oameni
  152. într-un anume context cultural
  153. și sunt formate
    de anumite valori culturale.
  154. Deci, când mașinăriile învață,
  155. învață prin algoritmi părtinitori
  156. și învață adesea din baze de date
    părtinitoare.
  157. În prezent, vedem primele exemple
    de prejudecăți ale algoritmilor.
  158. Iar unele din aceste exemple sunt,
    sincer, terifiante.
  159. Anul acesta, AI Now Institute
    din New York a publicat un raport
  160. care dezvăluie că tehnologiile AI
  161. care sunt folosite
    pentru poliția predictivă
  162. au fost antrenate cu informații „murdare”.
  163. Practic, informații obținute
  164. în perioade istorice
    cu prejudecăți rasiale
  165. și cu practici netransparente
    ale poliției.
  166. Pentru că aceste tehnologii sunt
    antrenate cu informații „murdare”,
  167. acestea nu sunt obiective,
  168. iar rezultatele lor doar amplifică
    și perpetuează
  169. prejudecățile și erorile poliției.
  170. Cred că avem în față
    o problemă fundamentală
  171. în societatea noastră.
  172. Începem să avem încredere în tehnologii,
    când vine vorba de profilarea oamenilor.
  173. Știm că atunci când e vorba
    de profilarea oamenilor,
  174. aceste tehnologii vor avea mereu
    prejudecăți
  175. și niciodată nu vor fi precise
    cu adevărat.
  176. Ce ne trebuie acum
    este o soluție politică.
  177. Guvernele trebuie să admită
    că drepturile la datele noastre
  178. fac parte din drepturile omului.
  179. (Aplauze și urale)
  180. Până când asta nu se întâmplă,
    nu putem spera la un viitor mai corect.
  181. Mi-e teamă că fiicele mele vor fi expuse
  182. la tot felul de discriminări algoritmice
    și erori.
  183. Diferența dintre mine și fiicele mele
  184. este că nu există înregistrări publice
    despre copilăria mea.
  185. Nu există o bază de date
    cu toate prostiile pe care le-am făcut
  186. și la care m-am gândit
    când eram adolescentă.
  187. (Râsete)
  188. Dar pentru fiicele mele,
    asta ar putea fi diferit.
  189. Informațiile colectate despre ele acum
  190. pot fi folosite ca să fie judecate
    în viitor
  191. și pot să le împiedice să-și realizeze
    speranțele și visele.
  192. Cred că a venit timpul.
  193. Trebuie pus piciorul în prag.
  194. E vremea să lucrăm împreună,
  195. ca indivizi,
  196. ca organizații, ca instituții
  197. și să cerem dreptate pentru datele noastre
  198. și pentru copiii noștri,
  199. înainte să fie prea târziu.
  200. Vă mulțumesc!
  201. (Aplauze)