Hungarian 字幕

← Amit a techcégek a gyermekeinkről tudnak

埋め込みコードを取得する
36言語

Showing Revision 12 created 07/30/2020 by Csaba Lóki.

  1. Minden nap és minden héten
  2. szerződési feltételekhez
    és kikötésekhez járulunk hozzá.
  3. Ekkor
  4. jogilag felhatalmazunk cégeket,
  5. hogy adatainkkal,
    így gyermekeink adataival is,
  6. tetszésük szerint bánjanak.
  7. Ami elgondolkoztathat minket:
  8. mekkora adatmennyiséget
    adunk ki gyermekeinkről,
  9. és mik ennek a következményei?
  10. Antropológus vagyok,

  11. és egyúttal két kislány édesanyja.
  12. 2015-ben kezdett el
    foglalkoztatni ez a kérdés,
  13. amikor hirtelen feleszméltem,
  14. hogy széles körű, csaknem elképzelhetetlen
    mennyiségű adatnyom
  15. gyűlik össze és érhető el gyermekeinkről.
  16. Ezért kutatómunkát indítottam
  17. Child Data Citizen elnevezéssel,
  18. és a homályos foltok felfedését
    tűztem ki célul.
  19. Talán arra gondolhatnak,
    önöket hibáztatom,

  20. mert gyermekeikről képeket
    posztolnak a közösségi médiában,
  21. de nem ez a lényeg.
  22. A baj annál sokkal nagyobb,
    mint az ún. “szülői megosztás”.
  23. A rendszerekkel van baj,
    nem az egyéni szokásokkal.
  24. Szokásaink nem hibáztathatók.
  25. Először a történelemben,

  26. gyermekeink egyedi adatait
  27. még jóval születésük előtt rögzítjük;
  28. gyakran már fogantatásuk pillanatától,
  29. majd később egész életük során.
  30. Amikor szülők gyermekvállalás
    mellett döntenek,
  31. interneten rá szoktak keresni
    a “hogyan eshetek teherbe” témára,
  32. vagy letöltenek egy ovulációs alkalmazást.
  33. Amikor várandósak,
  34. babáikról a közösségi médiában
    posztolnak ultrahangképeket,
  35. terhességi alkalmazásokat töltenek le
  36. vagy dr. Google tanácsát kérik ki
    mindenféle ügyben,
  37. olyan dolgokban, mint:
  38. “vetélés kockázata repüléskor”,
  39. “hasi görcsök a várandósság
    korai szakaszában“.
  40. Tudom, mert én is csináltam,
  41. sokszor.
  42. Amikor megszületik a baba,
    rögzítenek minden alvást,
  43. minden etetést,
  44. minden eseményt különféle technológiákkal.
  45. Minden ilyen technológia
  46. a baba legintimebb viselkedési
    és egészségügyi adatát profittá alakítja
  47. a megosztásuk révén.
  48. Hogy szemléletessé váljon,
    hogy is működik ez,

  49. 2019-ben a British Medical Journalben
    megjelent kutatás feltárta,
  50. hogy 24 egészségügyi mobilalkalmazás közül
  51. 19 harmadik féllel is
    megosztott információkat.
  52. Majd ezek további 216 másik szervezettel
    osztották meg az információkat.
  53. A 216 további fél közül
  54. csak három tartozott
    egészségügyi ágazatba.
  55. A többi cég, amelynek hozzáférése volt
    az adatokhoz, nagy techcégek voltak,
  56. mint a Google, Facebook vagy az Oracle,
  57. de voltak digitálisreklám-ügynökségek
  58. és fogyasztói hitelelemző cégek is.
  59. Értik már, ugye?
  60. Reklámcégeknek és hitelügynökségeknek
    már csecsemőkről is lehetnek adataik.
  61. De a mobilalkalmazások,
    webes keresések és a közösségi média
  62. épp csak a jéghegy csúcsa,
  63. mert a gyerekeket számos
    technológia követi nyomon
  64. mindennapi életük során.
  65. Nyomon követik őket az okosotthonok
    technológiái és a virtuális asszisztensek.
  66. Nyomon követik őket az oktatási felületek
  67. és az iskolák oktatási technológiái.
  68. Nyomon követik őket online
  69. orvosi adatokon és portálokon keresztül.
  70. Nyomon követik az internethez
    kapcsolt játékaikon,
  71. az online játékokon
  72. és még rengeteg más
    technológián keresztül is.
  73. A kutatásom során

  74. sok szülő ezzel jött oda hozzám: “Na és?
  75. Mit számít, ha lekövetik a gyerekeimet?
  76. Nincs semmi takargatnivalónk.”
  77. Hát számít!
  78. Számít, mert ma az egyes embereket
    nemcsak lekövetik,
  79. de profilokat is alkotnak
    az adatnyomaik alapján.
  80. Mesterséges intelligenciát
    és prediktív elemzést alkalmaznak,
  81. hogy a lehető legtöbb adatot
    szerezzék be egyesek magánéletéről
  82. különböző forrásokból:
  83. családi háttér, vásárlási szokások,
    közösségimédia-kommentek.
  84. Majd ezeket az adatokat összegyűjtve
  85. adatvezérelt döntéseket hoznak
    az egyes emberekkel kapcsolatban.
  86. E technológiákat mindenütt használják.
  87. Bankok hitelek elbírálására,
  88. biztosítók díjak meghatározására,
  89. toborzók és munkáltatók használják,
  90. hogy eldöntsék, valaki megfelel-e
    az adott munkára vagy sem.
  91. A rendőrség és a bíróság is használja,
  92. hogy meghatározzák,
    valaki potenciális bűnöző-e,
  93. vagy mekkora esélye van,
    hogy újból bűntettet követ el.
  94. Nem ismerjük az eljárásokat,
    és befolyásunk sincs azok módszereire,

  95. akik adatainkat
    adják-veszik és feldolgozzák,
  96. hogyan profiloznak minket
    és gyermekeinket.
  97. Pedig ezek a profilok jelentős
    hatással lehetnek jogainkra.
  98. Egy példát említve,

  99. 2018-ban a The New York Timesban
    megjelent a hír,
  100. hogy főiskolai tervező szolgáltatások
  101. adatbrókereknek adták el az adatokat,
  102. amelyeket Amerika-szerte
    több millió középiskolás szokott megadni,
  103. főiskolai programok
  104. vagy ösztöndíjak iránt érdeklődve.
  105. Az oktatási adatbrókereket
    tanulmányozó Fordham kutatói felfedték,
  106. hogy ezek a cégek már
    kétéves gyerekeket is profiloztak
  107. különböző kategóriák,
  108. pl. etnikum, vallás, jómód,
  109. szociális ügyetlenség
  110. és még sok más véletlenszerű
    kategória alapján.
  111. Aztán e profilokat el is adják
  112. a gyerek nevével, lakcímével
    és elérhetőségi adataival együtt
  113. különféle cégeknek,
  114. többek között kereskedelmi-
    és karrierintézeteknek,
  115. diákhitel-
  116. és diákhitelkártya-cégeknek is.
  117. Tovább feszítve a határokat,
  118. a Fordham kutatói felkértek
    egy oktatási adatbrókert,
  119. hogy adjon listát 14–15 éves lányokról,
  120. akik családtervezési szolgáltatások
    iránt érdeklődnek.
  121. Az adatbróker vállalta a lista átadását.
  122. Képzeljék csak el, mennyire intim
    és tolakodó ez a gyermekeink számára.
  123. De az oktatási adatbrókerek példája
    valójában csak egy a sok közül.
  124. Az igazság az, hogy gyermekeinket
    ellenőrizhetetlen módon profilozzák,
  125. profiljaik mégis jelentős mértékben
    befolyásolhatják lehetőségeiket.
  126. Így hát fel kell tegyük a kérdést:

  127. megbízhatunk ezekben a technológiákban
    gyermekeink profilozását illetően?
  128. Bízhatunk bennük?
  129. Az én válaszom: nem.
  130. Antropológusként hiszem,
  131. hogy a mesterséges intelligencia
    és a prediktív elemzés remek lehet
  132. megbetegedések lefolyásának előrejelzésére
  133. vagy a klímaváltozás elleni harcban.
  134. De fel kell hagynunk a hiedelemmel,
  135. hogy ezek a technológiák objektíven
    tudnak emberi profilokat alkotni,
  136. hogy megbízhatók az adatvezérelt
    döntések meghozatalában
  137. adott emberek életére vonatkozóan.
  138. Mert nem tudnak embereket profilozni.
  139. Az adatnyomok nem tükrözik azt,
    akik vagyunk.
  140. Az emberek az ellenkezőjét gondolják,
    mint amit állítanak,
  141. mást éreznek és más szerint cselekednek.
  142. Algoritmusos előrejelzések
    és digitális szokásaink
  143. nem fedhetik le az emberi tapasztalás
    megjósolhatatlanságát és komplexitását.
  144. Ráadásul

  145. ezek a technológiák mindig,
  146. mindig,
  147. egyik vagy másik irányban részrehajlók.
  148. Az algoritmusok definíció szerint
    szabályok és lépések összessége,

  149. melyeket azért alkotnak,
    hogy adott eredményre jussanak.
  150. De ezek a szabályok és lépések
    nem lehetnek objektívek,
  151. mert ezeket emberek alkották
  152. meghatározott kulturális kontextusban,
  153. s adott kulturális értékek alakítják őket.
  154. Amikor gépek tanulnak,
  155. részrehajló algoritmusok alapján tanulnak,
  156. és gyakran részrehajló
    adatbázisokból is tanulnak.
  157. Ma már látni az algoritmikus
    részrehajlás első példáit.

  158. Néhány ezek közül elég rémisztő.
  159. A New York-i AI Now Kutatóintézet
    idén kiadott jelentése feltárta,
  160. hogy az AI-technológiákat,
  161. melyeket a prediktív rendfenntartásban
    alkalmaznak,
  162. “piszkos” adatok alapján képezték.
  163. Ezeket az adatokat
  164. köztudottan részrehajló és nem átlátható
  165. rendőri gyakorlattal jellemezhető
    korszakokban gyűjtöttek.
  166. Mivel ezeket a technológiákat
    piszkos adatok alapján tanítják,
  167. nem objektívek,
  168. így az eredményeik
    felerősítik és megvalósítják
  169. a rendőri részrehajlást és hibákat.
  170. Alapvető problémával állunk szemben

  171. társadalmunkban.
  172. Ami az emberek profilozását illeti,
    kezdünk technológiákban bízni.
  173. Tudjuk, hogy az emberek profilozásakor
  174. ezek a technológiák mindig
    részrehajlók lesznek,
  175. és sosem lesznek igazán pontosak.
  176. Ezért politikai megoldásra van szükség.
  177. A kormányoknak el kell ismerniük:
    adatainkhoz való jogunk emberi jog.
  178. (Taps és ujjongás)

  179. Amíg ez nem történik meg,
    nem remélhetünk igazságosabb jövőt.

  180. Aggódom, hogy a lányaim
  181. mindenféle algoritmikus diszkriminációnak
    és hibának lesznek kitéve.
  182. A különbség köztem és a lányaim között,
  183. hogy az én gyerekkoromról
    nincsen elérhető adat.
  184. Nincs adatbázis a sok hülyeségről,
  185. melyet még tinédzserként
    elkövettem vagy gondoltam.
  186. (Nevetés)

  187. De a lányaim esetében ez már más.

  188. A róluk ma gyűjtött adatot lehet,
  189. hogy a jövőben a megítélésükre használják,
  190. és reményeik s álmaik útjába is állhatnak.
  191. Úgy hiszem, itt az alkalom.

  192. Az alkalom, hogy fellépjünk.
  193. Az alkalom, hogy elkezdjük együttműködni
  194. mint egyének,
  195. mint szervezetek és intézmények,
  196. hogy szélesebb körű adatigazságosságot
    követeljünk
  197. saját magunk és gyermekeink számára is,
  198. még mielőtt nem túl késő.
  199. Köszönöm.

  200. (Taps)