Polish 字幕

← Co firmy technologiczne wiedzą o twoich dzieciach

埋め込みコードを取得する
36言語

Showing Revision 25 created 07/29/2020 by Barbara Guzik.

  1. Każdego dnia, każdego tygodnia,
  2. akceptujemy różne warunki.
  3. Robiąc to,
  4. udzielamy firmom prawa
  5. do dowolnego dysponowania naszymi danymi
  6. oraz danymi naszych dzieci.
  7. Dlatego też zastanawiamy się,
  8. jak wiele danych naszych dzieci oddajemy
  9. i jakie są tego konsekwencje?
  10. Jestem antropologiem

  11. oraz matką dwóch małych dziewczynek.
  12. Zaczęłam się interesować
    tym problemem w roku 2015,
  13. kiedy to nagle uświadomiłam sobie,
    jak ogromna jest, prawie niewyobrażalna,

  14. ilość danych produkowanych
    i gromadzonych na temat dzieci.
  15. Dlatego zaczęłam projekt badawczy,
  16. który nazwałam Child Data Citizen,
  17. żeby dowiedzieć się czegoś więcej.
  18. Możecie pomyśleć,
    że jestem tu, żeby was obwiniać

  19. za umieszczanie zdjęć swoich dzieci
    w mediach społecznościowych,
  20. ale nie o to chodzi.
  21. Problem jest o wiele większy
    niż "sharenting",
  22. czyli udostępnianie treści przez rodziców.
  23. Problem tkwi w systemie, nie w ludziach.
  24. Wy i wasze nawyki
    nie jesteście temu winni.
  25. Pierwszy raz w historii
  26. śledzimy dane osobowe dzieci

  27. jeszcze przed ich narodzinami,
  28. czasem od momentu poczęcia,
  29. a potem przez całe ich życie.
  30. Kiedy rodzice decydują się na dziecko,
  31. szukają w Internecie
    sposobów na zajście w ciążę
  32. albo ściągają aplikacje
    do śledzenia owulacji.
  33. Kiedy w końcu udaje się zajść w ciążę,
  34. zamieszczają USG swoich dzieci
    w mediach społecznościowych,
  35. ściągają aplikacje ciążowe
  36. albo konsultują się z doktorem Google
    na temat różnych rzeczy,
  37. takich jak
  38. ryzyko poronienia podczas lotu
  39. albo skurcze brzucha na początku ciąży.
  40. Wiem to, bo przez to przeszłam.
  41. Wiele razy.
  42. A kiedy dziecko się narodzi,
  43. monitorują każdą drzemkę, każde karmienie,
  44. każde wydarzenie,
    za pomocą różnych technologii.
  45. Te wszystkie technologie
  46. zamieniają najbardziej prywatne dane
    o zachowaniu i zdrowiu dziecka w zysk
  47. poprzez udostępnianie ich innym.

  48. Podam przykład tego, jak to działa.
  49. W roku 2019 British Medical Journal
    opublikował badanie,
  50. które pokazało, że spośród
    24 mobilnych aplikacji zdrowotnych
  51. 19 udostępniało informacje innym firmom.
  52. Te z kolei udostępniały je
    216 innym organizacjom.
  53. Wśród tych 216 organizacji były tylko trzy
  54. które należały
    do sektora opieki zdrowotnej.
  55. Pozostałe firmy,
    które miały dostęp do tych danych,
  56. były dużymi firmami technologicznymi
  57. takimi jak Google, Facebook czy Oracle.
  58. Były wśród nich także agencje reklamowe
  59. oraz agencja sprawozdawczości kredytowej.
  60. Właśnie tak.
  61. Agencje reklamowe i kredytowe
  62. mogą być już w posiadaniu
    danych na temat małych dzieci.
  63. Mobilne aplikacje, wyszukiwania w sieci
    oraz media społecznościowe
  64. są tylko wierzchołkiem góry lodowej,
  65. ponieważ dzieci są śledzone
    przez różnorakie technologie
  66. w ich codziennym życiu.
  67. Są śledzone przez domowe urządzenia
    i asystentów wirtualnych w domach.
  68. Są śledzone przez platformy
    i technologie edukacyjne w szkołach.
  69. Są śledzone przez internetową
    dokumentację medyczną
  70. i portale internetowe
    w gabinetach lekarskich.
  71. Są śledzone przez zabawki
    połączone z Internetem,
  72. gry internetowe
  73. i wiele innych technologii.
  74. Podczas moich badań

  75. wielu rodziców pytało mnie: "I co z tego?
  76. Czy to ważne, że moje dzieci są śledzone?
  77. Nie mamy nic do ukrycia".
  78. Otóż to ma znaczenie.
  79. To ma znaczenie, bo dzisiaj
    ludzie są nie tylko śledzeni,
  80. ale także profilowani
    na podstawie zebranych danych.
  81. Używa się sztucznej inteligencji
    i analizy prognostycznej,
  82. żeby pozyskać jak największą
    ilość danych na temat życia danej osoby,
  83. opierając się o różne źródła:
  84. historię rodziny, nawyki zakupowe,
  85. komentarze w mediach społecznościowych.
  86. Następnie łączy się te dane
    w celu wykorzystania ich
  87. przy podejmowaniu decyzji
    dotyczących danej osoby.
  88. Te technologie są używane wszędzie.
  89. Banki używają ich
    przy udzielaniu kredytów,
  90. ubezpieczyciele - przy kalkulacji zniżek,
  91. a rekruterzy i pracodawcy używają ich,
  92. żeby sprawdzić,
    czy ktoś nadaje się do pracy.
  93. Także policja i sądy ich używają
  94. przy określaniu
    potencjalnych kryminalistów
  95. lub prawdopodobieństwa
    ponownego popełnienia zbrodni.

  96. Nie mamy żadnej wiedzy i kontroli nad tym,
  97. w jaki sposób ci, którzy kupują,
    sprzedają i przetwarzają nasze dane
  98. profilują nas i nasze dzieci.
  99. Jednak te profile mogą mieć
    znaczący wpływ na nasze prawa.

  100. Podam przykład.
  101. W roku 2018 "New York Times"
    opublikował informacje,
  102. że dane zebrane z internetowych
    formularzy planowania edukacji,
  103. wypełnianych przez miliony
    amerykańskich licealistów,
  104. którzy szukają szkoły lub stypendium,
  105. zostały sprzedane brokerom
    danych edukacyjnych.
  106. Ponadto naukowcy z uniwersytetu Fordham,
    którzy zbadali brokerów z tego sektora,
  107. ujawnili, że te firmy profilowały
    nawet dwuletnie dzieci
  108. na podstawie takich kategorii jak:
  109. pochodzenie etniczne, religia, zamożność,
  110. niedostosowanie społeczne
  111. oraz wiele innych losowych kategorii.
  112. Następnie sprzedają te profile
    razem z danymi osobowymi dziecka,
  113. ich adresem zamieszkania
    i danymi kontaktowymi,
  114. różnym firmom,
  115. między innymi agencjom handlu
    i biurom karier,
  116. firmom zajmującym się pożyczkami
    i kartami kredytowymi dla studentów.
  117. Żeby wyznaczyć nowe granice,
  118. naukowcy z Fordham poprosili
    brokera danych edukacyjnych
  119. o listę dziewczyn w wieku od 14 do 15 lat,
  120. które interesowały się usługami
    w zakresie planowania rodziny.
  121. Broker zgodził się
    na dostarczenie takiej listy.
  122. Wyobraźcie sobie, jak bardzo narusza to
    prywatność naszych dzieci.
  123. Ale brokerzy danych edukacyjnych
    to tylko jeden z przykładów.
  124. Prawda jest taka,
  125. że nie jesteśmy w stanie kontrolować,
    w jaki sposób dzieci są profilowane,
  126. a to może mieć
    znaczący wpływ na ich życie.
  127. Musimy zadać sobie pytanie:

  128. Czy możemy ufać tym technologiom
    w kwestii profilowania naszych dzieci?
  129. Możemy?
  130. Moja odpowiedź brzmi: nie.
  131. Jako antropolog wierzę,
  132. że sztuczna inteligencja
    i analiza prognostyczna
  133. mogą być bardzo pomocne
    w przewidywaniu przebiegu choroby
  134. albo w walce ze zmianami klimatycznymi.
  135. Jednak musimy porzucić wiarę w to,
  136. że te technologie
    mogą obiektywnie profilować ludzi
  137. i że możemy polegać na nich
  138. przy podejmowaniu
    kluczowych decyzji życiowych,
  139. dlatego, że one
    nie potrafią profilować ludzi.
  140. Dane nie są odbiciem lustrzanym
    tego, kim jesteśmy.
  141. Ludzie myślą jedno, a mówią drugie,
  142. postępują inaczej niż czują.
  143. Prognozy algorytmiczne
    czy nasze praktyki cyfrowe
  144. nie biorą pod uwagę nieprzewidywalności
    oraz złożoności ludzkich doświadczeń.

  145. Dodatkowo
  146. te technologie są zawsze,
  147. zawsze,
  148. w jakimś stopniu stronnicze.
  149. Algorytmy są z definicji
    zbiorem zasad i instrukcji,
  150. które zostały zaprojektowane
    w konkretnym celu.
  151. Jednak te zbiory zasad i instrukcji
    nie są obiektywne,
  152. ponieważ są zaprojektowane przez ludzi
  153. w konkretnym kontekście kulturowym
  154. i są ukształtowane
    przez konkretne wartości kulturowe.
  155. Kiedy maszyny się uczą,
  156. opierają się na stronniczych algorytmach,
  157. a często także na stronniczych
    bazach danych.

  158. Obecnie widzimy pierwsze przykłady
    przechyłów algorytmicznych.
  159. Niektóre z tych przykładów
    są przerażające.
  160. W tym roku instytut AI Now Institute
    z Nowego Jorku opublikował raport,
  161. który ujawnił, że technologie AI
  162. używane do prewencji przestępstw
  163. działały w oparciu o "brudne" dane.
  164. Są to dane zgromadzone
  165. w okresie wyraźnych uprzedzeń rasowych
  166. i nietransparentnych praktyk policyjnych.
  167. Ponieważ te technologie
    używają "brudnych" danych,
  168. nie są obiektywne,
  169. a rezultaty ich działań
    tylko wzmacniają i przyczyniają się
  170. do policyjnej stronniczości i pomyłek.
  171. Dlatego myślę, że stoimy

  172. w obliczu fundamentalnego problemu
    naszego społeczeństwa.
  173. Zaczynamy ufać technologiom,
    jeśli chodzi o profilowanie ludzi.
  174. Wiemy, że w profilowaniu ludzi,
  175. te technologie będą zawsze stronnicze
  176. i nigdy nie będą precyzyjne.
  177. Potrzebujemy politycznego
    rozwiązania tego problemu.
  178. Potrzebujemy rządów, które uznają,
  179. że ochrona danych to też prawa człowieka.

  180. (Brawa i wiwaty)
  181. Dopóki to się nie stanie,
    nie możemy mieć nadziei

  182. na bardziej sprawiedliwą przyszłość.
  183. Martwię się, że moje córki
    będą narażone na różnego rodzaju
  184. algorytmiczne pomyłki i dyskryminacje.
  185. Różnica pomiędzy mną
    a moimi córkami jest taka,
  186. że nie ma żadnego publicznego
    rejestru danych z mojego dzieciństwa.
  187. Na pewno nie ma żadnej
    bazy danych z głupotami,
  188. które robiłam i myślałam,
    będąc nastolatką.

  189. (Śmiech)
  190. W przypadku moich córek
    może to wyglądać inaczej.
  191. Dane, które są zbierane od nich dzisiaj,
  192. mogą być użyte w przyszłości do ich oceny,

  193. mogą zaprzepaścić ich nadzieje i marzenia.
  194. Myślę, że już czas,
  195. żebyśmy wszyscy wzmogli nasze działania.
  196. Czas, żebyśmy zaczęli współpracować,
  197. jako jednostki, organizacje i instytucje,
  198. i domagali się większej sprawiedliwości
    związanej z naszymi danymi,
  199. dla nas i dla naszych dzieci,
  200. nim będzie za późno.

  201. Dziękuję.
  202. (Brawa)