1 00:00:00,792 --> 00:00:03,059 Każdego dnia, każdego tygodnia, 2 00:00:03,059 --> 00:00:05,268 akceptujemy różne warunki. 3 00:00:05,268 --> 00:00:06,768 Robiąc to, 4 00:00:06,768 --> 00:00:09,268 udzielamy firmom prawa 5 00:00:09,268 --> 00:00:12,976 do dowolnego dysponowania naszymi danymi 6 00:00:12,976 --> 00:00:15,375 oraz danymi naszych dzieci. 7 00:00:16,792 --> 00:00:19,768 Dlatego też zastanawiamy się, 8 00:00:19,768 --> 00:00:22,684 jak wiele danych naszych dzieci oddajemy 9 00:00:22,684 --> 00:00:24,818 i jakie są tego konsekwencje? 10 00:00:26,500 --> 00:00:27,893 Jestem antropologiem 11 00:00:27,893 --> 00:00:30,518 oraz matką dwóch małych dziewczynek. 12 00:00:30,518 --> 00:00:35,018 Zaczęłam się interesować tym problemem w roku 2015, 13 00:00:35,018 --> 00:00:39,446 kiedy to nagle uświadomiłam sobie, jak ogromna jest, prawie niewyobrażalna, 14 00:00:39,446 --> 00:00:44,020 ilość danych produkowanych i gromadzonych na temat dzieci. 15 00:00:44,792 --> 00:00:46,792 Dlatego zaczęłam projekt badawczy, 16 00:00:46,792 --> 00:00:49,268 który nazwałam Child Data Citizen, 17 00:00:49,268 --> 00:00:51,407 żeby dowiedzieć się czegoś więcej. 18 00:00:52,583 --> 00:00:55,601 Możecie pomyśleć, że jestem tu, żeby was obwiniać 19 00:00:55,601 --> 00:00:58,597 za umieszczanie zdjęć swoich dzieci w mediach społecznościowych, 20 00:00:58,597 --> 00:00:59,995 ale nie o to chodzi. 21 00:01:00,415 --> 00:01:02,653 Problem jest o wiele większy niż "sharenting", 22 00:01:02,653 --> 00:01:04,673 czyli udostępnianie treści przez rodziców. 23 00:01:04,673 --> 00:01:08,430 Problem tkwi w systemie, nie w ludziach. 24 00:01:08,781 --> 00:01:11,315 Wy i wasze nawyki nie jesteście temu winni. 25 00:01:13,080 --> 00:01:15,462 Pierwszy raz w historii 26 00:01:15,882 --> 00:01:18,192 śledzimy dane osobowe dzieci 27 00:01:18,192 --> 00:01:20,092 jeszcze przed ich narodzinami, 28 00:01:20,092 --> 00:01:22,829 czasem od momentu poczęcia, 29 00:01:22,829 --> 00:01:25,284 a potem przez całe ich życie. 30 00:01:25,284 --> 00:01:27,865 Kiedy rodzice decydują się na dziecko, 31 00:01:27,865 --> 00:01:30,966 szukają w Internecie sposobów na zajście w ciążę 32 00:01:30,966 --> 00:01:33,942 albo ściągają aplikacje do śledzenia owulacji. 33 00:01:35,192 --> 00:01:37,472 Kiedy w końcu udaje się zajść w ciążę, 34 00:01:37,915 --> 00:01:40,966 zamieszczają USG swoich dzieci w mediach społecznościowych, 35 00:01:41,046 --> 00:01:42,833 ściągają aplikacje ciążowe 36 00:01:43,043 --> 00:01:46,828 albo konsultują się z doktorem Google na temat różnych rzeczy, 37 00:01:46,828 --> 00:01:48,449 takich jak 38 00:01:48,449 --> 00:01:50,927 ryzyko poronienia podczas lotu 39 00:01:50,927 --> 00:01:53,616 albo skurcze brzucha na początku ciąży. 40 00:01:53,746 --> 00:01:55,371 Wiem to, bo przez to przeszłam. 41 00:01:55,608 --> 00:01:57,298 Wiele razy. 42 00:01:58,412 --> 00:02:00,099 A kiedy dziecko się narodzi, 43 00:02:00,099 --> 00:02:02,123 monitorują każdą drzemkę, każde karmienie, 44 00:02:02,123 --> 00:02:05,209 każde wydarzenie, za pomocą różnych technologii. 45 00:02:06,079 --> 00:02:07,741 Te wszystkie technologie 46 00:02:07,741 --> 00:02:13,215 zamieniają najbardziej prywatne dane o zachowaniu i zdrowiu dziecka w zysk 47 00:02:13,793 --> 00:02:15,506 poprzez udostępnianie ich innym. 48 00:02:16,520 --> 00:02:18,775 Podam przykład tego, jak to działa. 49 00:02:18,775 --> 00:02:22,925 W roku 2019 British Medical Journal opublikował badanie, 50 00:02:23,296 --> 00:02:27,184 które pokazało, że spośród 24 mobilnych aplikacji zdrowotnych 51 00:02:27,703 --> 00:02:31,293 19 udostępniało informacje innym firmom. 52 00:02:31,930 --> 00:02:37,964 Te z kolei udostępniały je 216 innym organizacjom. 53 00:02:38,753 --> 00:02:43,197 Wśród tych 216 organizacji były tylko trzy 54 00:02:43,197 --> 00:02:45,500 które należały do sektora opieki zdrowotnej. 55 00:02:45,500 --> 00:02:48,078 Pozostałe firmy, które miały dostęp do tych danych, 56 00:02:48,078 --> 00:02:49,902 były dużymi firmami technologicznymi 57 00:02:49,902 --> 00:02:53,114 takimi jak Google, Facebook czy Oracle. 58 00:02:53,495 --> 00:02:55,929 Były wśród nich także agencje reklamowe 59 00:02:55,929 --> 00:03:00,297 oraz agencja sprawozdawczości kredytowej. 60 00:03:01,019 --> 00:03:02,148 Właśnie tak. 61 00:03:02,547 --> 00:03:04,293 Agencje reklamowe i kredytowe 62 00:03:04,293 --> 00:03:07,794 mogą być już w posiadaniu danych na temat małych dzieci. 63 00:03:09,033 --> 00:03:12,919 Mobilne aplikacje, wyszukiwania w sieci oraz media społecznościowe 64 00:03:12,919 --> 00:03:15,038 są tylko wierzchołkiem góry lodowej, 65 00:03:15,038 --> 00:03:17,672 ponieważ dzieci są śledzone przez różnorakie technologie 66 00:03:17,672 --> 00:03:19,169 w ich codziennym życiu. 67 00:03:19,423 --> 00:03:23,471 Są śledzone przez domowe urządzenia i asystentów wirtualnych w domach. 68 00:03:23,672 --> 00:03:27,557 Są śledzone przez platformy i technologie edukacyjne w szkołach. 69 00:03:27,812 --> 00:03:30,207 Są śledzone przez internetową dokumentację medyczną 70 00:03:30,207 --> 00:03:32,444 i portale internetowe w gabinetach lekarskich. 71 00:03:32,618 --> 00:03:35,107 Są śledzone przez zabawki połączone z Internetem, 72 00:03:35,107 --> 00:03:36,114 gry internetowe 73 00:03:36,114 --> 00:03:39,081 i wiele innych technologii. 74 00:03:40,426 --> 00:03:41,883 Podczas moich badań 75 00:03:41,911 --> 00:03:45,513 wielu rodziców pytało mnie: "I co z tego? 76 00:03:46,032 --> 00:03:48,735 Czy to ważne, że moje dzieci są śledzone? 77 00:03:50,055 --> 00:03:51,475 Nie mamy nic do ukrycia". 78 00:03:52,893 --> 00:03:54,156 Otóż to ma znaczenie. 79 00:03:54,825 --> 00:04:00,379 To ma znaczenie, bo dzisiaj ludzie są nie tylko śledzeni, 80 00:04:01,000 --> 00:04:04,809 ale także profilowani na podstawie zebranych danych. 81 00:04:05,173 --> 00:04:08,965 Używa się sztucznej inteligencji i analizy prognostycznej, 82 00:04:08,965 --> 00:04:12,572 żeby pozyskać jak największą ilość danych na temat życia danej osoby, 83 00:04:12,572 --> 00:04:14,237 opierając się o różne źródła: 84 00:04:14,559 --> 00:04:17,027 historię rodziny, nawyki zakupowe, 85 00:04:17,027 --> 00:04:18,917 komentarze w mediach społecznościowych. 86 00:04:19,182 --> 00:04:21,647 Następnie łączy się te dane w celu wykorzystania ich 87 00:04:21,647 --> 00:04:24,096 przy podejmowaniu decyzji dotyczących danej osoby. 88 00:04:24,810 --> 00:04:27,981 Te technologie są używane wszędzie. 89 00:04:28,197 --> 00:04:30,195 Banki używają ich przy udzielaniu kredytów, 90 00:04:30,625 --> 00:04:33,101 ubezpieczyciele - przy kalkulacji zniżek, 91 00:04:34,244 --> 00:04:36,589 a rekruterzy i pracodawcy używają ich, 92 00:04:36,589 --> 00:04:39,417 żeby sprawdzić, czy ktoś nadaje się do pracy. 93 00:04:40,975 --> 00:04:43,552 Także policja i sądy ich używają 94 00:04:43,552 --> 00:04:47,309 przy określaniu potencjalnych kryminalistów 95 00:04:47,309 --> 00:04:51,369 lub prawdopodobieństwa ponownego popełnienia zbrodni. 96 00:04:52,202 --> 00:04:54,914 Nie mamy żadnej wiedzy i kontroli nad tym, 97 00:04:55,341 --> 00:05:00,210 w jaki sposób ci, którzy kupują, sprzedają i przetwarzają nasze dane 98 00:05:00,210 --> 00:05:03,030 profilują nas i nasze dzieci. 99 00:05:03,547 --> 00:05:07,488 Jednak te profile mogą mieć znaczący wpływ na nasze prawa. 100 00:05:08,872 --> 00:05:11,161 Podam przykład. 101 00:05:13,760 --> 00:05:17,566 W roku 2018 "New York Times" opublikował informacje, 102 00:05:17,566 --> 00:05:22,609 że dane zebrane z internetowych formularzy planowania edukacji, 103 00:05:22,609 --> 00:05:27,659 wypełnianych przez miliony amerykańskich licealistów, 104 00:05:27,659 --> 00:05:30,732 którzy szukają szkoły lub stypendium, 105 00:05:31,295 --> 00:05:34,547 zostały sprzedane brokerom danych edukacyjnych. 106 00:05:35,792 --> 00:05:41,226 Ponadto naukowcy z uniwersytetu Fordham, którzy zbadali brokerów z tego sektora, 107 00:05:41,226 --> 00:05:46,500 ujawnili, że te firmy profilowały nawet dwuletnie dzieci 108 00:05:46,500 --> 00:05:48,866 na podstawie takich kategorii jak: 109 00:05:49,583 --> 00:05:53,274 pochodzenie etniczne, religia, zamożność, 110 00:05:53,792 --> 00:05:55,491 niedostosowanie społeczne 111 00:05:55,875 --> 00:05:58,338 oraz wiele innych losowych kategorii. 112 00:05:58,833 --> 00:06:03,851 Następnie sprzedają te profile razem z danymi osobowymi dziecka, 113 00:06:03,851 --> 00:06:06,708 ich adresem zamieszkania i danymi kontaktowymi, 114 00:06:06,708 --> 00:06:08,559 różnym firmom, 115 00:06:08,559 --> 00:06:12,082 między innymi agencjom handlu i biurom karier, 116 00:06:12,082 --> 00:06:15,722 firmom zajmującym się pożyczkami i kartami kredytowymi dla studentów. 117 00:06:16,542 --> 00:06:17,917 Żeby wyznaczyć nowe granice, 118 00:06:17,917 --> 00:06:21,750 naukowcy z Fordham poprosili brokera danych edukacyjnych 119 00:06:21,750 --> 00:06:27,559 o listę dziewczyn w wieku od 14 do 15 lat, 120 00:06:27,559 --> 00:06:30,958 które interesowały się usługami w zakresie planowania rodziny. 121 00:06:32,208 --> 00:06:34,708 Broker zgodził się na dostarczenie takiej listy. 122 00:06:34,708 --> 00:06:39,868 Wyobraźcie sobie, jak bardzo narusza to prywatność naszych dzieci. 123 00:06:40,830 --> 00:06:44,886 Ale brokerzy danych edukacyjnych to tylko jeden z przykładów. 124 00:06:44,886 --> 00:06:45,890 Prawda jest taka, 125 00:06:45,890 --> 00:06:49,632 że nie jesteśmy w stanie kontrolować, w jaki sposób dzieci są profilowane, 126 00:06:49,632 --> 00:06:53,008 a to może mieć znaczący wpływ na ich życie. 127 00:06:54,167 --> 00:06:56,864 Musimy zadać sobie pytanie: 128 00:06:57,667 --> 00:07:02,375 Czy możemy ufać tym technologiom w kwestii profilowania naszych dzieci? 129 00:07:02,375 --> 00:07:03,625 Możemy? 130 00:07:05,665 --> 00:07:06,989 Moja odpowiedź brzmi: nie. 131 00:07:07,597 --> 00:07:08,817 Jako antropolog wierzę, 132 00:07:08,817 --> 00:07:11,804 że sztuczna inteligencja i analiza prognostyczna 133 00:07:11,804 --> 00:07:14,932 mogą być bardzo pomocne w przewidywaniu przebiegu choroby 134 00:07:14,932 --> 00:07:16,810 albo w walce ze zmianami klimatycznymi. 135 00:07:17,927 --> 00:07:19,711 Jednak musimy porzucić wiarę w to, 136 00:07:19,711 --> 00:07:23,074 że te technologie mogą obiektywnie profilować ludzi 137 00:07:23,074 --> 00:07:24,967 i że możemy polegać na nich 138 00:07:24,967 --> 00:07:27,756 przy podejmowaniu kluczowych decyzji życiowych, 139 00:07:28,323 --> 00:07:30,474 dlatego, że one nie potrafią profilować ludzi. 140 00:07:31,068 --> 00:07:33,839 Dane nie są odbiciem lustrzanym tego, kim jesteśmy. 141 00:07:34,503 --> 00:07:36,338 Ludzie myślą jedno, a mówią drugie, 142 00:07:36,338 --> 00:07:38,416 postępują inaczej niż czują. 143 00:07:38,982 --> 00:07:41,478 Prognozy algorytmiczne czy nasze praktyki cyfrowe 144 00:07:41,478 --> 00:07:46,706 nie biorą pod uwagę nieprzewidywalności oraz złożoności ludzkich doświadczeń. 145 00:07:48,412 --> 00:07:49,586 Dodatkowo 146 00:07:49,948 --> 00:07:52,666 te technologie są zawsze, 147 00:07:52,666 --> 00:07:53,817 zawsze, 148 00:07:53,817 --> 00:07:56,029 w jakimś stopniu stronnicze. 149 00:07:56,948 --> 00:08:02,067 Algorytmy są z definicji zbiorem zasad i instrukcji, 150 00:08:02,067 --> 00:08:05,700 które zostały zaprojektowane w konkretnym celu. 151 00:08:06,783 --> 00:08:09,392 Jednak te zbiory zasad i instrukcji nie są obiektywne, 152 00:08:09,392 --> 00:08:11,293 ponieważ są zaprojektowane przez ludzi 153 00:08:11,293 --> 00:08:13,262 w konkretnym kontekście kulturowym 154 00:08:13,262 --> 00:08:15,918 i są ukształtowane przez konkretne wartości kulturowe. 155 00:08:16,537 --> 00:08:18,247 Kiedy maszyny się uczą, 156 00:08:18,247 --> 00:08:20,755 opierają się na stronniczych algorytmach, 157 00:08:21,413 --> 00:08:24,469 a często także na stronniczych bazach danych. 158 00:08:25,813 --> 00:08:29,033 Obecnie widzimy pierwsze przykłady przechyłów algorytmicznych. 159 00:08:29,313 --> 00:08:32,840 Niektóre z tych przykładów są przerażające. 160 00:08:34,433 --> 00:08:38,556 W tym roku instytut AI Now Institute z Nowego Jorku opublikował raport, 161 00:08:38,556 --> 00:08:40,994 który ujawnił, że technologie AI 162 00:08:40,994 --> 00:08:44,119 używane do prewencji przestępstw 163 00:08:44,119 --> 00:08:47,461 działały w oparciu o "brudne" dane. 164 00:08:48,221 --> 00:08:51,250 Są to dane zgromadzone 165 00:08:51,250 --> 00:08:55,434 w okresie wyraźnych uprzedzeń rasowych 166 00:08:55,434 --> 00:08:57,868 i nietransparentnych praktyk policyjnych. 167 00:08:58,542 --> 00:09:02,601 Ponieważ te technologie używają "brudnych" danych, 168 00:09:02,601 --> 00:09:04,083 nie są obiektywne, 169 00:09:04,083 --> 00:09:08,601 a rezultaty ich działań tylko wzmacniają i przyczyniają się 170 00:09:08,601 --> 00:09:10,420 do policyjnej stronniczości i pomyłek. 171 00:09:13,167 --> 00:09:14,899 Dlatego myślę, że stoimy 172 00:09:14,899 --> 00:09:17,976 w obliczu fundamentalnego problemu naszego społeczeństwa. 173 00:09:17,976 --> 00:09:22,300 Zaczynamy ufać technologiom, jeśli chodzi o profilowanie ludzi. 174 00:09:23,280 --> 00:09:26,290 Wiemy, że w profilowaniu ludzi, 175 00:09:26,290 --> 00:09:28,672 te technologie będą zawsze stronnicze 176 00:09:28,672 --> 00:09:31,111 i nigdy nie będą precyzyjne. 177 00:09:31,775 --> 00:09:35,513 Potrzebujemy politycznego rozwiązania tego problemu. 178 00:09:35,513 --> 00:09:37,142 Potrzebujemy rządów, które uznają, 179 00:09:37,142 --> 00:09:39,650 że ochrona danych to też prawa człowieka. 180 00:09:40,491 --> 00:09:46,601 (Brawa i wiwaty) 181 00:09:47,673 --> 00:09:50,417 Dopóki to się nie stanie, nie możemy mieć nadziei 182 00:09:50,417 --> 00:09:52,143 na bardziej sprawiedliwą przyszłość. 183 00:09:52,790 --> 00:09:56,516 Martwię się, że moje córki będą narażone na różnego rodzaju 184 00:09:56,516 --> 00:09:58,909 algorytmiczne pomyłki i dyskryminacje. 185 00:09:59,207 --> 00:10:01,901 Różnica pomiędzy mną a moimi córkami jest taka, 186 00:10:01,901 --> 00:10:05,069 że nie ma żadnego publicznego rejestru danych z mojego dzieciństwa. 187 00:10:05,069 --> 00:10:08,369 Na pewno nie ma żadnej bazy danych z głupotami, 188 00:10:08,369 --> 00:10:11,289 które robiłam i myślałam, będąc nastolatką. 189 00:10:11,289 --> 00:10:13,034 (Śmiech) 190 00:10:13,724 --> 00:10:16,523 W przypadku moich córek może to wyglądać inaczej. 191 00:10:17,103 --> 00:10:20,062 Dane, które są zbierane od nich dzisiaj, 192 00:10:20,502 --> 00:10:23,740 mogą być użyte w przyszłości do ich oceny, 193 00:10:24,185 --> 00:10:27,249 mogą zaprzepaścić ich nadzieje i marzenia. 194 00:10:28,063 --> 00:10:29,689 Myślę, że już czas, 195 00:10:29,689 --> 00:10:32,164 żebyśmy wszyscy wzmogli nasze działania. 196 00:10:32,164 --> 00:10:34,421 Czas, żebyśmy zaczęli współpracować, 197 00:10:34,421 --> 00:10:37,968 jako jednostki, organizacje i instytucje, 198 00:10:37,968 --> 00:10:41,201 i domagali się większej sprawiedliwości związanej z naszymi danymi, 199 00:10:41,201 --> 00:10:42,719 dla nas i dla naszych dzieci, 200 00:10:42,719 --> 00:10:43,854 nim będzie za późno. 201 00:10:44,086 --> 00:10:45,082 Dziękuję. 202 00:10:45,082 --> 00:10:47,778 (Brawa)