Co firmy technologiczne wiedzą o twoich dzieciach
-
0:01 - 0:03Każdego dnia, każdego tygodnia,
-
0:03 - 0:05akceptujemy różne warunki.
-
0:05 - 0:07Robiąc to,
-
0:07 - 0:09udzielamy firmom prawa
-
0:09 - 0:13do dowolnego dysponowania naszymi danymi
-
0:13 - 0:15oraz danymi naszych dzieci.
-
0:17 - 0:20Dlatego też zastanawiamy się,
-
0:20 - 0:23jak wiele danych naszych dzieci oddajemy
-
0:23 - 0:25i jakie są tego konsekwencje?
-
0:26 - 0:28Jestem antropologiem
-
0:28 - 0:31oraz matką dwóch małych dziewczynek.
-
0:31 - 0:35Zaczęłam się interesować
tym problemem w roku 2015, -
0:35 - 0:39kiedy to nagle uświadomiłam sobie,
jak ogromna jest, prawie niewyobrażalna, -
0:39 - 0:44ilość danych produkowanych
i gromadzonych na temat dzieci. -
0:45 - 0:47Dlatego zaczęłam projekt badawczy,
-
0:47 - 0:49który nazwałam Child Data Citizen,
-
0:49 - 0:51żeby dowiedzieć się czegoś więcej.
-
0:53 - 0:56Możecie pomyśleć,
że jestem tu, żeby was obwiniać -
0:56 - 0:59za umieszczanie zdjęć swoich dzieci
w mediach społecznościowych, -
0:59 - 1:00ale nie o to chodzi.
-
1:00 - 1:03Problem jest o wiele większy
niż "sharenting", -
1:03 - 1:05czyli udostępnianie treści przez rodziców.
-
1:05 - 1:08Problem tkwi w systemie, nie w ludziach.
-
1:09 - 1:11Wy i wasze nawyki
nie jesteście temu winni. -
1:13 - 1:15Pierwszy raz w historii
-
1:16 - 1:18śledzimy dane osobowe dzieci
-
1:18 - 1:20jeszcze przed ich narodzinami,
-
1:20 - 1:23czasem od momentu poczęcia,
-
1:23 - 1:25a potem przez całe ich życie.
-
1:25 - 1:28Kiedy rodzice decydują się na dziecko,
-
1:28 - 1:31szukają w Internecie
sposobów na zajście w ciążę -
1:31 - 1:34albo ściągają aplikacje
do śledzenia owulacji. -
1:35 - 1:37Kiedy w końcu udaje się zajść w ciążę,
-
1:38 - 1:41zamieszczają USG swoich dzieci
w mediach społecznościowych, -
1:41 - 1:43ściągają aplikacje ciążowe
-
1:43 - 1:47albo konsultują się z doktorem Google
na temat różnych rzeczy, -
1:47 - 1:48takich jak
-
1:48 - 1:51ryzyko poronienia podczas lotu
-
1:51 - 1:54albo skurcze brzucha na początku ciąży.
-
1:54 - 1:55Wiem to, bo przez to przeszłam.
-
1:56 - 1:57Wiele razy.
-
1:58 - 2:00A kiedy dziecko się narodzi,
-
2:00 - 2:02monitorują każdą drzemkę, każde karmienie,
-
2:02 - 2:05każde wydarzenie,
za pomocą różnych technologii. -
2:06 - 2:08Te wszystkie technologie
-
2:08 - 2:13zamieniają najbardziej prywatne dane
o zachowaniu i zdrowiu dziecka w zysk -
2:14 - 2:16poprzez udostępnianie ich innym.
-
2:17 - 2:19Podam przykład tego, jak to działa.
-
2:19 - 2:23W roku 2019 British Medical Journal
opublikował badanie, -
2:23 - 2:27które pokazało, że spośród
24 mobilnych aplikacji zdrowotnych -
2:28 - 2:3119 udostępniało informacje innym firmom.
-
2:32 - 2:38Te z kolei udostępniały je
216 innym organizacjom. -
2:39 - 2:43Wśród tych 216 organizacji były tylko trzy
-
2:43 - 2:46które należały
do sektora opieki zdrowotnej. -
2:46 - 2:48Pozostałe firmy,
które miały dostęp do tych danych, -
2:48 - 2:50były dużymi firmami technologicznymi
-
2:50 - 2:53takimi jak Google, Facebook czy Oracle.
-
2:53 - 2:56Były wśród nich także agencje reklamowe
-
2:56 - 3:00oraz agencja sprawozdawczości kredytowej.
-
3:01 - 3:02Właśnie tak.
-
3:03 - 3:04Agencje reklamowe i kredytowe
-
3:04 - 3:08mogą być już w posiadaniu
danych na temat małych dzieci. -
3:09 - 3:13Mobilne aplikacje, wyszukiwania w sieci
oraz media społecznościowe -
3:13 - 3:15są tylko wierzchołkiem góry lodowej,
-
3:15 - 3:18ponieważ dzieci są śledzone
przez różnorakie technologie -
3:18 - 3:19w ich codziennym życiu.
-
3:19 - 3:23Są śledzone przez domowe urządzenia
i asystentów wirtualnych w domach. -
3:24 - 3:28Są śledzone przez platformy
i technologie edukacyjne w szkołach. -
3:28 - 3:30Są śledzone przez internetową
dokumentację medyczną -
3:30 - 3:32i portale internetowe
w gabinetach lekarskich. -
3:33 - 3:35Są śledzone przez zabawki
połączone z Internetem, -
3:35 - 3:36gry internetowe
-
3:36 - 3:39i wiele innych technologii.
-
3:40 - 3:42Podczas moich badań
-
3:42 - 3:46wielu rodziców pytało mnie: "I co z tego?
-
3:46 - 3:49Czy to ważne, że moje dzieci są śledzone?
-
3:50 - 3:51Nie mamy nic do ukrycia".
-
3:53 - 3:54Otóż to ma znaczenie.
-
3:55 - 4:00To ma znaczenie, bo dzisiaj
ludzie są nie tylko śledzeni, -
4:01 - 4:05ale także profilowani
na podstawie zebranych danych. -
4:05 - 4:09Używa się sztucznej inteligencji
i analizy prognostycznej, -
4:09 - 4:13żeby pozyskać jak największą
ilość danych na temat życia danej osoby, -
4:13 - 4:14opierając się o różne źródła:
-
4:15 - 4:17historię rodziny, nawyki zakupowe,
-
4:17 - 4:19komentarze w mediach społecznościowych.
-
4:19 - 4:22Następnie łączy się te dane
w celu wykorzystania ich -
4:22 - 4:24przy podejmowaniu decyzji
dotyczących danej osoby. -
4:25 - 4:28Te technologie są używane wszędzie.
-
4:28 - 4:30Banki używają ich
przy udzielaniu kredytów, -
4:31 - 4:33ubezpieczyciele - przy kalkulacji zniżek,
-
4:34 - 4:37a rekruterzy i pracodawcy używają ich,
-
4:37 - 4:39żeby sprawdzić,
czy ktoś nadaje się do pracy. -
4:41 - 4:44Także policja i sądy ich używają
-
4:44 - 4:47przy określaniu
potencjalnych kryminalistów -
4:47 - 4:51lub prawdopodobieństwa
ponownego popełnienia zbrodni. -
4:52 - 4:55Nie mamy żadnej wiedzy i kontroli nad tym,
-
4:55 - 5:00w jaki sposób ci, którzy kupują,
sprzedają i przetwarzają nasze dane -
5:00 - 5:03profilują nas i nasze dzieci.
-
5:04 - 5:07Jednak te profile mogą mieć
znaczący wpływ na nasze prawa. -
5:09 - 5:11Podam przykład.
-
5:14 - 5:18W roku 2018 "New York Times"
opublikował informacje, -
5:18 - 5:23że dane zebrane z internetowych
formularzy planowania edukacji, -
5:23 - 5:28wypełnianych przez miliony
amerykańskich licealistów, -
5:28 - 5:31którzy szukają szkoły lub stypendium,
-
5:31 - 5:35zostały sprzedane brokerom
danych edukacyjnych. -
5:36 - 5:41Ponadto naukowcy z uniwersytetu Fordham,
którzy zbadali brokerów z tego sektora, -
5:41 - 5:46ujawnili, że te firmy profilowały
nawet dwuletnie dzieci -
5:46 - 5:49na podstawie takich kategorii jak:
-
5:50 - 5:53pochodzenie etniczne, religia, zamożność,
-
5:54 - 5:55niedostosowanie społeczne
-
5:56 - 5:58oraz wiele innych losowych kategorii.
-
5:59 - 6:04Następnie sprzedają te profile
razem z danymi osobowymi dziecka, -
6:04 - 6:07ich adresem zamieszkania
i danymi kontaktowymi, -
6:07 - 6:09różnym firmom,
-
6:09 - 6:12między innymi agencjom handlu
i biurom karier, -
6:12 - 6:16firmom zajmującym się pożyczkami
i kartami kredytowymi dla studentów. -
6:17 - 6:18Żeby wyznaczyć nowe granice,
-
6:18 - 6:22naukowcy z Fordham poprosili
brokera danych edukacyjnych -
6:22 - 6:28o listę dziewczyn w wieku od 14 do 15 lat,
-
6:28 - 6:31które interesowały się usługami
w zakresie planowania rodziny. -
6:32 - 6:35Broker zgodził się
na dostarczenie takiej listy. -
6:35 - 6:40Wyobraźcie sobie, jak bardzo narusza to
prywatność naszych dzieci. -
6:41 - 6:45Ale brokerzy danych edukacyjnych
to tylko jeden z przykładów. -
6:45 - 6:46Prawda jest taka,
-
6:46 - 6:50że nie jesteśmy w stanie kontrolować,
w jaki sposób dzieci są profilowane, -
6:50 - 6:53a to może mieć
znaczący wpływ na ich życie. -
6:54 - 6:57Musimy zadać sobie pytanie:
-
6:58 - 7:02Czy możemy ufać tym technologiom
w kwestii profilowania naszych dzieci? -
7:02 - 7:04Możemy?
-
7:06 - 7:07Moja odpowiedź brzmi: nie.
-
7:08 - 7:09Jako antropolog wierzę,
-
7:09 - 7:12że sztuczna inteligencja
i analiza prognostyczna -
7:12 - 7:15mogą być bardzo pomocne
w przewidywaniu przebiegu choroby -
7:15 - 7:17albo w walce ze zmianami klimatycznymi.
-
7:18 - 7:20Jednak musimy porzucić wiarę w to,
-
7:20 - 7:23że te technologie
mogą obiektywnie profilować ludzi -
7:23 - 7:25i że możemy polegać na nich
-
7:25 - 7:28przy podejmowaniu
kluczowych decyzji życiowych, -
7:28 - 7:30dlatego, że one
nie potrafią profilować ludzi. -
7:31 - 7:34Dane nie są odbiciem lustrzanym
tego, kim jesteśmy. -
7:35 - 7:36Ludzie myślą jedno, a mówią drugie,
-
7:36 - 7:38postępują inaczej niż czują.
-
7:39 - 7:41Prognozy algorytmiczne
czy nasze praktyki cyfrowe -
7:41 - 7:47nie biorą pod uwagę nieprzewidywalności
oraz złożoności ludzkich doświadczeń. -
7:48 - 7:50Dodatkowo
-
7:50 - 7:53te technologie są zawsze,
-
7:53 - 7:54zawsze,
-
7:54 - 7:56w jakimś stopniu stronnicze.
-
7:57 - 8:02Algorytmy są z definicji
zbiorem zasad i instrukcji, -
8:02 - 8:06które zostały zaprojektowane
w konkretnym celu. -
8:07 - 8:09Jednak te zbiory zasad i instrukcji
nie są obiektywne, -
8:09 - 8:11ponieważ są zaprojektowane przez ludzi
-
8:11 - 8:13w konkretnym kontekście kulturowym
-
8:13 - 8:16i są ukształtowane
przez konkretne wartości kulturowe. -
8:17 - 8:18Kiedy maszyny się uczą,
-
8:18 - 8:21opierają się na stronniczych algorytmach,
-
8:21 - 8:24a często także na stronniczych
bazach danych. -
8:26 - 8:29Obecnie widzimy pierwsze przykłady
przechyłów algorytmicznych. -
8:29 - 8:33Niektóre z tych przykładów
są przerażające. -
8:34 - 8:39W tym roku instytut AI Now Institute
z Nowego Jorku opublikował raport, -
8:39 - 8:41który ujawnił, że technologie AI
-
8:41 - 8:44używane do prewencji przestępstw
-
8:44 - 8:47działały w oparciu o "brudne" dane.
-
8:48 - 8:51Są to dane zgromadzone
-
8:51 - 8:55w okresie wyraźnych uprzedzeń rasowych
-
8:55 - 8:58i nietransparentnych praktyk policyjnych.
-
8:59 - 9:03Ponieważ te technologie
używają "brudnych" danych, -
9:03 - 9:04nie są obiektywne,
-
9:04 - 9:09a rezultaty ich działań
tylko wzmacniają i przyczyniają się -
9:09 - 9:10do policyjnej stronniczości i pomyłek.
-
9:13 - 9:15Dlatego myślę, że stoimy
-
9:15 - 9:18w obliczu fundamentalnego problemu
naszego społeczeństwa. -
9:18 - 9:22Zaczynamy ufać technologiom,
jeśli chodzi o profilowanie ludzi. -
9:23 - 9:26Wiemy, że w profilowaniu ludzi,
-
9:26 - 9:29te technologie będą zawsze stronnicze
-
9:29 - 9:31i nigdy nie będą precyzyjne.
-
9:32 - 9:36Potrzebujemy politycznego
rozwiązania tego problemu. -
9:36 - 9:37Potrzebujemy rządów, które uznają,
-
9:37 - 9:40że ochrona danych to też prawa człowieka.
-
9:40 - 9:47(Brawa i wiwaty)
-
9:48 - 9:50Dopóki to się nie stanie,
nie możemy mieć nadziei -
9:50 - 9:52na bardziej sprawiedliwą przyszłość.
-
9:53 - 9:57Martwię się, że moje córki
będą narażone na różnego rodzaju -
9:57 - 9:59algorytmiczne pomyłki i dyskryminacje.
-
9:59 - 10:02Różnica pomiędzy mną
a moimi córkami jest taka, -
10:02 - 10:05że nie ma żadnego publicznego
rejestru danych z mojego dzieciństwa. -
10:05 - 10:08Na pewno nie ma żadnej
bazy danych z głupotami, -
10:08 - 10:11które robiłam i myślałam,
będąc nastolatką. -
10:11 - 10:13(Śmiech)
-
10:14 - 10:17W przypadku moich córek
może to wyglądać inaczej. -
10:17 - 10:20Dane, które są zbierane od nich dzisiaj,
-
10:21 - 10:24mogą być użyte w przyszłości do ich oceny,
-
10:24 - 10:27mogą zaprzepaścić ich nadzieje i marzenia.
-
10:28 - 10:30Myślę, że już czas,
-
10:30 - 10:32żebyśmy wszyscy wzmogli nasze działania.
-
10:32 - 10:34Czas, żebyśmy zaczęli współpracować,
-
10:34 - 10:38jako jednostki, organizacje i instytucje,
-
10:38 - 10:41i domagali się większej sprawiedliwości
związanej z naszymi danymi, -
10:41 - 10:43dla nas i dla naszych dzieci,
-
10:43 - 10:44nim będzie za późno.
-
10:44 - 10:45Dziękuję.
-
10:45 - 10:48(Brawa)
- Title:
- Co firmy technologiczne wiedzą o twoich dzieciach
- Speaker:
- Veronica Barassi
- Description:
-
„Platformy cyfrowe, których ty i twoja rodzina używacie każdego dnia, od gier internetowych aż po aplikacje edukacyjne i portale medyczne, mogą gromadzić i sprzedawać dane twoich dzieci”, mówi antropolog, Veronica Barassi. Dzieląc się swoim odkrywczym badaniem, Barassi nakłania rodziców, żeby zwrócili uwagę na cyfrowe warunki i zasady, zamiast ślepego ich akceptowania oraz żeby domagali się ochrony gwarantującej im, że dane ich dzieci nie wypaczą ich przyszłości.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Barbara Guzik approved Polish subtitles for What tech companies know about your kids | ||
Barbara Guzik edited Polish subtitles for What tech companies know about your kids | ||
Barbara Guzik edited Polish subtitles for What tech companies know about your kids | ||
Barbara Guzik edited Polish subtitles for What tech companies know about your kids | ||
Barbara Guzik accepted Polish subtitles for What tech companies know about your kids | ||
Dariusz Szczuraszek edited Polish subtitles for What tech companies know about your kids | ||
Kinga Skorupska declined Polish subtitles for What tech companies know about your kids | ||
Barbara Guzik edited Polish subtitles for What tech companies know about your kids |