Return to Video

Co firmy technologiczne wiedzą o twoich dzieciach

  • 0:01 - 0:03
    Każdego dnia, każdego tygodnia,
  • 0:03 - 0:05
    akceptujemy różne warunki.
  • 0:05 - 0:07
    Robiąc to,
  • 0:07 - 0:09
    udzielamy firmom prawa
  • 0:09 - 0:13
    do dowolnego dysponowania naszymi danymi
  • 0:13 - 0:15
    oraz danymi naszych dzieci.
  • 0:17 - 0:20
    Dlatego też zastanawiamy się,
  • 0:20 - 0:23
    jak wiele danych naszych dzieci oddajemy
  • 0:23 - 0:25
    i jakie są tego konsekwencje?
  • 0:26 - 0:28
    Jestem antropologiem
  • 0:28 - 0:31
    oraz matką dwóch małych dziewczynek.
  • 0:31 - 0:35
    Zaczęłam się interesować
    tym problemem w roku 2015,
  • 0:35 - 0:39
    kiedy to nagle uświadomiłam sobie,
    jak ogromna jest, prawie niewyobrażalna,
  • 0:39 - 0:44
    ilość danych produkowanych
    i gromadzonych na temat dzieci.
  • 0:45 - 0:47
    Dlatego zaczęłam projekt badawczy,
  • 0:47 - 0:49
    który nazwałam Child Data Citizen,
  • 0:49 - 0:51
    żeby dowiedzieć się czegoś więcej.
  • 0:53 - 0:56
    Możecie pomyśleć,
    że jestem tu, żeby was obwiniać
  • 0:56 - 0:59
    za umieszczanie zdjęć swoich dzieci
    w mediach społecznościowych,
  • 0:59 - 1:00
    ale nie o to chodzi.
  • 1:00 - 1:03
    Problem jest o wiele większy
    niż "sharenting",
  • 1:03 - 1:05
    czyli udostępnianie treści przez rodziców.
  • 1:05 - 1:08
    Problem tkwi w systemie, nie w ludziach.
  • 1:09 - 1:11
    Wy i wasze nawyki
    nie jesteście temu winni.
  • 1:13 - 1:15
    Pierwszy raz w historii
  • 1:16 - 1:18
    śledzimy dane osobowe dzieci
  • 1:18 - 1:20
    jeszcze przed ich narodzinami,
  • 1:20 - 1:23
    czasem od momentu poczęcia,
  • 1:23 - 1:25
    a potem przez całe ich życie.
  • 1:25 - 1:28
    Kiedy rodzice decydują się na dziecko,
  • 1:28 - 1:31
    szukają w Internecie
    sposobów na zajście w ciążę
  • 1:31 - 1:34
    albo ściągają aplikacje
    do śledzenia owulacji.
  • 1:35 - 1:37
    Kiedy w końcu udaje się zajść w ciążę,
  • 1:38 - 1:41
    zamieszczają USG swoich dzieci
    w mediach społecznościowych,
  • 1:41 - 1:43
    ściągają aplikacje ciążowe
  • 1:43 - 1:47
    albo konsultują się z doktorem Google
    na temat różnych rzeczy,
  • 1:47 - 1:48
    takich jak
  • 1:48 - 1:51
    ryzyko poronienia podczas lotu
  • 1:51 - 1:54
    albo skurcze brzucha na początku ciąży.
  • 1:54 - 1:55
    Wiem to, bo przez to przeszłam.
  • 1:56 - 1:57
    Wiele razy.
  • 1:58 - 2:00
    A kiedy dziecko się narodzi,
  • 2:00 - 2:02
    monitorują każdą drzemkę, każde karmienie,
  • 2:02 - 2:05
    każde wydarzenie,
    za pomocą różnych technologii.
  • 2:06 - 2:08
    Te wszystkie technologie
  • 2:08 - 2:13
    zamieniają najbardziej prywatne dane
    o zachowaniu i zdrowiu dziecka w zysk
  • 2:14 - 2:16
    poprzez udostępnianie ich innym.
  • 2:17 - 2:19
    Podam przykład tego, jak to działa.
  • 2:19 - 2:23
    W roku 2019 British Medical Journal
    opublikował badanie,
  • 2:23 - 2:27
    które pokazało, że spośród
    24 mobilnych aplikacji zdrowotnych
  • 2:28 - 2:31
    19 udostępniało informacje innym firmom.
  • 2:32 - 2:38
    Te z kolei udostępniały je
    216 innym organizacjom.
  • 2:39 - 2:43
    Wśród tych 216 organizacji były tylko trzy
  • 2:43 - 2:46
    które należały
    do sektora opieki zdrowotnej.
  • 2:46 - 2:48
    Pozostałe firmy,
    które miały dostęp do tych danych,
  • 2:48 - 2:50
    były dużymi firmami technologicznymi
  • 2:50 - 2:53
    takimi jak Google, Facebook czy Oracle.
  • 2:53 - 2:56
    Były wśród nich także agencje reklamowe
  • 2:56 - 3:00
    oraz agencja sprawozdawczości kredytowej.
  • 3:01 - 3:02
    Właśnie tak.
  • 3:03 - 3:04
    Agencje reklamowe i kredytowe
  • 3:04 - 3:08
    mogą być już w posiadaniu
    danych na temat małych dzieci.
  • 3:09 - 3:13
    Mobilne aplikacje, wyszukiwania w sieci
    oraz media społecznościowe
  • 3:13 - 3:15
    są tylko wierzchołkiem góry lodowej,
  • 3:15 - 3:18
    ponieważ dzieci są śledzone
    przez różnorakie technologie
  • 3:18 - 3:19
    w ich codziennym życiu.
  • 3:19 - 3:23
    Są śledzone przez domowe urządzenia
    i asystentów wirtualnych w domach.
  • 3:24 - 3:28
    Są śledzone przez platformy
    i technologie edukacyjne w szkołach.
  • 3:28 - 3:30
    Są śledzone przez internetową
    dokumentację medyczną
  • 3:30 - 3:32
    i portale internetowe
    w gabinetach lekarskich.
  • 3:33 - 3:35
    Są śledzone przez zabawki
    połączone z Internetem,
  • 3:35 - 3:36
    gry internetowe
  • 3:36 - 3:39
    i wiele innych technologii.
  • 3:40 - 3:42
    Podczas moich badań
  • 3:42 - 3:46
    wielu rodziców pytało mnie: "I co z tego?
  • 3:46 - 3:49
    Czy to ważne, że moje dzieci są śledzone?
  • 3:50 - 3:51
    Nie mamy nic do ukrycia".
  • 3:53 - 3:54
    Otóż to ma znaczenie.
  • 3:55 - 4:00
    To ma znaczenie, bo dzisiaj
    ludzie są nie tylko śledzeni,
  • 4:01 - 4:05
    ale także profilowani
    na podstawie zebranych danych.
  • 4:05 - 4:09
    Używa się sztucznej inteligencji
    i analizy prognostycznej,
  • 4:09 - 4:13
    żeby pozyskać jak największą
    ilość danych na temat życia danej osoby,
  • 4:13 - 4:14
    opierając się o różne źródła:
  • 4:15 - 4:17
    historię rodziny, nawyki zakupowe,
  • 4:17 - 4:19
    komentarze w mediach społecznościowych.
  • 4:19 - 4:22
    Następnie łączy się te dane
    w celu wykorzystania ich
  • 4:22 - 4:24
    przy podejmowaniu decyzji
    dotyczących danej osoby.
  • 4:25 - 4:28
    Te technologie są używane wszędzie.
  • 4:28 - 4:30
    Banki używają ich
    przy udzielaniu kredytów,
  • 4:31 - 4:33
    ubezpieczyciele - przy kalkulacji zniżek,
  • 4:34 - 4:37
    a rekruterzy i pracodawcy używają ich,
  • 4:37 - 4:39
    żeby sprawdzić,
    czy ktoś nadaje się do pracy.
  • 4:41 - 4:44
    Także policja i sądy ich używają
  • 4:44 - 4:47
    przy określaniu
    potencjalnych kryminalistów
  • 4:47 - 4:51
    lub prawdopodobieństwa
    ponownego popełnienia zbrodni.
  • 4:52 - 4:55
    Nie mamy żadnej wiedzy i kontroli nad tym,
  • 4:55 - 5:00
    w jaki sposób ci, którzy kupują,
    sprzedają i przetwarzają nasze dane
  • 5:00 - 5:03
    profilują nas i nasze dzieci.
  • 5:04 - 5:07
    Jednak te profile mogą mieć
    znaczący wpływ na nasze prawa.
  • 5:09 - 5:11
    Podam przykład.
  • 5:14 - 5:18
    W roku 2018 "New York Times"
    opublikował informacje,
  • 5:18 - 5:23
    że dane zebrane z internetowych
    formularzy planowania edukacji,
  • 5:23 - 5:28
    wypełnianych przez miliony
    amerykańskich licealistów,
  • 5:28 - 5:31
    którzy szukają szkoły lub stypendium,
  • 5:31 - 5:35
    zostały sprzedane brokerom
    danych edukacyjnych.
  • 5:36 - 5:41
    Ponadto naukowcy z uniwersytetu Fordham,
    którzy zbadali brokerów z tego sektora,
  • 5:41 - 5:46
    ujawnili, że te firmy profilowały
    nawet dwuletnie dzieci
  • 5:46 - 5:49
    na podstawie takich kategorii jak:
  • 5:50 - 5:53
    pochodzenie etniczne, religia, zamożność,
  • 5:54 - 5:55
    niedostosowanie społeczne
  • 5:56 - 5:58
    oraz wiele innych losowych kategorii.
  • 5:59 - 6:04
    Następnie sprzedają te profile
    razem z danymi osobowymi dziecka,
  • 6:04 - 6:07
    ich adresem zamieszkania
    i danymi kontaktowymi,
  • 6:07 - 6:09
    różnym firmom,
  • 6:09 - 6:12
    między innymi agencjom handlu
    i biurom karier,
  • 6:12 - 6:16
    firmom zajmującym się pożyczkami
    i kartami kredytowymi dla studentów.
  • 6:17 - 6:18
    Żeby wyznaczyć nowe granice,
  • 6:18 - 6:22
    naukowcy z Fordham poprosili
    brokera danych edukacyjnych
  • 6:22 - 6:28
    o listę dziewczyn w wieku od 14 do 15 lat,
  • 6:28 - 6:31
    które interesowały się usługami
    w zakresie planowania rodziny.
  • 6:32 - 6:35
    Broker zgodził się
    na dostarczenie takiej listy.
  • 6:35 - 6:40
    Wyobraźcie sobie, jak bardzo narusza to
    prywatność naszych dzieci.
  • 6:41 - 6:45
    Ale brokerzy danych edukacyjnych
    to tylko jeden z przykładów.
  • 6:45 - 6:46
    Prawda jest taka,
  • 6:46 - 6:50
    że nie jesteśmy w stanie kontrolować,
    w jaki sposób dzieci są profilowane,
  • 6:50 - 6:53
    a to może mieć
    znaczący wpływ na ich życie.
  • 6:54 - 6:57
    Musimy zadać sobie pytanie:
  • 6:58 - 7:02
    Czy możemy ufać tym technologiom
    w kwestii profilowania naszych dzieci?
  • 7:02 - 7:04
    Możemy?
  • 7:06 - 7:07
    Moja odpowiedź brzmi: nie.
  • 7:08 - 7:09
    Jako antropolog wierzę,
  • 7:09 - 7:12
    że sztuczna inteligencja
    i analiza prognostyczna
  • 7:12 - 7:15
    mogą być bardzo pomocne
    w przewidywaniu przebiegu choroby
  • 7:15 - 7:17
    albo w walce ze zmianami klimatycznymi.
  • 7:18 - 7:20
    Jednak musimy porzucić wiarę w to,
  • 7:20 - 7:23
    że te technologie
    mogą obiektywnie profilować ludzi
  • 7:23 - 7:25
    i że możemy polegać na nich
  • 7:25 - 7:28
    przy podejmowaniu
    kluczowych decyzji życiowych,
  • 7:28 - 7:30
    dlatego, że one
    nie potrafią profilować ludzi.
  • 7:31 - 7:34
    Dane nie są odbiciem lustrzanym
    tego, kim jesteśmy.
  • 7:35 - 7:36
    Ludzie myślą jedno, a mówią drugie,
  • 7:36 - 7:38
    postępują inaczej niż czują.
  • 7:39 - 7:41
    Prognozy algorytmiczne
    czy nasze praktyki cyfrowe
  • 7:41 - 7:47
    nie biorą pod uwagę nieprzewidywalności
    oraz złożoności ludzkich doświadczeń.
  • 7:48 - 7:50
    Dodatkowo
  • 7:50 - 7:53
    te technologie są zawsze,
  • 7:53 - 7:54
    zawsze,
  • 7:54 - 7:56
    w jakimś stopniu stronnicze.
  • 7:57 - 8:02
    Algorytmy są z definicji
    zbiorem zasad i instrukcji,
  • 8:02 - 8:06
    które zostały zaprojektowane
    w konkretnym celu.
  • 8:07 - 8:09
    Jednak te zbiory zasad i instrukcji
    nie są obiektywne,
  • 8:09 - 8:11
    ponieważ są zaprojektowane przez ludzi
  • 8:11 - 8:13
    w konkretnym kontekście kulturowym
  • 8:13 - 8:16
    i są ukształtowane
    przez konkretne wartości kulturowe.
  • 8:17 - 8:18
    Kiedy maszyny się uczą,
  • 8:18 - 8:21
    opierają się na stronniczych algorytmach,
  • 8:21 - 8:24
    a często także na stronniczych
    bazach danych.
  • 8:26 - 8:29
    Obecnie widzimy pierwsze przykłady
    przechyłów algorytmicznych.
  • 8:29 - 8:33
    Niektóre z tych przykładów
    są przerażające.
  • 8:34 - 8:39
    W tym roku instytut AI Now Institute
    z Nowego Jorku opublikował raport,
  • 8:39 - 8:41
    który ujawnił, że technologie AI
  • 8:41 - 8:44
    używane do prewencji przestępstw
  • 8:44 - 8:47
    działały w oparciu o "brudne" dane.
  • 8:48 - 8:51
    Są to dane zgromadzone
  • 8:51 - 8:55
    w okresie wyraźnych uprzedzeń rasowych
  • 8:55 - 8:58
    i nietransparentnych praktyk policyjnych.
  • 8:59 - 9:03
    Ponieważ te technologie
    używają "brudnych" danych,
  • 9:03 - 9:04
    nie są obiektywne,
  • 9:04 - 9:09
    a rezultaty ich działań
    tylko wzmacniają i przyczyniają się
  • 9:09 - 9:10
    do policyjnej stronniczości i pomyłek.
  • 9:13 - 9:15
    Dlatego myślę, że stoimy
  • 9:15 - 9:18
    w obliczu fundamentalnego problemu
    naszego społeczeństwa.
  • 9:18 - 9:22
    Zaczynamy ufać technologiom,
    jeśli chodzi o profilowanie ludzi.
  • 9:23 - 9:26
    Wiemy, że w profilowaniu ludzi,
  • 9:26 - 9:29
    te technologie będą zawsze stronnicze
  • 9:29 - 9:31
    i nigdy nie będą precyzyjne.
  • 9:32 - 9:36
    Potrzebujemy politycznego
    rozwiązania tego problemu.
  • 9:36 - 9:37
    Potrzebujemy rządów, które uznają,
  • 9:37 - 9:40
    że ochrona danych to też prawa człowieka.
  • 9:40 - 9:47
    (Brawa i wiwaty)
  • 9:48 - 9:50
    Dopóki to się nie stanie,
    nie możemy mieć nadziei
  • 9:50 - 9:52
    na bardziej sprawiedliwą przyszłość.
  • 9:53 - 9:57
    Martwię się, że moje córki
    będą narażone na różnego rodzaju
  • 9:57 - 9:59
    algorytmiczne pomyłki i dyskryminacje.
  • 9:59 - 10:02
    Różnica pomiędzy mną
    a moimi córkami jest taka,
  • 10:02 - 10:05
    że nie ma żadnego publicznego
    rejestru danych z mojego dzieciństwa.
  • 10:05 - 10:08
    Na pewno nie ma żadnej
    bazy danych z głupotami,
  • 10:08 - 10:11
    które robiłam i myślałam,
    będąc nastolatką.
  • 10:11 - 10:13
    (Śmiech)
  • 10:14 - 10:17
    W przypadku moich córek
    może to wyglądać inaczej.
  • 10:17 - 10:20
    Dane, które są zbierane od nich dzisiaj,
  • 10:21 - 10:24
    mogą być użyte w przyszłości do ich oceny,
  • 10:24 - 10:27
    mogą zaprzepaścić ich nadzieje i marzenia.
  • 10:28 - 10:30
    Myślę, że już czas,
  • 10:30 - 10:32
    żebyśmy wszyscy wzmogli nasze działania.
  • 10:32 - 10:34
    Czas, żebyśmy zaczęli współpracować,
  • 10:34 - 10:38
    jako jednostki, organizacje i instytucje,
  • 10:38 - 10:41
    i domagali się większej sprawiedliwości
    związanej z naszymi danymi,
  • 10:41 - 10:43
    dla nas i dla naszych dzieci,
  • 10:43 - 10:44
    nim będzie za późno.
  • 10:44 - 10:45
    Dziękuję.
  • 10:45 - 10:48
    (Brawa)
タイトル:
Co firmy technologiczne wiedzą o twoich dzieciach
話者:
Veronica Barassi
概説:

„Platformy cyfrowe, których ty i twoja rodzina używacie każdego dnia, od gier internetowych aż po aplikacje edukacyjne i portale medyczne, mogą gromadzić i sprzedawać dane twoich dzieci”, mówi antropolog, Veronica Barassi. Dzieląc się swoim odkrywczym badaniem, Barassi nakłania rodziców, żeby zwrócili uwagę na cyfrowe warunki i zasady, zamiast ślepego ich akceptowania oraz żeby domagali się ochrony gwarantującej im, że dane ich dzieci nie wypaczą ich przyszłości.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Polish subtitles

改訂