Return to Video

Amit a techcégek a gyermekeinkről tudnak

  • 0:01 - 0:03
    Minden nap és minden héten
  • 0:03 - 0:05
    szerződési feltételekhez
    és kikötésekhez járulunk hozzá.
  • 0:05 - 0:07
    Ekkor
  • 0:07 - 0:09
    jogilag felhatalmazunk cégeket,
  • 0:09 - 0:13
    hogy adatainkkal,
    így gyermekeink adataival is,
  • 0:13 - 0:15
    tetszésük szerint bánjanak.
  • 0:17 - 0:19
    Ami elgondolkoztathat minket:
  • 0:20 - 0:22
    mekkora adatmennyiséget
    adunk ki gyermekeinkről,
  • 0:23 - 0:25
    és mik ennek a következményei?
  • 0:26 - 0:28
    Antropológus vagyok,
  • 0:28 - 0:30
    és egyúttal két kislány édesanyja.
  • 0:31 - 0:35
    2015-ben kezdett el
    foglalkoztatni ez a kérdés,
  • 0:35 - 0:37
    amikor hirtelen feleszméltem,
  • 0:37 - 0:41
    hogy széles körű, csaknem elképzelhetetlen
    mennyiségű adatnyom
  • 0:41 - 0:44
    gyűlik össze és érhető el gyermekeinkről.
  • 0:45 - 0:47
    Ezért kutatómunkát indítottam
  • 0:47 - 0:49
    Child Data Citizen elnevezéssel,
  • 0:49 - 0:52
    és a homályos foltok felfedését
    tűztem ki célul.
  • 0:53 - 0:55
    Talán arra gondolhatnak,
    önöket hibáztatom,
  • 0:55 - 0:58
    mert gyermekeikről képeket
    posztolnak a közösségi médiában,
  • 0:58 - 1:00
    de nem ez a lényeg.
  • 1:01 - 1:04
    A baj annál sokkal nagyobb,
    mint az ún. “szülői megosztás”.
  • 1:05 - 1:08
    A rendszerekkel van baj,
    nem az egyéni szokásokkal.
  • 1:09 - 1:11
    Szokásaink nem hibáztathatók.
  • 1:13 - 1:15
    Először a történelemben,
  • 1:16 - 1:18
    gyermekeink egyedi adatait
  • 1:18 - 1:20
    még jóval születésük előtt rögzítjük;
  • 1:20 - 1:22
    gyakran már fogantatásuk pillanatától,
  • 1:23 - 1:25
    majd később egész életük során.
  • 1:25 - 1:28
    Amikor szülők gyermekvállalás
    mellett döntenek,
  • 1:28 - 1:31
    interneten rá szoktak keresni
    a “hogyan eshetek teherbe” témára,
  • 1:31 - 1:34
    vagy letöltenek egy ovulációs alkalmazást.
  • 1:35 - 1:37
    Amikor várandósak,
  • 1:38 - 1:41
    babáikról a közösségi médiában
    posztolnak ultrahangképeket,
  • 1:41 - 1:43
    terhességi alkalmazásokat töltenek le
  • 1:43 - 1:47
    vagy dr. Google tanácsát kérik ki
    mindenféle ügyben,
  • 1:47 - 1:48
    olyan dolgokban, mint:
  • 1:48 - 1:51
    “vetélés kockázata repüléskor”,
  • 1:51 - 1:54
    “hasi görcsök a várandósság
    korai szakaszában“.
  • 1:54 - 1:56
    Tudom, mert én is csináltam,
  • 1:56 - 1:57
    sokszor.
  • 1:58 - 2:01
    Amikor megszületik a baba,
    rögzítenek minden alvást,
  • 2:01 - 2:03
    minden etetést,
  • 2:03 - 2:05
    minden eseményt különféle technológiákkal.
  • 2:06 - 2:08
    Minden ilyen technológia
  • 2:08 - 2:13
    a baba legintimebb viselkedési
    és egészségügyi adatát profittá alakítja
  • 2:14 - 2:16
    a megosztásuk révén.
  • 2:17 - 2:19
    Hogy szemléletessé váljon,
    hogy is működik ez,
  • 2:19 - 2:24
    2019-ben a British Medical Journalben
    megjelent kutatás feltárta,
  • 2:24 - 2:27
    hogy 24 egészségügyi mobilalkalmazás közül
  • 2:28 - 2:31
    19 harmadik féllel is
    megosztott információkat.
  • 2:32 - 2:38
    Majd ezek további 216 másik szervezettel
    osztották meg az információkat.
  • 2:39 - 2:42
    A 216 további fél közül
  • 2:42 - 2:45
    csak három tartozott
    egészségügyi ágazatba.
  • 2:46 - 2:50
    A többi cég, amelynek hozzáférése volt
    az adatokhoz, nagy techcégek voltak,
  • 2:50 - 2:53
    mint a Google, Facebook vagy az Oracle,
  • 2:54 - 2:56
    de voltak digitálisreklám-ügynökségek
  • 2:56 - 3:00
    és fogyasztói hitelelemző cégek is.
  • 3:01 - 3:03
    Értik már, ugye?
  • 3:03 - 3:08
    Reklámcégeknek és hitelügynökségeknek
    már csecsemőkről is lehetnek adataik.
  • 3:09 - 3:12
    De a mobilalkalmazások,
    webes keresések és a közösségi média
  • 3:12 - 3:15
    épp csak a jéghegy csúcsa,
  • 3:15 - 3:18
    mert a gyerekeket számos
    technológia követi nyomon
  • 3:18 - 3:19
    mindennapi életük során.
  • 3:20 - 3:24
    Nyomon követik őket az okosotthonok
    technológiái és a virtuális asszisztensek.
  • 3:24 - 3:26
    Nyomon követik őket az oktatási felületek
  • 3:26 - 3:28
    és az iskolák oktatási technológiái.
  • 3:28 - 3:30
    Nyomon követik őket online
  • 3:30 - 3:32
    orvosi adatokon és portálokon keresztül.
  • 3:33 - 3:35
    Nyomon követik az internethez
    kapcsolt játékaikon,
  • 3:35 - 3:36
    az online játékokon
  • 3:36 - 3:39
    és még rengeteg más
    technológián keresztül is.
  • 3:40 - 3:42
    A kutatásom során
  • 3:42 - 3:45
    sok szülő ezzel jött oda hozzám: “Na és?
  • 3:46 - 3:49
    Mit számít, ha lekövetik a gyerekeimet?
  • 3:50 - 3:52
    Nincs semmi takargatnivalónk.”
  • 3:53 - 3:54
    Hát számít!
  • 3:55 - 4:01
    Számít, mert ma az egyes embereket
    nemcsak lekövetik,
  • 4:01 - 4:05
    de profilokat is alkotnak
    az adatnyomaik alapján.
  • 4:05 - 4:09
    Mesterséges intelligenciát
    és prediktív elemzést alkalmaznak,
  • 4:09 - 4:13
    hogy a lehető legtöbb adatot
    szerezzék be egyesek magánéletéről
  • 4:13 - 4:14
    különböző forrásokból:
  • 4:15 - 4:19
    családi háttér, vásárlási szokások,
    közösségimédia-kommentek.
  • 4:19 - 4:21
    Majd ezeket az adatokat összegyűjtve
  • 4:21 - 4:24
    adatvezérelt döntéseket hoznak
    az egyes emberekkel kapcsolatban.
  • 4:25 - 4:28
    E technológiákat mindenütt használják.
  • 4:28 - 4:31
    Bankok hitelek elbírálására,
  • 4:31 - 4:33
    biztosítók díjak meghatározására,
  • 4:34 - 4:37
    toborzók és munkáltatók használják,
  • 4:37 - 4:40
    hogy eldöntsék, valaki megfelel-e
    az adott munkára vagy sem.
  • 4:41 - 4:44
    A rendőrség és a bíróság is használja,
  • 4:44 - 4:47
    hogy meghatározzák,
    valaki potenciális bűnöző-e,
  • 4:47 - 4:50
    vagy mekkora esélye van,
    hogy újból bűntettet követ el.
  • 4:52 - 4:57
    Nem ismerjük az eljárásokat,
    és befolyásunk sincs azok módszereire,
  • 4:57 - 5:00
    akik adatainkat
    adják-veszik és feldolgozzák,
  • 5:00 - 5:03
    hogyan profiloznak minket
    és gyermekeinket.
  • 5:04 - 5:08
    Pedig ezek a profilok jelentős
    hatással lehetnek jogainkra.
  • 5:09 - 5:11
    Egy példát említve,
  • 5:14 - 5:18
    2018-ban a The New York Timesban
    megjelent a hír,
  • 5:18 - 5:20
    hogy főiskolai tervező szolgáltatások
  • 5:20 - 5:23
    adatbrókereknek adták el az adatokat,
  • 5:23 - 5:29
    amelyeket Amerika-szerte
    több millió középiskolás szokott megadni,
  • 5:29 - 5:31
    főiskolai programok
  • 5:31 - 5:34
    vagy ösztöndíjak iránt érdeklődve.
  • 5:36 - 5:41
    Az oktatási adatbrókereket
    tanulmányozó Fordham kutatói felfedték,
  • 5:41 - 5:46
    hogy ezek a cégek már
    kétéves gyerekeket is profiloztak
  • 5:46 - 5:49
    különböző kategóriák,
  • 5:50 - 5:53
    pl. etnikum, vallás, jómód,
  • 5:54 - 5:56
    szociális ügyetlenség
  • 5:56 - 5:58
    és még sok más véletlenszerű
    kategória alapján.
  • 5:59 - 6:03
    Aztán e profilokat el is adják
  • 6:04 - 6:07
    a gyerek nevével, lakcímével
    és elérhetőségi adataival együtt
  • 6:07 - 6:08
    különféle cégeknek,
  • 6:09 - 6:11
    többek között kereskedelmi-
    és karrierintézeteknek,
  • 6:12 - 6:13
    diákhitel-
  • 6:13 - 6:15
    és diákhitelkártya-cégeknek is.
  • 6:17 - 6:18
    Tovább feszítve a határokat,
  • 6:18 - 6:22
    a Fordham kutatói felkértek
    egy oktatási adatbrókert,
  • 6:22 - 6:27
    hogy adjon listát 14–15 éves lányokról,
  • 6:28 - 6:31
    akik családtervezési szolgáltatások
    iránt érdeklődnek.
  • 6:32 - 6:35
    Az adatbróker vállalta a lista átadását.
  • 6:35 - 6:40
    Képzeljék csak el, mennyire intim
    és tolakodó ez a gyermekeink számára.
  • 6:41 - 6:45
    De az oktatási adatbrókerek példája
    valójában csak egy a sok közül.
  • 6:45 - 6:49
    Az igazság az, hogy gyermekeinket
    ellenőrizhetetlen módon profilozzák,
  • 6:50 - 6:53
    profiljaik mégis jelentős mértékben
    befolyásolhatják lehetőségeiket.
  • 6:54 - 6:57
    Így hát fel kell tegyük a kérdést:
  • 6:58 - 7:02
    megbízhatunk ezekben a technológiákban
    gyermekeink profilozását illetően?
  • 7:02 - 7:04
    Bízhatunk bennük?
  • 7:06 - 7:07
    Az én válaszom: nem.
  • 7:08 - 7:09
    Antropológusként hiszem,
  • 7:09 - 7:13
    hogy a mesterséges intelligencia
    és a prediktív elemzés remek lehet
  • 7:13 - 7:15
    megbetegedések lefolyásának előrejelzésére
  • 7:15 - 7:17
    vagy a klímaváltozás elleni harcban.
  • 7:18 - 7:20
    De fel kell hagynunk a hiedelemmel,
  • 7:20 - 7:23
    hogy ezek a technológiák objektíven
    tudnak emberi profilokat alkotni,
  • 7:23 - 7:27
    hogy megbízhatók az adatvezérelt
    döntések meghozatalában
  • 7:27 - 7:28
    adott emberek életére vonatkozóan.
  • 7:28 - 7:31
    Mert nem tudnak embereket profilozni.
  • 7:31 - 7:34
    Az adatnyomok nem tükrözik azt,
    akik vagyunk.
  • 7:34 - 7:37
    Az emberek az ellenkezőjét gondolják,
    mint amit állítanak,
  • 7:37 - 7:39
    mást éreznek és más szerint cselekednek.
  • 7:39 - 7:42
    Algoritmusos előrejelzések
    és digitális szokásaink
  • 7:42 - 7:47
    nem fedhetik le az emberi tapasztalás
    megjósolhatatlanságát és komplexitását.
  • 7:48 - 7:50
    Ráadásul
  • 7:50 - 7:52
    ezek a technológiák mindig,
  • 7:53 - 7:54
    mindig,
  • 7:54 - 7:56
    egyik vagy másik irányban részrehajlók.
  • 7:57 - 8:02
    Az algoritmusok definíció szerint
    szabályok és lépések összessége,
  • 8:02 - 8:06
    melyeket azért alkotnak,
    hogy adott eredményre jussanak.
  • 8:07 - 8:10
    De ezek a szabályok és lépések
    nem lehetnek objektívek,
  • 8:10 - 8:12
    mert ezeket emberek alkották
  • 8:12 - 8:14
    meghatározott kulturális kontextusban,
  • 8:14 - 8:16
    s adott kulturális értékek alakítják őket.
  • 8:17 - 8:18
    Amikor gépek tanulnak,
  • 8:18 - 8:21
    részrehajló algoritmusok alapján tanulnak,
  • 8:22 - 8:25
    és gyakran részrehajló
    adatbázisokból is tanulnak.
  • 8:26 - 8:29
    Ma már látni az algoritmikus
    részrehajlás első példáit.
  • 8:30 - 8:33
    Néhány ezek közül elég rémisztő.
  • 8:34 - 8:39
    A New York-i AI Now Kutatóintézet
    idén kiadott jelentése feltárta,
  • 8:39 - 8:41
    hogy az AI-technológiákat,
  • 8:41 - 8:44
    melyeket a prediktív rendfenntartásban
    alkalmaznak,
  • 8:44 - 8:48
    “piszkos” adatok alapján képezték.
  • 8:48 - 8:51
    Ezeket az adatokat
  • 8:51 - 8:55
    köztudottan részrehajló és nem átlátható
  • 8:55 - 8:58
    rendőri gyakorlattal jellemezhető
    korszakokban gyűjtöttek.
  • 8:59 - 9:03
    Mivel ezeket a technológiákat
    piszkos adatok alapján tanítják,
  • 9:03 - 9:04
    nem objektívek,
  • 9:04 - 9:09
    így az eredményeik
    felerősítik és megvalósítják
  • 9:09 - 9:10
    a rendőri részrehajlást és hibákat.
  • 9:13 - 9:16
    Alapvető problémával állunk szemben
  • 9:16 - 9:18
    társadalmunkban.
  • 9:18 - 9:23
    Ami az emberek profilozását illeti,
    kezdünk technológiákban bízni.
  • 9:24 - 9:26
    Tudjuk, hogy az emberek profilozásakor
  • 9:26 - 9:29
    ezek a technológiák mindig
    részrehajlók lesznek,
  • 9:29 - 9:31
    és sosem lesznek igazán pontosak.
  • 9:32 - 9:35
    Ezért politikai megoldásra van szükség.
  • 9:35 - 9:40
    A kormányoknak el kell ismerniük:
    adatainkhoz való jogunk emberi jog.
  • 9:40 - 9:43
    (Taps és ujjongás)
  • 9:48 - 9:52
    Amíg ez nem történik meg,
    nem remélhetünk igazságosabb jövőt.
  • 9:53 - 9:55
    Aggódom, hogy a lányaim
  • 9:56 - 9:59
    mindenféle algoritmikus diszkriminációnak
    és hibának lesznek kitéve.
  • 9:59 - 10:02
    A különbség köztem és a lányaim között,
  • 10:02 - 10:04
    hogy az én gyerekkoromról
    nincsen elérhető adat.
  • 10:05 - 10:08
    Nincs adatbázis a sok hülyeségről,
  • 10:08 - 10:11
    melyet még tinédzserként
    elkövettem vagy gondoltam.
  • 10:11 - 10:13
    (Nevetés)
  • 10:14 - 10:17
    De a lányaim esetében ez már más.
  • 10:17 - 10:20
    A róluk ma gyűjtött adatot lehet,
  • 10:20 - 10:24
    hogy a jövőben a megítélésükre használják,
  • 10:24 - 10:27
    és reményeik s álmaik útjába is állhatnak.
  • 10:29 - 10:30
    Úgy hiszem, itt az alkalom.
  • 10:30 - 10:32
    Az alkalom, hogy fellépjünk.
  • 10:32 - 10:34
    Az alkalom, hogy elkezdjük együttműködni
  • 10:34 - 10:36
    mint egyének,
  • 10:36 - 10:38
    mint szervezetek és intézmények,
  • 10:38 - 10:41
    hogy szélesebb körű adatigazságosságot
    követeljünk
  • 10:41 - 10:43
    saját magunk és gyermekeink számára is,
  • 10:43 - 10:44
    még mielőtt nem túl késő.
  • 10:44 - 10:45
    Köszönöm.
  • 10:45 - 10:47
    (Taps)
タイトル:
Amit a techcégek a gyermekeinkről tudnak
話者:
Veronica Barassi
概説:

A digitális felületek, melyeket mi és családunk is mindennap használ – az online játékoktól kezdve oktatási anyagokon át az egészségügyi portálokig –, akár gyermekeink adatait is gyűjthetik és forgalmazhatják – állítja Veronica Barassi antropológus. Gondolatébresztő kutatásának ismertetésével Barassi arra ösztönzi a szülőket, kétszer is nézzék át a digitális szerződési feltételeket
és kikötéseket, és ne fogadják el őket olvasatlanul. Arra sarkallja őket, követeljék meg a védelmet, hogy a gyermekekről gyűjtött adatok később ne befolyásolhassák hátrányosan a jövőjüket.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Hungarian subtitles

改訂