Amit a techcégek a gyermekeinkről tudnak
-
0:01 - 0:03Minden nap és minden héten
-
0:03 - 0:05szerződési feltételekhez
és kikötésekhez járulunk hozzá. -
0:05 - 0:07Ekkor
-
0:07 - 0:09jogilag felhatalmazunk cégeket,
-
0:09 - 0:13hogy adatainkkal,
így gyermekeink adataival is, -
0:13 - 0:15tetszésük szerint bánjanak.
-
0:17 - 0:19Ami elgondolkoztathat minket:
-
0:20 - 0:22mekkora adatmennyiséget
adunk ki gyermekeinkről, -
0:23 - 0:25és mik ennek a következményei?
-
0:26 - 0:28Antropológus vagyok,
-
0:28 - 0:30és egyúttal két kislány édesanyja.
-
0:31 - 0:352015-ben kezdett el
foglalkoztatni ez a kérdés, -
0:35 - 0:37amikor hirtelen feleszméltem,
-
0:37 - 0:41hogy széles körű, csaknem elképzelhetetlen
mennyiségű adatnyom -
0:41 - 0:44gyűlik össze és érhető el gyermekeinkről.
-
0:45 - 0:47Ezért kutatómunkát indítottam
-
0:47 - 0:49Child Data Citizen elnevezéssel,
-
0:49 - 0:52és a homályos foltok felfedését
tűztem ki célul. -
0:53 - 0:55Talán arra gondolhatnak,
önöket hibáztatom, -
0:55 - 0:58mert gyermekeikről képeket
posztolnak a közösségi médiában, -
0:58 - 1:00de nem ez a lényeg.
-
1:01 - 1:04A baj annál sokkal nagyobb,
mint az ún. “szülői megosztás”. -
1:05 - 1:08A rendszerekkel van baj,
nem az egyéni szokásokkal. -
1:09 - 1:11Szokásaink nem hibáztathatók.
-
1:13 - 1:15Először a történelemben,
-
1:16 - 1:18gyermekeink egyedi adatait
-
1:18 - 1:20még jóval születésük előtt rögzítjük;
-
1:20 - 1:22gyakran már fogantatásuk pillanatától,
-
1:23 - 1:25majd később egész életük során.
-
1:25 - 1:28Amikor szülők gyermekvállalás
mellett döntenek, -
1:28 - 1:31interneten rá szoktak keresni
a “hogyan eshetek teherbe” témára, -
1:31 - 1:34vagy letöltenek egy ovulációs alkalmazást.
-
1:35 - 1:37Amikor várandósak,
-
1:38 - 1:41babáikról a közösségi médiában
posztolnak ultrahangképeket, -
1:41 - 1:43terhességi alkalmazásokat töltenek le
-
1:43 - 1:47vagy dr. Google tanácsát kérik ki
mindenféle ügyben, -
1:47 - 1:48olyan dolgokban, mint:
-
1:48 - 1:51“vetélés kockázata repüléskor”,
-
1:51 - 1:54“hasi görcsök a várandósság
korai szakaszában“. -
1:54 - 1:56Tudom, mert én is csináltam,
-
1:56 - 1:57sokszor.
-
1:58 - 2:01Amikor megszületik a baba,
rögzítenek minden alvást, -
2:01 - 2:03minden etetést,
-
2:03 - 2:05minden eseményt különféle technológiákkal.
-
2:06 - 2:08Minden ilyen technológia
-
2:08 - 2:13a baba legintimebb viselkedési
és egészségügyi adatát profittá alakítja -
2:14 - 2:16a megosztásuk révén.
-
2:17 - 2:19Hogy szemléletessé váljon,
hogy is működik ez, -
2:19 - 2:242019-ben a British Medical Journalben
megjelent kutatás feltárta, -
2:24 - 2:27hogy 24 egészségügyi mobilalkalmazás közül
-
2:28 - 2:3119 harmadik féllel is
megosztott információkat. -
2:32 - 2:38Majd ezek további 216 másik szervezettel
osztották meg az információkat. -
2:39 - 2:42A 216 további fél közül
-
2:42 - 2:45csak három tartozott
egészségügyi ágazatba. -
2:46 - 2:50A többi cég, amelynek hozzáférése volt
az adatokhoz, nagy techcégek voltak, -
2:50 - 2:53mint a Google, Facebook vagy az Oracle,
-
2:54 - 2:56de voltak digitálisreklám-ügynökségek
-
2:56 - 3:00és fogyasztói hitelelemző cégek is.
-
3:01 - 3:03Értik már, ugye?
-
3:03 - 3:08Reklámcégeknek és hitelügynökségeknek
már csecsemőkről is lehetnek adataik. -
3:09 - 3:12De a mobilalkalmazások,
webes keresések és a közösségi média -
3:12 - 3:15épp csak a jéghegy csúcsa,
-
3:15 - 3:18mert a gyerekeket számos
technológia követi nyomon -
3:18 - 3:19mindennapi életük során.
-
3:20 - 3:24Nyomon követik őket az okosotthonok
technológiái és a virtuális asszisztensek. -
3:24 - 3:26Nyomon követik őket az oktatási felületek
-
3:26 - 3:28és az iskolák oktatási technológiái.
-
3:28 - 3:30Nyomon követik őket online
-
3:30 - 3:32orvosi adatokon és portálokon keresztül.
-
3:33 - 3:35Nyomon követik az internethez
kapcsolt játékaikon, -
3:35 - 3:36az online játékokon
-
3:36 - 3:39és még rengeteg más
technológián keresztül is. -
3:40 - 3:42A kutatásom során
-
3:42 - 3:45sok szülő ezzel jött oda hozzám: “Na és?
-
3:46 - 3:49Mit számít, ha lekövetik a gyerekeimet?
-
3:50 - 3:52Nincs semmi takargatnivalónk.”
-
3:53 - 3:54Hát számít!
-
3:55 - 4:01Számít, mert ma az egyes embereket
nemcsak lekövetik, -
4:01 - 4:05de profilokat is alkotnak
az adatnyomaik alapján. -
4:05 - 4:09Mesterséges intelligenciát
és prediktív elemzést alkalmaznak, -
4:09 - 4:13hogy a lehető legtöbb adatot
szerezzék be egyesek magánéletéről -
4:13 - 4:14különböző forrásokból:
-
4:15 - 4:19családi háttér, vásárlási szokások,
közösségimédia-kommentek. -
4:19 - 4:21Majd ezeket az adatokat összegyűjtve
-
4:21 - 4:24adatvezérelt döntéseket hoznak
az egyes emberekkel kapcsolatban. -
4:25 - 4:28E technológiákat mindenütt használják.
-
4:28 - 4:31Bankok hitelek elbírálására,
-
4:31 - 4:33biztosítók díjak meghatározására,
-
4:34 - 4:37toborzók és munkáltatók használják,
-
4:37 - 4:40hogy eldöntsék, valaki megfelel-e
az adott munkára vagy sem. -
4:41 - 4:44A rendőrség és a bíróság is használja,
-
4:44 - 4:47hogy meghatározzák,
valaki potenciális bűnöző-e, -
4:47 - 4:50vagy mekkora esélye van,
hogy újból bűntettet követ el. -
4:52 - 4:57Nem ismerjük az eljárásokat,
és befolyásunk sincs azok módszereire, -
4:57 - 5:00akik adatainkat
adják-veszik és feldolgozzák, -
5:00 - 5:03hogyan profiloznak minket
és gyermekeinket. -
5:04 - 5:08Pedig ezek a profilok jelentős
hatással lehetnek jogainkra. -
5:09 - 5:11Egy példát említve,
-
5:14 - 5:182018-ban a The New York Timesban
megjelent a hír, -
5:18 - 5:20hogy főiskolai tervező szolgáltatások
-
5:20 - 5:23adatbrókereknek adták el az adatokat,
-
5:23 - 5:29amelyeket Amerika-szerte
több millió középiskolás szokott megadni, -
5:29 - 5:31főiskolai programok
-
5:31 - 5:34vagy ösztöndíjak iránt érdeklődve.
-
5:36 - 5:41Az oktatási adatbrókereket
tanulmányozó Fordham kutatói felfedték, -
5:41 - 5:46hogy ezek a cégek már
kétéves gyerekeket is profiloztak -
5:46 - 5:49különböző kategóriák,
-
5:50 - 5:53pl. etnikum, vallás, jómód,
-
5:54 - 5:56szociális ügyetlenség
-
5:56 - 5:58és még sok más véletlenszerű
kategória alapján. -
5:59 - 6:03Aztán e profilokat el is adják
-
6:04 - 6:07a gyerek nevével, lakcímével
és elérhetőségi adataival együtt -
6:07 - 6:08különféle cégeknek,
-
6:09 - 6:11többek között kereskedelmi-
és karrierintézeteknek, -
6:12 - 6:13diákhitel-
-
6:13 - 6:15és diákhitelkártya-cégeknek is.
-
6:17 - 6:18Tovább feszítve a határokat,
-
6:18 - 6:22a Fordham kutatói felkértek
egy oktatási adatbrókert, -
6:22 - 6:27hogy adjon listát 14–15 éves lányokról,
-
6:28 - 6:31akik családtervezési szolgáltatások
iránt érdeklődnek. -
6:32 - 6:35Az adatbróker vállalta a lista átadását.
-
6:35 - 6:40Képzeljék csak el, mennyire intim
és tolakodó ez a gyermekeink számára. -
6:41 - 6:45De az oktatási adatbrókerek példája
valójában csak egy a sok közül. -
6:45 - 6:49Az igazság az, hogy gyermekeinket
ellenőrizhetetlen módon profilozzák, -
6:50 - 6:53profiljaik mégis jelentős mértékben
befolyásolhatják lehetőségeiket. -
6:54 - 6:57Így hát fel kell tegyük a kérdést:
-
6:58 - 7:02megbízhatunk ezekben a technológiákban
gyermekeink profilozását illetően? -
7:02 - 7:04Bízhatunk bennük?
-
7:06 - 7:07Az én válaszom: nem.
-
7:08 - 7:09Antropológusként hiszem,
-
7:09 - 7:13hogy a mesterséges intelligencia
és a prediktív elemzés remek lehet -
7:13 - 7:15megbetegedések lefolyásának előrejelzésére
-
7:15 - 7:17vagy a klímaváltozás elleni harcban.
-
7:18 - 7:20De fel kell hagynunk a hiedelemmel,
-
7:20 - 7:23hogy ezek a technológiák objektíven
tudnak emberi profilokat alkotni, -
7:23 - 7:27hogy megbízhatók az adatvezérelt
döntések meghozatalában -
7:27 - 7:28adott emberek életére vonatkozóan.
-
7:28 - 7:31Mert nem tudnak embereket profilozni.
-
7:31 - 7:34Az adatnyomok nem tükrözik azt,
akik vagyunk. -
7:34 - 7:37Az emberek az ellenkezőjét gondolják,
mint amit állítanak, -
7:37 - 7:39mást éreznek és más szerint cselekednek.
-
7:39 - 7:42Algoritmusos előrejelzések
és digitális szokásaink -
7:42 - 7:47nem fedhetik le az emberi tapasztalás
megjósolhatatlanságát és komplexitását. -
7:48 - 7:50Ráadásul
-
7:50 - 7:52ezek a technológiák mindig,
-
7:53 - 7:54mindig,
-
7:54 - 7:56egyik vagy másik irányban részrehajlók.
-
7:57 - 8:02Az algoritmusok definíció szerint
szabályok és lépések összessége, -
8:02 - 8:06melyeket azért alkotnak,
hogy adott eredményre jussanak. -
8:07 - 8:10De ezek a szabályok és lépések
nem lehetnek objektívek, -
8:10 - 8:12mert ezeket emberek alkották
-
8:12 - 8:14meghatározott kulturális kontextusban,
-
8:14 - 8:16s adott kulturális értékek alakítják őket.
-
8:17 - 8:18Amikor gépek tanulnak,
-
8:18 - 8:21részrehajló algoritmusok alapján tanulnak,
-
8:22 - 8:25és gyakran részrehajló
adatbázisokból is tanulnak. -
8:26 - 8:29Ma már látni az algoritmikus
részrehajlás első példáit. -
8:30 - 8:33Néhány ezek közül elég rémisztő.
-
8:34 - 8:39A New York-i AI Now Kutatóintézet
idén kiadott jelentése feltárta, -
8:39 - 8:41hogy az AI-technológiákat,
-
8:41 - 8:44melyeket a prediktív rendfenntartásban
alkalmaznak, -
8:44 - 8:48“piszkos” adatok alapján képezték.
-
8:48 - 8:51Ezeket az adatokat
-
8:51 - 8:55köztudottan részrehajló és nem átlátható
-
8:55 - 8:58rendőri gyakorlattal jellemezhető
korszakokban gyűjtöttek. -
8:59 - 9:03Mivel ezeket a technológiákat
piszkos adatok alapján tanítják, -
9:03 - 9:04nem objektívek,
-
9:04 - 9:09így az eredményeik
felerősítik és megvalósítják -
9:09 - 9:10a rendőri részrehajlást és hibákat.
-
9:13 - 9:16Alapvető problémával állunk szemben
-
9:16 - 9:18társadalmunkban.
-
9:18 - 9:23Ami az emberek profilozását illeti,
kezdünk technológiákban bízni. -
9:24 - 9:26Tudjuk, hogy az emberek profilozásakor
-
9:26 - 9:29ezek a technológiák mindig
részrehajlók lesznek, -
9:29 - 9:31és sosem lesznek igazán pontosak.
-
9:32 - 9:35Ezért politikai megoldásra van szükség.
-
9:35 - 9:40A kormányoknak el kell ismerniük:
adatainkhoz való jogunk emberi jog. -
9:40 - 9:43(Taps és ujjongás)
-
9:48 - 9:52Amíg ez nem történik meg,
nem remélhetünk igazságosabb jövőt. -
9:53 - 9:55Aggódom, hogy a lányaim
-
9:56 - 9:59mindenféle algoritmikus diszkriminációnak
és hibának lesznek kitéve. -
9:59 - 10:02A különbség köztem és a lányaim között,
-
10:02 - 10:04hogy az én gyerekkoromról
nincsen elérhető adat. -
10:05 - 10:08Nincs adatbázis a sok hülyeségről,
-
10:08 - 10:11melyet még tinédzserként
elkövettem vagy gondoltam. -
10:11 - 10:13(Nevetés)
-
10:14 - 10:17De a lányaim esetében ez már más.
-
10:17 - 10:20A róluk ma gyűjtött adatot lehet,
-
10:20 - 10:24hogy a jövőben a megítélésükre használják,
-
10:24 - 10:27és reményeik s álmaik útjába is állhatnak.
-
10:29 - 10:30Úgy hiszem, itt az alkalom.
-
10:30 - 10:32Az alkalom, hogy fellépjünk.
-
10:32 - 10:34Az alkalom, hogy elkezdjük együttműködni
-
10:34 - 10:36mint egyének,
-
10:36 - 10:38mint szervezetek és intézmények,
-
10:38 - 10:41hogy szélesebb körű adatigazságosságot
követeljünk -
10:41 - 10:43saját magunk és gyermekeink számára is,
-
10:43 - 10:44még mielőtt nem túl késő.
-
10:44 - 10:45Köszönöm.
-
10:45 - 10:47(Taps)
- Title:
- Amit a techcégek a gyermekeinkről tudnak
- Speaker:
- Veronica Barassi
- Description:
-
A digitális felületek, melyeket mi és családunk is mindennap használ – az online játékoktól kezdve oktatási anyagokon át az egészségügyi portálokig –, akár gyermekeink adatait is gyűjthetik és forgalmazhatják – állítja Veronica Barassi antropológus. Gondolatébresztő kutatásának ismertetésével Barassi arra ösztönzi a szülőket, kétszer is nézzék át a digitális szerződési feltételeket
és kikötéseket, és ne fogadják el őket olvasatlanul. Arra sarkallja őket, követeljék meg a védelmet, hogy a gyermekekről gyűjtött adatok később ne befolyásolhassák hátrányosan a jövőjüket. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Csaba Lóki approved Hungarian subtitles for What tech companies know about your kids | ||
Csaba Lóki edited Hungarian subtitles for What tech companies know about your kids | ||
Péter Pallós accepted Hungarian subtitles for What tech companies know about your kids | ||
Péter Pallós edited Hungarian subtitles for What tech companies know about your kids | ||
Péter Pallós edited Hungarian subtitles for What tech companies know about your kids | ||
Péter Pallós edited Hungarian subtitles for What tech companies know about your kids | ||
Péter Pallós edited Hungarian subtitles for What tech companies know about your kids | ||
Zsofia Gocze edited Hungarian subtitles for What tech companies know about your kids |