1 00:00:00,792 --> 00:00:02,659 Minden nap és minden héten 2 00:00:02,683 --> 00:00:05,348 szerződési feltételekhez és kikötésekhez járulunk hozzá. 3 00:00:05,362 --> 00:00:06,768 Ekkor 4 00:00:06,792 --> 00:00:09,268 jogilag felhatalmazunk cégeket, 5 00:00:09,292 --> 00:00:12,976 hogy adatainkkal, így gyermekeink adataival is, 6 00:00:13,000 --> 00:00:15,375 tetszésük szerint bánjanak. 7 00:00:16,792 --> 00:00:19,133 Ami elgondolkoztathat minket: 8 00:00:19,792 --> 00:00:22,327 mekkora adatmennyiséget adunk ki gyermekeinkről, 9 00:00:22,708 --> 00:00:24,708 és mik ennek a következményei? 10 00:00:26,500 --> 00:00:27,893 Antropológus vagyok, 11 00:00:27,917 --> 00:00:30,090 és egyúttal két kislány édesanyja. 12 00:00:30,542 --> 00:00:34,698 2015-ben kezdett el foglalkoztatni ez a kérdés, 13 00:00:35,042 --> 00:00:36,848 amikor hirtelen feleszméltem, 14 00:00:36,872 --> 00:00:40,809 hogy széles körű, csaknem elképzelhetetlen mennyiségű adatnyom 15 00:00:40,833 --> 00:00:43,893 gyűlik össze és érhető el gyermekeinkről. 16 00:00:44,792 --> 00:00:46,768 Ezért kutatómunkát indítottam 17 00:00:46,792 --> 00:00:49,458 Child Data Citizen elnevezéssel, 18 00:00:49,498 --> 00:00:51,767 és a homályos foltok felfedését tűztem ki célul. 19 00:00:52,583 --> 00:00:55,201 Talán arra gondolhatnak, önöket hibáztatom, 20 00:00:55,215 --> 00:00:58,127 mert gyermekeikről képeket posztolnak a közösségi médiában, 21 00:00:58,417 --> 00:01:00,119 de nem ez a lényeg. 22 00:01:00,583 --> 00:01:04,000 A baj annál sokkal nagyobb, mint az ún. “szülői megosztás”. 23 00:01:04,792 --> 00:01:08,460 A rendszerekkel van baj, nem az egyéni szokásokkal. 24 00:01:08,917 --> 00:01:11,208 Szokásaink nem hibáztathatók. 25 00:01:12,833 --> 00:01:15,454 Először a történelemben, 26 00:01:15,708 --> 00:01:18,068 gyermekeink egyedi adatait 27 00:01:18,092 --> 00:01:19,953 még jóval születésük előtt rögzítjük; 28 00:01:20,083 --> 00:01:22,466 gyakran már fogantatásuk pillanatától, 29 00:01:22,792 --> 00:01:24,798 majd később egész életük során. 30 00:01:25,167 --> 00:01:27,992 Amikor szülők gyermekvállalás mellett döntenek, 31 00:01:28,292 --> 00:01:31,350 interneten rá szoktak keresni a “hogyan eshetek teherbe” témára, 32 00:01:31,380 --> 00:01:34,042 vagy letöltenek egy ovulációs alkalmazást. 33 00:01:35,250 --> 00:01:37,389 Amikor várandósak, 34 00:01:37,875 --> 00:01:40,799 babáikról a közösségi médiában posztolnak ultrahangképeket, 35 00:01:41,042 --> 00:01:43,059 terhességi alkalmazásokat töltenek le 36 00:01:43,083 --> 00:01:46,809 vagy dr. Google tanácsát kérik ki mindenféle ügyben, 37 00:01:46,833 --> 00:01:48,351 olyan dolgokban, mint: 38 00:01:48,375 --> 00:01:50,672 “vetélés kockázata repüléskor”, 39 00:01:50,958 --> 00:01:53,726 “hasi görcsök a várandósság korai szakaszában“. 40 00:01:53,750 --> 00:01:55,559 Tudom, mert én is csináltam, 41 00:01:55,583 --> 00:01:56,929 sokszor. 42 00:01:58,458 --> 00:02:01,268 Amikor megszületik a baba, rögzítenek minden alvást, 43 00:02:01,292 --> 00:02:02,559 minden etetést, 44 00:02:02,583 --> 00:02:05,127 minden eseményt különféle technológiákkal. 45 00:02:06,083 --> 00:02:07,559 Minden ilyen technológia 46 00:02:07,583 --> 00:02:13,311 a baba legintimebb viselkedési és egészségügyi adatát profittá alakítja 47 00:02:13,750 --> 00:02:15,542 a megosztásuk révén. 48 00:02:16,583 --> 00:02:18,726 Hogy szemléletessé váljon, hogy is működik ez, 49 00:02:18,750 --> 00:02:23,940 2019-ben a British Medical Journalben megjelent kutatás feltárta, 50 00:02:23,960 --> 00:02:27,184 hogy 24 egészségügyi mobilalkalmazás közül 51 00:02:27,625 --> 00:02:31,083 19 harmadik féllel is megosztott információkat. 52 00:02:32,083 --> 00:02:37,917 Majd ezek további 216 másik szervezettel osztották meg az információkat. 53 00:02:38,875 --> 00:02:41,989 A 216 további fél közül 54 00:02:42,333 --> 00:02:45,116 csak három tartozott egészségügyi ágazatba. 55 00:02:45,500 --> 00:02:50,018 A többi cég, amelynek hozzáférése volt az adatokhoz, nagy techcégek voltak, 56 00:02:50,042 --> 00:02:53,256 mint a Google, Facebook vagy az Oracle, 57 00:02:53,583 --> 00:02:56,184 de voltak digitálisreklám-ügynökségek 58 00:02:56,208 --> 00:03:00,095 és fogyasztói hitelelemző cégek is. 59 00:03:01,125 --> 00:03:02,559 Értik már, ugye? 60 00:03:02,583 --> 00:03:07,708 Reklámcégeknek és hitelügynökségeknek már csecsemőkről is lehetnek adataik. 61 00:03:09,125 --> 00:03:12,023 De a mobilalkalmazások, webes keresések és a közösségi média 62 00:03:12,067 --> 00:03:14,815 épp csak a jéghegy csúcsa, 63 00:03:15,042 --> 00:03:17,893 mert a gyerekeket számos technológia követi nyomon 64 00:03:17,917 --> 00:03:19,444 mindennapi életük során. 65 00:03:19,667 --> 00:03:23,809 Nyomon követik őket az okosotthonok technológiái és a virtuális asszisztensek. 66 00:03:23,833 --> 00:03:25,809 Nyomon követik őket az oktatási felületek 67 00:03:25,833 --> 00:03:27,847 és az iskolák oktatási technológiái. 68 00:03:28,068 --> 00:03:29,643 Nyomon követik őket online 69 00:03:29,667 --> 00:03:32,333 orvosi adatokon és portálokon keresztül. 70 00:03:32,708 --> 00:03:35,059 Nyomon követik az internethez kapcsolt játékaikon, 71 00:03:35,083 --> 00:03:36,393 az online játékokon 72 00:03:36,417 --> 00:03:39,087 és még rengeteg más technológián keresztül is. 73 00:03:40,250 --> 00:03:41,893 A kutatásom során 74 00:03:41,917 --> 00:03:45,498 sok szülő ezzel jött oda hozzám: “Na és? 75 00:03:46,083 --> 00:03:49,000 Mit számít, ha lekövetik a gyerekeimet? 76 00:03:50,042 --> 00:03:51,575 Nincs semmi takargatnivalónk.” 77 00:03:52,958 --> 00:03:54,166 Hát számít! 78 00:03:55,083 --> 00:04:00,538 Számít, mert ma az egyes embereket nemcsak lekövetik, 79 00:04:01,125 --> 00:04:04,697 de profilokat is alkotnak az adatnyomaik alapján. 80 00:04:05,250 --> 00:04:08,931 Mesterséges intelligenciát és prediktív elemzést alkalmaznak, 81 00:04:09,083 --> 00:04:12,542 hogy a lehető legtöbb adatot szerezzék be egyesek magánéletéről 82 00:04:12,750 --> 00:04:14,185 különböző forrásokból: 83 00:04:14,625 --> 00:04:19,143 családi háttér, vásárlási szokások, közösségimédia-kommentek. 84 00:04:19,167 --> 00:04:21,018 Majd ezeket az adatokat összegyűjtve 85 00:04:21,042 --> 00:04:24,174 adatvezérelt döntéseket hoznak az egyes emberekkel kapcsolatban. 86 00:04:24,792 --> 00:04:27,926 E technológiákat mindenütt használják. 87 00:04:28,250 --> 00:04:30,643 Bankok hitelek elbírálására, 88 00:04:30,667 --> 00:04:33,042 biztosítók díjak meghatározására, 89 00:04:34,208 --> 00:04:36,684 toborzók és munkáltatók használják, 90 00:04:36,708 --> 00:04:39,684 hogy eldöntsék, valaki megfelel-e az adott munkára vagy sem. 91 00:04:40,750 --> 00:04:43,509 A rendőrség és a bíróság is használja, 92 00:04:43,875 --> 00:04:47,393 hogy meghatározzák, valaki potenciális bűnöző-e, 93 00:04:47,417 --> 00:04:50,069 vagy mekkora esélye van, hogy újból bűntettet követ el. 94 00:04:52,458 --> 00:04:56,518 Nem ismerjük az eljárásokat, és befolyásunk sincs azok módszereire, 95 00:04:56,542 --> 00:05:00,184 akik adatainkat adják-veszik és feldolgozzák, 96 00:05:00,208 --> 00:05:02,917 hogyan profiloznak minket és gyermekeinket. 97 00:05:03,625 --> 00:05:07,667 Pedig ezek a profilok jelentős hatással lehetnek jogainkra. 98 00:05:08,917 --> 00:05:11,125 Egy példát említve, 99 00:05:13,792 --> 00:05:17,633 2018-ban a The New York Timesban megjelent a hír, 100 00:05:17,875 --> 00:05:19,851 hogy főiskolai tervező szolgáltatások 101 00:05:19,875 --> 00:05:22,934 adatbrókereknek adták el az adatokat, 102 00:05:22,958 --> 00:05:28,904 amelyeket Amerika-szerte több millió középiskolás szokott megadni, 103 00:05:28,968 --> 00:05:31,351 főiskolai programok 104 00:05:31,375 --> 00:05:34,417 vagy ösztöndíjak iránt érdeklődve. 105 00:05:35,792 --> 00:05:41,018 Az oktatási adatbrókereket tanulmányozó Fordham kutatói felfedték, 106 00:05:41,250 --> 00:05:45,982 hogy ezek a cégek már kétéves gyerekeket is profiloztak 107 00:05:46,500 --> 00:05:48,879 különböző kategóriák, 108 00:05:49,583 --> 00:05:53,122 pl. etnikum, vallás, jómód, 109 00:05:53,792 --> 00:05:55,670 szociális ügyetlenség 110 00:05:55,875 --> 00:05:58,369 és még sok más véletlenszerű kategória alapján. 111 00:05:58,833 --> 00:06:03,271 Aztán e profilokat el is adják 112 00:06:03,875 --> 00:06:07,024 a gyerek nevével, lakcímével és elérhetőségi adataival együtt 113 00:06:07,068 --> 00:06:08,349 különféle cégeknek, 114 00:06:08,583 --> 00:06:11,142 többek között kereskedelmi- és karrierintézeteknek, 115 00:06:12,083 --> 00:06:13,351 diákhitel- 116 00:06:13,375 --> 00:06:15,125 és diákhitelkártya-cégeknek is. 117 00:06:16,542 --> 00:06:17,893 Tovább feszítve a határokat, 118 00:06:17,917 --> 00:06:21,726 a Fordham kutatói felkértek egy oktatási adatbrókert, 119 00:06:21,750 --> 00:06:27,126 hogy adjon listát 14–15 éves lányokról, 120 00:06:27,583 --> 00:06:30,630 akik családtervezési szolgáltatások iránt érdeklődnek. 121 00:06:32,208 --> 00:06:34,684 Az adatbróker vállalta a lista átadását. 122 00:06:34,708 --> 00:06:39,583 Képzeljék csak el, mennyire intim és tolakodó ez a gyermekeink számára. 123 00:06:40,833 --> 00:06:44,809 De az oktatási adatbrókerek példája valójában csak egy a sok közül. 124 00:06:44,833 --> 00:06:49,193 Az igazság az, hogy gyermekeinket ellenőrizhetetlen módon profilozzák, 125 00:06:49,542 --> 00:06:52,958 profiljaik mégis jelentős mértékben befolyásolhatják lehetőségeiket. 126 00:06:54,167 --> 00:06:57,316 Így hát fel kell tegyük a kérdést: 127 00:06:57,667 --> 00:07:02,351 megbízhatunk ezekben a technológiákban gyermekeink profilozását illetően? 128 00:07:02,375 --> 00:07:03,625 Bízhatunk bennük? 129 00:07:05,708 --> 00:07:06,958 Az én válaszom: nem. 130 00:07:07,792 --> 00:07:09,059 Antropológusként hiszem, 131 00:07:09,083 --> 00:07:12,851 hogy a mesterséges intelligencia és a prediktív elemzés remek lehet 132 00:07:12,875 --> 00:07:14,893 megbetegedések lefolyásának előrejelzésére 133 00:07:14,917 --> 00:07:16,750 vagy a klímaváltozás elleni harcban. 134 00:07:18,000 --> 00:07:19,853 De fel kell hagynunk a hiedelemmel, 135 00:07:19,887 --> 00:07:23,351 hogy ezek a technológiák objektíven tudnak emberi profilokat alkotni, 136 00:07:23,375 --> 00:07:26,559 hogy megbízhatók az adatvezérelt döntések meghozatalában 137 00:07:26,583 --> 00:07:28,301 adott emberek életére vonatkozóan. 138 00:07:28,500 --> 00:07:31,059 Mert nem tudnak embereket profilozni. 139 00:07:31,083 --> 00:07:33,954 Az adatnyomok nem tükrözik azt, akik vagyunk. 140 00:07:34,258 --> 00:07:37,089 Az emberek az ellenkezőjét gondolják, mint amit állítanak, 141 00:07:37,106 --> 00:07:39,018 mást éreznek és más szerint cselekednek. 142 00:07:39,042 --> 00:07:41,518 Algoritmusos előrejelzések és digitális szokásaink 143 00:07:41,542 --> 00:07:46,708 nem fedhetik le az emberi tapasztalás megjósolhatatlanságát és komplexitását. 144 00:07:48,417 --> 00:07:49,615 Ráadásul 145 00:07:50,000 --> 00:07:52,121 ezek a technológiák mindig, 146 00:07:52,708 --> 00:07:53,636 mindig, 147 00:07:54,000 --> 00:07:56,267 egyik vagy másik irányban részrehajlók. 148 00:07:57,125 --> 00:08:02,184 Az algoritmusok definíció szerint szabályok és lépések összessége, 149 00:08:02,208 --> 00:08:05,530 melyeket azért alkotnak, hogy adott eredményre jussanak. 150 00:08:06,833 --> 00:08:09,559 De ezek a szabályok és lépések nem lehetnek objektívek, 151 00:08:09,583 --> 00:08:11,610 mert ezeket emberek alkották 152 00:08:11,650 --> 00:08:13,566 meghatározott kulturális kontextusban, 153 00:08:13,606 --> 00:08:16,040 s adott kulturális értékek alakítják őket. 154 00:08:16,667 --> 00:08:18,393 Amikor gépek tanulnak, 155 00:08:18,417 --> 00:08:20,667 részrehajló algoritmusok alapján tanulnak, 156 00:08:21,625 --> 00:08:24,833 és gyakran részrehajló adatbázisokból is tanulnak. 157 00:08:25,833 --> 00:08:29,258 Ma már látni az algoritmikus részrehajlás első példáit. 158 00:08:29,583 --> 00:08:32,860 Néhány ezek közül elég rémisztő. 159 00:08:34,500 --> 00:08:38,559 A New York-i AI Now Kutatóintézet idén kiadott jelentése feltárta, 160 00:08:38,583 --> 00:08:40,880 hogy az AI-technológiákat, 161 00:08:41,000 --> 00:08:44,236 melyeket a prediktív rendfenntartásban alkalmaznak, 162 00:08:44,500 --> 00:08:47,625 “piszkos” adatok alapján képezték. 163 00:08:48,333 --> 00:08:51,141 Ezeket az adatokat 164 00:08:51,250 --> 00:08:55,133 köztudottan részrehajló és nem átlátható 165 00:08:55,458 --> 00:08:58,308 rendőri gyakorlattal jellemezhető korszakokban gyűjtöttek. 166 00:08:58,542 --> 00:09:02,601 Mivel ezeket a technológiákat piszkos adatok alapján tanítják, 167 00:09:02,625 --> 00:09:04,059 nem objektívek, 168 00:09:04,083 --> 00:09:08,601 így az eredményeik felerősítik és megvalósítják 169 00:09:08,625 --> 00:09:10,450 a rendőri részrehajlást és hibákat. 170 00:09:13,167 --> 00:09:16,309 Alapvető problémával állunk szemben 171 00:09:16,333 --> 00:09:17,976 társadalmunkban. 172 00:09:18,000 --> 00:09:22,792 Ami az emberek profilozását illeti, kezdünk technológiákban bízni. 173 00:09:23,750 --> 00:09:26,268 Tudjuk, hogy az emberek profilozásakor 174 00:09:26,292 --> 00:09:28,894 ezek a technológiák mindig részrehajlók lesznek, 175 00:09:29,125 --> 00:09:31,327 és sosem lesznek igazán pontosak. 176 00:09:31,875 --> 00:09:34,502 Ezért politikai megoldásra van szükség. 177 00:09:34,833 --> 00:09:39,542 A kormányoknak el kell ismerniük: adatainkhoz való jogunk emberi jog. 178 00:09:40,292 --> 00:09:42,898 (Taps és ujjongás) 179 00:09:47,833 --> 00:09:51,917 Amíg ez nem történik meg, nem remélhetünk igazságosabb jövőt. 180 00:09:52,750 --> 00:09:55,476 Aggódom, hogy a lányaim 181 00:09:55,500 --> 00:09:59,128 mindenféle algoritmikus diszkriminációnak és hibának lesznek kitéve. 182 00:09:59,250 --> 00:10:01,553 A különbség köztem és a lányaim között, 183 00:10:01,673 --> 00:10:04,405 hogy az én gyerekkoromról nincsen elérhető adat. 184 00:10:04,875 --> 00:10:08,131 Nincs adatbázis a sok hülyeségről, 185 00:10:08,151 --> 00:10:10,999 melyet még tinédzserként elkövettem vagy gondoltam. 186 00:10:11,083 --> 00:10:12,583 (Nevetés) 187 00:10:13,833 --> 00:10:16,583 De a lányaim esetében ez már más. 188 00:10:17,292 --> 00:10:20,476 A róluk ma gyűjtött adatot lehet, 189 00:10:20,500 --> 00:10:23,793 hogy a jövőben a megítélésükre használják, 190 00:10:24,333 --> 00:10:27,292 és reményeik s álmaik útjába is állhatnak. 191 00:10:28,583 --> 00:10:30,101 Úgy hiszem, itt az alkalom. 192 00:10:30,125 --> 00:10:31,559 Az alkalom, hogy fellépjünk. 193 00:10:31,583 --> 00:10:33,988 Az alkalom, hogy elkezdjük együttműködni 194 00:10:34,083 --> 00:10:35,518 mint egyének, 195 00:10:35,542 --> 00:10:37,923 mint szervezetek és intézmények, 196 00:10:38,083 --> 00:10:40,624 hogy szélesebb körű adatigazságosságot követeljünk 197 00:10:40,658 --> 00:10:42,601 saját magunk és gyermekeink számára is, 198 00:10:42,695 --> 00:10:44,143 még mielőtt nem túl késő. 199 00:10:44,167 --> 00:10:45,434 Köszönöm. 200 00:10:45,458 --> 00:10:46,875 (Taps)