1 00:00:00,230 --> 00:00:02,611 Varje dag, varje vecka, 2 00:00:03,083 --> 00:00:05,268 godkänner vi villkor. 3 00:00:05,292 --> 00:00:09,292 Och när gör vi detta förser vi företag med den lagliga rätten 4 00:00:09,292 --> 00:00:15,406 att göra vad de vill med våran data och med våra barns data. 5 00:00:16,792 --> 00:00:19,768 Vilket får oss att undra: 6 00:00:19,792 --> 00:00:24,684 hur mycket data ger vi bort om barn, och vad får det för konsekvenser? 7 00:00:26,500 --> 00:00:30,542 Jag är antropolog och jag är även mamma till två små flickor. 8 00:00:30,542 --> 00:00:35,018 Och jag började bli intresserad av denna fråga år 2015 9 00:00:35,042 --> 00:00:37,768 när jag plötsligt insåg att det fanns stora - 10 00:00:37,792 --> 00:00:40,809 nästan otroliga mängder dataspår 11 00:00:40,975 --> 00:00:44,142 som produceras och samlas om barn. 12 00:00:44,792 --> 00:00:49,292 Så jag lanserade ett forskningsprojekt som heter Child Data Citizen 13 00:00:49,292 --> 00:00:51,417 och jag siktade på att fylla tomrummen. 14 00:00:52,583 --> 00:00:55,601 Nu kanske du tror att jag är här för att skylla på er 15 00:00:55,625 --> 00:00:58,393 för att ni lägger upp bilder på era barn på sociala medier 16 00:00:58,417 --> 00:01:00,559 men det är inte riktigt poängen. 17 00:01:00,583 --> 00:01:04,000 Problemet är mycket större än så kallat "sharenting." 18 00:01:04,792 --> 00:01:08,893 Detta handlar om system, inte individer. 19 00:01:08,917 --> 00:01:11,208 Du och dina vanor är inte att skylla på. 20 00:01:12,833 --> 00:01:15,684 För första gången i historien 21 00:01:15,708 --> 00:01:20,078 spårar vi individuell data om barn från långt innan de är födda - 22 00:01:20,083 --> 00:01:25,148 ibland från befruktningsögonblicket, och sedan genom deras liv. 23 00:01:25,167 --> 00:01:28,268 Du förstår, när föräldrar bestämmer sig för att skaffa barn 24 00:01:28,292 --> 00:01:31,268 går de online för att söka på "sätt att bli gravid," 25 00:01:31,292 --> 00:01:34,042 eller så laddar de ned appar för ägglossningsspårning. 26 00:01:35,250 --> 00:01:37,851 När de blir gravida 27 00:01:37,875 --> 00:01:41,018 postar de ultraljud av sina bäbisar på sociala medier, 28 00:01:41,042 --> 00:01:43,059 de laddar ned graviditetsappar 29 00:01:43,083 --> 00:01:46,809 eller så konsulterar de dr Google om alla möjliga saker, 30 00:01:46,833 --> 00:01:50,951 som, du vet - om "missfallsrisk när man flyger" 31 00:01:50,958 --> 00:01:53,726 eller "magkrämpor i tidig graviditet." 32 00:01:53,750 --> 00:01:57,199 Jag vet för jag har gjort det - och många gånger. 33 00:01:58,458 --> 00:02:02,249 Och när är barnet fött spårar de varje tupplur, varje matning, 34 00:02:02,249 --> 00:02:05,167 varje liten livshändelse med olika tekniker. 35 00:02:06,083 --> 00:02:07,559 Och alla dessa tekniker 36 00:02:07,583 --> 00:02:13,726 transformerar bäbisens mest intima beteende- och hälsodata till vinst 37 00:02:13,750 --> 00:02:15,542 genom att dela det med andra. 38 00:02:16,353 --> 00:02:18,646 Så för att ge er en aning om hur detta fungerar, 39 00:02:18,646 --> 00:02:23,934 2019 publicerade "British Medical Journal" forskning som visade 40 00:02:23,958 --> 00:02:27,601 att av 24 hälsoappar, 41 00:02:27,625 --> 00:02:31,083 delade 19 information med en tredje part. 42 00:02:32,083 --> 00:02:37,917 Och dessa tredje parter delade information med 216 andra organisationer. 43 00:02:38,875 --> 00:02:42,309 Av dessa 216 fjärde parterna 44 00:02:42,333 --> 00:02:45,476 ingick bara tre i sjukvårdssektorn. 45 00:02:45,500 --> 00:02:50,018 De andra företagen som hade tillgång till datan var stora teknikföretag 46 00:02:50,042 --> 00:02:53,559 som Google, Facebook eller Oracle, 47 00:02:53,583 --> 00:02:56,184 de var digitala reklamföretag 48 00:02:56,208 --> 00:03:00,333 och det fanns även en konsumentkreditrapporteringsbyrå. 49 00:03:01,125 --> 00:03:02,559 Så du förstår: 50 00:03:02,583 --> 00:03:07,708 reklambyråer och kreditbyråer har redan datapunkter på små bäbisar. 51 00:03:09,125 --> 00:03:11,893 Men mobilappar, webbsökningar och sociala medier 52 00:03:11,917 --> 00:03:15,018 är bara toppen av isberget 53 00:03:15,042 --> 00:03:19,633 eftersom barn blir spårade av flera tekniker i vardagslivet. 54 00:03:19,667 --> 00:03:23,809 De spåras av hemtekniker och virtuella assistenter hemma. 55 00:03:23,833 --> 00:03:28,019 De spåras av utbildningsplattformar och utbildningstekniker i sina skolor. 56 00:03:28,042 --> 00:03:32,693 De spåras av uppgifter online och onlineportaler hos doktorn. 57 00:03:32,708 --> 00:03:36,417 De spåras av sina internetanslutna leksaker, onlinespel 58 00:03:36,417 --> 00:03:39,083 och många, många, många, många andra tekniker. 59 00:03:40,250 --> 00:03:41,893 Så under min forskning 60 00:03:41,917 --> 00:03:46,059 kom många föräldrar fram till mig och sa:"Så vadå? 61 00:03:46,083 --> 00:03:49,000 Varför spelar det roll att mina barn blir spårade? 62 00:03:50,042 --> 00:03:51,375 Vi har inget att dölja." 63 00:03:52,958 --> 00:03:54,458 Det spelar roll. 64 00:03:55,083 --> 00:04:01,101 Det spelar roll för att dagens individer inte bara blir spårade, 65 00:04:01,125 --> 00:04:05,226 de blir även profilerade på grundval av sina dataspår. 66 00:04:05,250 --> 00:04:09,059 Artificiell intelligens och förutsägbar analys används 67 00:04:09,083 --> 00:04:12,726 för att samla in så mycket data som möjligt om ett individuellt liv 68 00:04:12,750 --> 00:04:14,601 från olika källor: 69 00:04:14,625 --> 00:04:19,143 familjehistoria, köpvanor, kommentarer på sociala medier. 70 00:04:19,167 --> 00:04:21,018 Och sedan samlar de all denna data 71 00:04:22,042 --> 00:04:24,792 för att skapa datadrivna beslut om individen. 72 00:04:24,792 --> 00:04:28,226 Och dessa tekniker används överallt. 73 00:04:28,250 --> 00:04:30,643 Banker använder dem för att besluta om lån. 74 00:04:30,667 --> 00:04:33,432 Försäkringar använder dem för att besluta om premier. 75 00:04:34,208 --> 00:04:36,684 Rekryterare och arbetsgivare använder dem 76 00:04:36,708 --> 00:04:39,625 för att besluta om någon är passande för ett jobb eller inte. 77 00:04:40,750 --> 00:04:43,851 Även polisen och rätten använder dem 78 00:04:43,875 --> 00:04:47,393 för att bestämma om någon är en potentiell kriminell 79 00:04:47,417 --> 00:04:50,042 eller är sannolik att begå ett brott igen. 80 00:04:52,458 --> 00:04:56,518 Vi har ingen kunskap eller kontroll 81 00:04:56,542 --> 00:05:00,184 över de sätt som de som köper, säljer och bearbetar våran data 82 00:05:00,208 --> 00:05:02,917 profilerar oss och våra barn. 83 00:05:03,625 --> 00:05:07,667 Men dessa profiler kan komma att påverka våra rättigheter på betydelsefulla sätt. 84 00:05:08,917 --> 00:05:11,125 För att ge ett exempel, 85 00:05:13,816 --> 00:05:19,865 2018 publicerade "New York Times" nyheten att datan som samlats in 86 00:05:19,875 --> 00:05:22,934 genom online högskoleplanerande tjänster - 87 00:05:23,006 --> 00:05:27,732 som faktiskt används av miljoner skolbarn över USA 88 00:05:27,732 --> 00:05:31,375 som letar efter ett högskoleprogram eller ett stipendium - 89 00:05:31,375 --> 00:05:34,417 hade sålts ut till utbildningsmäklare. 90 00:05:35,792 --> 00:05:40,809 Forskare på Fordham som studerade utbildningsmäklare har nu 91 00:05:41,250 --> 00:05:46,476 avslöjat att dessa företag profilerar barn så unga som 2 år 92 00:05:46,500 --> 00:05:49,559 utifrån olika kategorier: 93 00:05:49,583 --> 00:05:55,875 etnicitet, religion, välstånd, sociala besvärligheter 94 00:05:55,875 --> 00:05:58,809 och många andra slumpmässiga kategorier. 95 00:05:58,833 --> 00:06:03,851 Och sedan säljer de dessa profiler tillsammans med barnets namn, 96 00:06:03,875 --> 00:06:08,583 deras hemadress och kontaktuppgifter till olika företag 97 00:06:08,583 --> 00:06:11,042 inklusive handels- och karriärinstitutioner, 98 00:06:12,083 --> 00:06:15,391 studentlån och kreditkortsföretag för studenter. 99 00:06:16,542 --> 00:06:17,893 För att skjuta på gränserna 100 00:06:17,917 --> 00:06:21,726 bad forskarna på Fordham en utbildningsmäklare 101 00:06:21,750 --> 00:06:27,559 att förse dem med en lista på 14- till 15-åriga flickor 102 00:06:27,583 --> 00:06:30,958 som var intresserade av familjeplanerande tjänster. 103 00:06:32,208 --> 00:06:34,684 Datamäklaren gick med på att förse dem med listan. 104 00:06:34,708 --> 00:06:39,583 Så tänk hur intimt och påträngande det är för våra barn. 105 00:06:40,833 --> 00:06:44,689 Men utbildningsmäklare är bara ett exempel. 106 00:06:44,689 --> 00:06:47,125 Sanningen är att våra barn blir profilerade 107 00:06:47,125 --> 00:06:49,617 på sätt vi inte kan kontrollera 108 00:06:49,617 --> 00:06:52,958 men det kan avsevärt påverka deras chanser i livet. 109 00:06:54,167 --> 00:06:57,643 Så vi måste fråga oss själva: 110 00:06:57,667 --> 00:07:02,351 Kan vi lita på dessa tekniker när det kommer till att profilera våra barn? 111 00:07:02,375 --> 00:07:03,625 Kan vi? 112 00:07:05,708 --> 00:07:06,958 Mitt svar är nej. 113 00:07:07,732 --> 00:07:08,969 Som antropolog 114 00:07:08,973 --> 00:07:12,851 tror jag att artificiell intelligens och förutsägbar analys kan vara bra 115 00:07:12,875 --> 00:07:16,743 för att förutsäga sjukdomförlopp eller bekämpa klimatförändringar. 116 00:07:18,000 --> 00:07:19,643 Men vi måste överge tron 117 00:07:19,667 --> 00:07:23,351 att dessa tekniker objektivt kan profilera människor 118 00:07:23,375 --> 00:07:26,559 och att vi kan förlita oss på dem att ta datadrivna beslut 119 00:07:26,583 --> 00:07:28,476 om individuella liv. 120 00:07:28,500 --> 00:07:31,059 För de kan inte profilera människor. 121 00:07:31,083 --> 00:07:34,434 Dataspår speglar inte vem vi är. 122 00:07:34,458 --> 00:07:36,559 Människor tänker en sak och säger motsatsen, 123 00:07:36,583 --> 00:07:39,018 känner på ett sätt och beter oss annorlunda. 124 00:07:39,042 --> 00:07:41,568 Algoritmiska förutsägelser eller våra digitala metoder 125 00:07:41,568 --> 00:07:46,708 kan inte redogöra för oförutsägbarheten och komplexiteten i mänsklig erfarenhet. 126 00:07:48,417 --> 00:07:52,706 Och dessutom är dessa tekniker alltid - 127 00:07:52,708 --> 00:07:55,826 alltid på ett eller annat sätt partiska. 128 00:07:57,125 --> 00:08:02,184 Algoritmer är per definition uppsättningar av regler eller steg 129 00:08:02,208 --> 00:08:05,917 som har blivit designade att uppnå ett specifikt resultat, OK? 130 00:08:06,533 --> 00:08:09,583 Men dessa regler och steg kan inte vara objektiva 131 00:08:09,583 --> 00:08:13,500 för de har designats av människor i ett specifikt kulturellt sammanhang 132 00:08:13,500 --> 00:08:16,000 och är formade av specifika kulturella värderingar. 133 00:08:16,667 --> 00:08:20,693 Så när en maskin lär sig, lär den sig utifrån partiska algoritmer 134 00:08:21,625 --> 00:08:24,833 och de lär sig även ofta från partiska databaser. 135 00:08:25,833 --> 00:08:29,559 Just nu ser vi de första exemplen på algoritmisk partiskhet. 136 00:08:29,583 --> 00:08:33,083 Och vissa av dessa exempel är uppriktigt skrämmande. 137 00:08:34,500 --> 00:08:38,559 I år publicerade "Al Now Institute" i New York en rapport 138 00:08:38,583 --> 00:08:44,486 som avslöjade att Al-tekniker som används för prediktivt polisarbete 139 00:08:44,500 --> 00:08:47,625 har tränats på "problematisk" data. 140 00:08:48,333 --> 00:08:51,226 Detta är helt enkelt data som har samlats 141 00:08:51,250 --> 00:08:55,434 under historiska perioder av känd raspartiskhet 142 00:08:55,458 --> 00:08:57,708 och icke-transparent polisarbete. 143 00:08:58,542 --> 00:09:02,601 Eftersom dessa tekniker tränas med "problematisk" data 144 00:09:02,625 --> 00:09:08,619 är de inte objektiva, och deras resultat förstärker bara 145 00:09:08,625 --> 00:09:10,250 polispartiskhet och fel. 146 00:09:13,167 --> 00:09:16,309 Så jag tror att vi står inför ett grundläggande problem 147 00:09:16,333 --> 00:09:17,976 i vårt samhälle. 148 00:09:18,000 --> 00:09:22,792 Vi börjar att lita på teknik när det kommer till att profilera människor. 149 00:09:23,750 --> 00:09:26,268 Vi vet att när man profilerar människor 150 00:09:26,292 --> 00:09:29,101 så kommer teknik alltid att vara partisk 151 00:09:29,125 --> 00:09:31,851 och kommer aldrig att vara riktigt exakt. 152 00:09:31,875 --> 00:09:34,809 Så vad vi behöver nu är faktiskt en politisk lösning. 153 00:09:34,833 --> 00:09:39,542 Vi behöver få regeringar att erkänna att vår data är våra mänskliga rättigheter. 154 00:09:40,292 --> 00:09:44,375 (Applåder och jubel) 155 00:09:47,833 --> 00:09:51,917 Tills detta händer kan vi inte hoppas på en mer rättvis framtid. 156 00:09:52,750 --> 00:09:55,476 Jag oroar mig över att mina döttrar kommer att bli utsatta 157 00:09:55,500 --> 00:09:59,226 för alla möjliga sorter av algoritmisk diskriminering och fel. 158 00:09:59,250 --> 00:10:01,643 Skillnaden mellan mig och mina döttrar 159 00:10:01,667 --> 00:10:04,851 är att det inte finns något offentligt register av min barndom. 160 00:10:04,875 --> 00:10:08,893 Det finns absolut inte någon databas med alla dumma saker jag har gjort 161 00:10:08,917 --> 00:10:11,059 och tänkt när jag var tonåring. 162 00:10:11,083 --> 00:10:12,583 (Skratt) 163 00:10:13,833 --> 00:10:16,583 Men för mina döttrar kan detta vara annorlunda. 164 00:10:17,292 --> 00:10:20,476 Den data som samlas från dem idag 165 00:10:20,500 --> 00:10:24,309 kan komma att användas för att döma dem i framtiden 166 00:10:24,333 --> 00:10:27,292 och kan komma att hindra deras hopp och drömmar. 167 00:10:28,583 --> 00:10:31,583 Jag tycker att det är dags. Det är dags att vi kliver fram. 168 00:10:31,583 --> 00:10:34,059 Det är dags att börja jobba tillsammans 169 00:10:34,083 --> 00:10:38,078 som individer, som organisationer och som institut 170 00:10:38,083 --> 00:10:44,144 och kräva mer datarättvisa för oss och för våra barn innan det är för sent. 171 00:10:44,167 --> 00:10:45,434 Tack så mycket. 172 00:10:45,458 --> 00:10:46,875 (Applåder)