WEBVTT 00:00:00.230 --> 00:00:02.611 Varje dag, varje vecka, 00:00:03.083 --> 00:00:05.268 godkänner vi villkor. 00:00:05.292 --> 00:00:09.292 Och när gör vi detta förser vi företag med den lagliga rätten 00:00:09.292 --> 00:00:15.406 att göra vad de vill med våran data och med våra barns data. 00:00:16.792 --> 00:00:19.768 Vilket får oss att undra: 00:00:19.792 --> 00:00:24.684 hur mycket data ger vi bort om barn, och vad får det för konsekvenser? NOTE Paragraph 00:00:26.500 --> 00:00:30.542 Jag är antropolog och jag är även mamma till två små flickor. 00:00:30.542 --> 00:00:35.018 Och jag började bli intresserad av denna fråga år 2015 00:00:35.042 --> 00:00:37.768 när jag plötsligt insåg att det fanns stora - 00:00:37.792 --> 00:00:40.809 nästan otroliga mängder dataspår 00:00:40.975 --> 00:00:44.142 som produceras och samlas om barn. 00:00:44.792 --> 00:00:49.292 Så jag lanserade ett forskningsprojekt som heter Child Data Citizen 00:00:49.292 --> 00:00:51.417 och jag siktade på att fylla tomrummen. NOTE Paragraph 00:00:52.583 --> 00:00:55.601 Nu kanske du tror att jag är här för att skylla på er 00:00:55.625 --> 00:00:58.393 för att ni lägger upp bilder på era barn på sociala medier 00:00:58.417 --> 00:01:00.559 men det är inte riktigt poängen. 00:01:00.583 --> 00:01:04.000 Problemet är mycket större än så kallat "sharenting." 00:01:04.792 --> 00:01:08.893 Detta handlar om system, inte individer. 00:01:08.917 --> 00:01:11.208 Du och dina vanor är inte att skylla på. NOTE Paragraph 00:01:12.833 --> 00:01:15.684 För första gången i historien 00:01:15.708 --> 00:01:20.078 spårar vi individuell data om barn från långt innan de är födda - 00:01:20.083 --> 00:01:25.148 ibland från befruktningsögonblicket, och sedan genom deras liv. 00:01:25.167 --> 00:01:28.268 Du förstår, när föräldrar bestämmer sig för att skaffa barn 00:01:28.292 --> 00:01:31.268 går de online för att söka på "sätt att bli gravid," 00:01:31.292 --> 00:01:34.042 eller så laddar de ned appar för ägglossningsspårning. 00:01:35.250 --> 00:01:37.851 När de blir gravida 00:01:37.875 --> 00:01:41.018 postar de ultraljud av sina bäbisar på sociala medier, 00:01:41.042 --> 00:01:43.059 de laddar ned graviditetsappar 00:01:43.083 --> 00:01:46.809 eller så konsulterar de dr Google om alla möjliga saker, 00:01:46.833 --> 00:01:50.951 som, du vet - om "missfallsrisk när man flyger" 00:01:50.958 --> 00:01:53.726 eller "magkrämpor i tidig graviditet." 00:01:53.750 --> 00:01:57.199 Jag vet för jag har gjort det - och många gånger. 00:01:58.458 --> 00:02:02.249 Och när är barnet fött spårar de varje tupplur, varje matning, 00:02:02.249 --> 00:02:05.167 varje liten livshändelse med olika tekniker. 00:02:06.083 --> 00:02:07.559 Och alla dessa tekniker 00:02:07.583 --> 00:02:13.726 transformerar bäbisens mest intima beteende- och hälsodata till vinst 00:02:13.750 --> 00:02:15.542 genom att dela det med andra. NOTE Paragraph 00:02:16.353 --> 00:02:18.646 Så för att ge er en aning om hur detta fungerar, 00:02:18.646 --> 00:02:23.934 2019 publicerade "British Medical Journal" forskning som visade 00:02:23.958 --> 00:02:27.601 att av 24 hälsoappar, 00:02:27.625 --> 00:02:31.083 delade 19 information med en tredje part. 00:02:32.083 --> 00:02:37.917 Och dessa tredje parter delade information med 216 andra organisationer. 00:02:38.875 --> 00:02:42.309 Av dessa 216 fjärde parterna 00:02:42.333 --> 00:02:45.476 ingick bara tre i sjukvårdssektorn. 00:02:45.500 --> 00:02:50.018 De andra företagen som hade tillgång till datan var stora teknikföretag 00:02:50.042 --> 00:02:53.559 som Google, Facebook eller Oracle, 00:02:53.583 --> 00:02:56.184 de var digitala reklamföretag 00:02:56.208 --> 00:03:00.333 och det fanns även en konsumentkreditrapporteringsbyrå. 00:03:01.125 --> 00:03:02.559 Så du förstår: 00:03:02.583 --> 00:03:07.708 reklambyråer och kreditbyråer har redan datapunkter på små bäbisar. 00:03:09.125 --> 00:03:11.893 Men mobilappar, webbsökningar och sociala medier 00:03:11.917 --> 00:03:15.018 är bara toppen av isberget 00:03:15.042 --> 00:03:19.633 eftersom barn blir spårade av flera tekniker i vardagslivet. 00:03:19.667 --> 00:03:23.809 De spåras av hemtekniker och virtuella assistenter hemma. 00:03:23.833 --> 00:03:28.019 De spåras av utbildningsplattformar och utbildningstekniker i sina skolor. 00:03:28.042 --> 00:03:32.693 De spåras av uppgifter online och onlineportaler hos doktorn. 00:03:32.708 --> 00:03:36.417 De spåras av sina internetanslutna leksaker, onlinespel 00:03:36.417 --> 00:03:39.083 och många, många, många, många andra tekniker. NOTE Paragraph 00:03:40.250 --> 00:03:41.893 Så under min forskning 00:03:41.917 --> 00:03:46.059 kom många föräldrar fram till mig och sa:"Så vadå? 00:03:46.083 --> 00:03:49.000 Varför spelar det roll att mina barn blir spårade? 00:03:50.042 --> 00:03:51.375 Vi har inget att dölja." 00:03:52.958 --> 00:03:54.458 Det spelar roll. 00:03:55.083 --> 00:04:01.101 Det spelar roll för att dagens individer inte bara blir spårade, 00:04:01.125 --> 00:04:05.226 de blir även profilerade på grundval av sina dataspår. 00:04:05.250 --> 00:04:09.059 Artificiell intelligens och förutsägbar analys används 00:04:09.083 --> 00:04:12.726 för att samla in så mycket data som möjligt om ett individuellt liv 00:04:12.750 --> 00:04:14.601 från olika källor: 00:04:14.625 --> 00:04:19.143 familjehistoria, köpvanor, kommentarer på sociala medier. 00:04:19.167 --> 00:04:21.018 Och sedan samlar de all denna data 00:04:22.042 --> 00:04:24.792 för att skapa datadrivna beslut om individen. 00:04:24.792 --> 00:04:28.226 Och dessa tekniker används överallt. 00:04:28.250 --> 00:04:30.643 Banker använder dem för att besluta om lån. 00:04:30.667 --> 00:04:33.432 Försäkringar använder dem för att besluta om premier. 00:04:34.208 --> 00:04:36.684 Rekryterare och arbetsgivare använder dem 00:04:36.708 --> 00:04:39.625 för att besluta om någon är passande för ett jobb eller inte. 00:04:40.750 --> 00:04:43.851 Även polisen och rätten använder dem 00:04:43.875 --> 00:04:47.393 för att bestämma om någon är en potentiell kriminell 00:04:47.417 --> 00:04:50.042 eller är sannolik att begå ett brott igen. NOTE Paragraph 00:04:52.458 --> 00:04:56.518 Vi har ingen kunskap eller kontroll 00:04:56.542 --> 00:05:00.184 över de sätt som de som köper, säljer och bearbetar våran data 00:05:00.208 --> 00:05:02.917 profilerar oss och våra barn. 00:05:03.625 --> 00:05:07.667 Men dessa profiler kan komma att påverka våra rättigheter på betydelsefulla sätt. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 För att ge ett exempel, 00:05:13.816 --> 00:05:19.865 2018 publicerade "New York Times" nyheten att datan som samlats in 00:05:19.875 --> 00:05:22.934 genom online högskoleplanerande tjänster - 00:05:23.006 --> 00:05:27.732 som faktiskt används av miljoner skolbarn över USA 00:05:27.732 --> 00:05:31.375 som letar efter ett högskoleprogram eller ett stipendium - 00:05:31.375 --> 00:05:34.417 hade sålts ut till utbildningsmäklare. 00:05:35.792 --> 00:05:40.809 Forskare på Fordham som studerade utbildningsmäklare har nu 00:05:41.250 --> 00:05:46.476 avslöjat att dessa företag profilerar barn så unga som 2 år 00:05:46.500 --> 00:05:49.559 utifrån olika kategorier: 00:05:49.583 --> 00:05:55.875 etnicitet, religion, välstånd, sociala besvärligheter 00:05:55.875 --> 00:05:58.809 och många andra slumpmässiga kategorier. 00:05:58.833 --> 00:06:03.851 Och sedan säljer de dessa profiler tillsammans med barnets namn, 00:06:03.875 --> 00:06:08.583 deras hemadress och kontaktuppgifter till olika företag 00:06:08.583 --> 00:06:11.042 inklusive handels- och karriärinstitutioner, 00:06:12.083 --> 00:06:15.391 studentlån och kreditkortsföretag för studenter. 00:06:16.542 --> 00:06:17.893 För att skjuta på gränserna 00:06:17.917 --> 00:06:21.726 bad forskarna på Fordham en utbildningsmäklare 00:06:21.750 --> 00:06:27.559 att förse dem med en lista på 14- till 15-åriga flickor 00:06:27.583 --> 00:06:30.958 som var intresserade av familjeplanerande tjänster. 00:06:32.208 --> 00:06:34.684 Datamäklaren gick med på att förse dem med listan. 00:06:34.708 --> 00:06:39.583 Så tänk hur intimt och påträngande det är för våra barn. 00:06:40.833 --> 00:06:44.689 Men utbildningsmäklare är bara ett exempel. 00:06:44.689 --> 00:06:47.125 Sanningen är att våra barn blir profilerade 00:06:47.125 --> 00:06:49.617 på sätt vi inte kan kontrollera 00:06:49.617 --> 00:06:52.958 men det kan avsevärt påverka deras chanser i livet. NOTE Paragraph 00:06:54.167 --> 00:06:57.643 Så vi måste fråga oss själva: 00:06:57.667 --> 00:07:02.351 Kan vi lita på dessa tekniker när det kommer till att profilera våra barn? 00:07:02.375 --> 00:07:03.625 Kan vi? 00:07:05.708 --> 00:07:06.958 Mitt svar är nej. 00:07:07.732 --> 00:07:08.969 Som antropolog 00:07:08.973 --> 00:07:12.851 tror jag att artificiell intelligens och förutsägbar analys kan vara bra 00:07:12.875 --> 00:07:16.743 för att förutsäga sjukdomförlopp eller bekämpa klimatförändringar. 00:07:18.000 --> 00:07:19.643 Men vi måste överge tron 00:07:19.667 --> 00:07:23.351 att dessa tekniker objektivt kan profilera människor 00:07:23.375 --> 00:07:26.559 och att vi kan förlita oss på dem att ta datadrivna beslut 00:07:26.583 --> 00:07:28.476 om individuella liv. 00:07:28.500 --> 00:07:31.059 För de kan inte profilera människor. 00:07:31.083 --> 00:07:34.434 Dataspår speglar inte vem vi är. 00:07:34.458 --> 00:07:36.559 Människor tänker en sak och säger motsatsen, 00:07:36.583 --> 00:07:39.018 känner på ett sätt och beter oss annorlunda. 00:07:39.042 --> 00:07:41.568 Algoritmiska förutsägelser eller våra digitala metoder 00:07:41.568 --> 00:07:46.708 kan inte redogöra för oförutsägbarheten och komplexiteten i mänsklig erfarenhet. NOTE Paragraph 00:07:48.417 --> 00:07:52.706 Och dessutom är dessa tekniker alltid - 00:07:52.708 --> 00:07:55.826 alltid på ett eller annat sätt partiska. 00:07:57.125 --> 00:08:02.184 Algoritmer är per definition uppsättningar av regler eller steg 00:08:02.208 --> 00:08:05.917 som har blivit designade att uppnå ett specifikt resultat, OK? 00:08:06.533 --> 00:08:09.583 Men dessa regler och steg kan inte vara objektiva 00:08:09.583 --> 00:08:13.500 för de har designats av människor i ett specifikt kulturellt sammanhang 00:08:13.500 --> 00:08:16.000 och är formade av specifika kulturella värderingar. 00:08:16.667 --> 00:08:20.693 Så när en maskin lär sig, lär den sig utifrån partiska algoritmer 00:08:21.625 --> 00:08:24.833 och de lär sig även ofta från partiska databaser. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 Just nu ser vi de första exemplen på algoritmisk partiskhet. 00:08:29.583 --> 00:08:33.083 Och vissa av dessa exempel är uppriktigt skrämmande. 00:08:34.500 --> 00:08:38.559 I år publicerade "Al Now Institute" i New York en rapport 00:08:38.583 --> 00:08:44.486 som avslöjade att Al-tekniker som används för prediktivt polisarbete 00:08:44.500 --> 00:08:47.625 har tränats på "problematisk" data. 00:08:48.333 --> 00:08:51.226 Detta är helt enkelt data som har samlats 00:08:51.250 --> 00:08:55.434 under historiska perioder av känd raspartiskhet 00:08:55.458 --> 00:08:57.708 och icke-transparent polisarbete. 00:08:58.542 --> 00:09:02.601 Eftersom dessa tekniker tränas med "problematisk" data 00:09:02.625 --> 00:09:08.619 är de inte objektiva, och deras resultat förstärker bara 00:09:08.625 --> 00:09:10.250 polispartiskhet och fel. NOTE Paragraph 00:09:13.167 --> 00:09:16.309 Så jag tror att vi står inför ett grundläggande problem 00:09:16.333 --> 00:09:17.976 i vårt samhälle. 00:09:18.000 --> 00:09:22.792 Vi börjar att lita på teknik när det kommer till att profilera människor. 00:09:23.750 --> 00:09:26.268 Vi vet att när man profilerar människor 00:09:26.292 --> 00:09:29.101 så kommer teknik alltid att vara partisk 00:09:29.125 --> 00:09:31.851 och kommer aldrig att vara riktigt exakt. 00:09:31.875 --> 00:09:34.809 Så vad vi behöver nu är faktiskt en politisk lösning. 00:09:34.833 --> 00:09:39.542 Vi behöver få regeringar att erkänna att vår data är våra mänskliga rättigheter. NOTE Paragraph 00:09:40.292 --> 00:09:44.375 (Applåder och jubel) NOTE Paragraph 00:09:47.833 --> 00:09:51.917 Tills detta händer kan vi inte hoppas på en mer rättvis framtid. 00:09:52.750 --> 00:09:55.476 Jag oroar mig över att mina döttrar kommer att bli utsatta 00:09:55.500 --> 00:09:59.226 för alla möjliga sorter av algoritmisk diskriminering och fel. 00:09:59.250 --> 00:10:01.643 Skillnaden mellan mig och mina döttrar 00:10:01.667 --> 00:10:04.851 är att det inte finns något offentligt register av min barndom. 00:10:04.875 --> 00:10:08.893 Det finns absolut inte någon databas med alla dumma saker jag har gjort 00:10:08.917 --> 00:10:11.059 och tänkt när jag var tonåring. NOTE Paragraph 00:10:11.083 --> 00:10:12.583 (Skratt) NOTE Paragraph 00:10:13.833 --> 00:10:16.583 Men för mina döttrar kan detta vara annorlunda. 00:10:17.292 --> 00:10:20.476 Den data som samlas från dem idag 00:10:20.500 --> 00:10:24.309 kan komma att användas för att döma dem i framtiden 00:10:24.333 --> 00:10:27.292 och kan komma att hindra deras hopp och drömmar. NOTE Paragraph 00:10:28.583 --> 00:10:31.583 Jag tycker att det är dags. Det är dags att vi kliver fram. 00:10:31.583 --> 00:10:34.059 Det är dags att börja jobba tillsammans 00:10:34.083 --> 00:10:38.078 som individer, som organisationer och som institut 00:10:38.083 --> 00:10:44.144 och kräva mer datarättvisa för oss och för våra barn innan det är för sent. NOTE Paragraph 00:10:44.167 --> 00:10:45.434 Tack så mycket. NOTE Paragraph 00:10:45.458 --> 00:10:46.875 (Applåder)