0:00:00.230,0:00:02.611 Varje dag, varje vecka, 0:00:03.083,0:00:05.268 godkänner vi villkor. 0:00:05.292,0:00:09.292 Och när gör vi detta[br]förser vi företag med den lagliga rätten 0:00:09.292,0:00:15.406 att göra vad de vill med våran data[br]och med våra barns data. 0:00:16.792,0:00:19.768 Vilket får oss att undra: 0:00:19.792,0:00:24.684 hur mycket data ger vi bort om barn,[br]och vad får det för konsekvenser? 0:00:26.500,0:00:30.542 Jag är antropolog och jag är även mamma[br]till två små flickor. 0:00:30.542,0:00:35.018 Och jag började bli intresserad[br]av denna fråga år 2015 0:00:35.042,0:00:37.768 när jag plötsligt insåg[br]att det fanns stora - 0:00:37.792,0:00:40.809 nästan otroliga mängder dataspår 0:00:40.975,0:00:44.142 som produceras och samlas om barn. 0:00:44.792,0:00:49.292 Så jag lanserade ett forskningsprojekt[br]som heter Child Data Citizen 0:00:49.292,0:00:51.417 och jag siktade på att fylla tomrummen. 0:00:52.583,0:00:55.601 Nu kanske du tror att[br]jag är här för att skylla på er 0:00:55.625,0:00:58.393 för att ni lägger upp bilder[br]på era barn på sociala medier 0:00:58.417,0:01:00.559 men det är inte riktigt poängen. 0:01:00.583,0:01:04.000 Problemet är mycket större[br]än så kallat "sharenting." 0:01:04.792,0:01:08.893 Detta handlar om system, inte individer. 0:01:08.917,0:01:11.208 Du och dina vanor är inte att skylla på. 0:01:12.833,0:01:15.684 För första gången i historien 0:01:15.708,0:01:20.078 spårar vi individuell data om barn[br]från långt innan de är födda - 0:01:20.083,0:01:25.148 ibland från befruktningsögonblicket,[br]och sedan genom deras liv. 0:01:25.167,0:01:28.268 Du förstår, när föräldrar bestämmer sig[br]för att skaffa barn 0:01:28.292,0:01:31.268 går de online för att söka på[br]"sätt att bli gravid," 0:01:31.292,0:01:34.042 eller så laddar de ned appar[br]för ägglossningsspårning. 0:01:35.250,0:01:37.851 När de blir gravida 0:01:37.875,0:01:41.018 postar de ultraljud av sina[br]bäbisar på sociala medier, 0:01:41.042,0:01:43.059 de laddar ned graviditetsappar 0:01:43.083,0:01:46.809 eller så konsulterar de dr Google[br]om alla möjliga saker, 0:01:46.833,0:01:50.951 som, du vet -[br]om "missfallsrisk när man flyger" 0:01:50.958,0:01:53.726 eller "magkrämpor i tidig graviditet." 0:01:53.750,0:01:57.199 Jag vet för jag har gjort det -[br]och många gånger. 0:01:58.458,0:02:02.249 Och när är barnet fött[br]spårar de varje tupplur, varje matning, 0:02:02.249,0:02:05.167 varje liten livshändelse[br]med olika tekniker. 0:02:06.083,0:02:07.559 Och alla dessa tekniker 0:02:07.583,0:02:13.726 transformerar bäbisens mest intima[br]beteende- och hälsodata till vinst 0:02:13.750,0:02:15.542 genom att dela det med andra. 0:02:16.353,0:02:18.646 Så för att ge er en aning om [br]hur detta fungerar, 0:02:18.646,0:02:23.934 2019 publicerade "British Medical Journal"[br]forskning som visade 0:02:23.958,0:02:27.601 att av 24 hälsoappar, 0:02:27.625,0:02:31.083 delade 19 information med en tredje part. 0:02:32.083,0:02:37.917 Och dessa tredje parter delade information[br]med 216 andra organisationer. 0:02:38.875,0:02:42.309 Av dessa 216 fjärde parterna 0:02:42.333,0:02:45.476 ingick bara tre i sjukvårdssektorn. 0:02:45.500,0:02:50.018 De andra företagen som hade tillgång[br]till datan var stora teknikföretag 0:02:50.042,0:02:53.559 som Google, Facebook eller Oracle, 0:02:53.583,0:02:56.184 de var digitala reklamföretag 0:02:56.208,0:03:00.333 och det fanns även en[br]konsumentkreditrapporteringsbyrå. 0:03:01.125,0:03:02.559 Så du förstår: 0:03:02.583,0:03:07.708 reklambyråer och kreditbyråer har redan [br]datapunkter på små bäbisar. 0:03:09.125,0:03:11.893 Men mobilappar,[br]webbsökningar och sociala medier 0:03:11.917,0:03:15.018 är bara toppen av isberget 0:03:15.042,0:03:19.633 eftersom barn blir spårade[br]av flera tekniker i vardagslivet. 0:03:19.667,0:03:23.809 De spåras av hemtekniker [br]och virtuella assistenter hemma. 0:03:23.833,0:03:28.019 De spåras av utbildningsplattformar[br]och utbildningstekniker i sina skolor. 0:03:28.042,0:03:32.693 De spåras av uppgifter online[br]och onlineportaler hos doktorn. 0:03:32.708,0:03:36.417 De spåras av sina[br]internetanslutna leksaker, onlinespel 0:03:36.417,0:03:39.083 och många, många, många,[br]många andra tekniker. 0:03:40.250,0:03:41.893 Så under min forskning 0:03:41.917,0:03:46.059 kom många föräldrar fram till mig[br]och sa:"Så vadå? 0:03:46.083,0:03:49.000 Varför spelar det roll[br]att mina barn blir spårade? 0:03:50.042,0:03:51.375 Vi har inget att dölja." 0:03:52.958,0:03:54.458 Det spelar roll. 0:03:55.083,0:04:01.101 Det spelar roll för att dagens individer[br]inte bara blir spårade, 0:04:01.125,0:04:05.226 de blir även profilerade[br]på grundval av sina dataspår. 0:04:05.250,0:04:09.059 Artificiell intelligens[br]och förutsägbar analys används 0:04:09.083,0:04:12.726 för att samla in så mycket data [br]som möjligt om ett individuellt liv 0:04:12.750,0:04:14.601 från olika källor: 0:04:14.625,0:04:19.143 familjehistoria, köpvanor,[br]kommentarer på sociala medier. 0:04:19.167,0:04:21.018 Och sedan samlar de all denna data 0:04:22.042,0:04:24.792 för att skapa datadrivna beslut[br]om individen. 0:04:24.792,0:04:28.226 Och dessa tekniker används överallt. 0:04:28.250,0:04:30.643 Banker använder dem för att[br]besluta om lån. 0:04:30.667,0:04:33.432 Försäkringar använder dem för att[br]besluta om premier. 0:04:34.208,0:04:36.684 Rekryterare och arbetsgivare använder dem 0:04:36.708,0:04:39.625 för att besluta om någon[br]är passande för ett jobb eller inte. 0:04:40.750,0:04:43.851 Även polisen och rätten använder dem 0:04:43.875,0:04:47.393 för att bestämma om någon[br]är en potentiell kriminell 0:04:47.417,0:04:50.042 eller är sannolik att [br]begå ett brott igen. 0:04:52.458,0:04:56.518 Vi har ingen kunskap eller kontroll 0:04:56.542,0:05:00.184 över de sätt som de som köper,[br]säljer och bearbetar våran data 0:05:00.208,0:05:02.917 profilerar oss och våra barn. 0:05:03.625,0:05:07.667 Men dessa profiler kan komma att påverka[br]våra rättigheter på betydelsefulla sätt. 0:05:08.917,0:05:11.125 För att ge ett exempel, 0:05:13.816,0:05:19.865 2018 publicerade "New York Times"[br]nyheten att datan som samlats in 0:05:19.875,0:05:22.934 genom online[br]högskoleplanerande tjänster - 0:05:23.006,0:05:27.732 som faktiskt används av miljoner[br]skolbarn över USA 0:05:27.732,0:05:31.375 som letar efter ett högskoleprogram[br]eller ett stipendium - 0:05:31.375,0:05:34.417 hade sålts ut till utbildningsmäklare. 0:05:35.792,0:05:40.809 Forskare på Fordham som studerade[br]utbildningsmäklare har nu 0:05:41.250,0:05:46.476 avslöjat att dessa företag [br]profilerar barn så unga som 2 år 0:05:46.500,0:05:49.559 utifrån olika kategorier: 0:05:49.583,0:05:55.875 etnicitet, religion, välstånd,[br]sociala besvärligheter 0:05:55.875,0:05:58.809 och många andra slumpmässiga kategorier. 0:05:58.833,0:06:03.851 Och sedan säljer de dessa profiler[br]tillsammans med barnets namn, 0:06:03.875,0:06:08.583 deras hemadress och kontaktuppgifter[br]till olika företag 0:06:08.583,0:06:11.042 inklusive handels- och [br]karriärinstitutioner, 0:06:12.083,0:06:15.391 studentlån och kreditkortsföretag[br]för studenter. 0:06:16.542,0:06:17.893 För att skjuta på gränserna 0:06:17.917,0:06:21.726 bad forskarna på Fordham[br]en utbildningsmäklare 0:06:21.750,0:06:27.559 att förse dem med en lista[br]på 14- till 15-åriga flickor 0:06:27.583,0:06:30.958 som var intresserade av[br]familjeplanerande tjänster. 0:06:32.208,0:06:34.684 Datamäklaren gick med på att[br]förse dem med listan. 0:06:34.708,0:06:39.583 Så tänk hur intimt[br]och påträngande det är för våra barn. 0:06:40.833,0:06:44.689 Men utbildningsmäklare [br]är bara ett exempel. 0:06:44.689,0:06:47.125 Sanningen är att våra barn[br]blir profilerade 0:06:47.125,0:06:49.617 på sätt vi inte kan kontrollera 0:06:49.617,0:06:52.958 men det kan avsevärt påverka[br]deras chanser i livet. 0:06:54.167,0:06:57.643 Så vi måste fråga oss själva: 0:06:57.667,0:07:02.351 Kan vi lita på dessa tekniker när det[br]kommer till att profilera våra barn? 0:07:02.375,0:07:03.625 Kan vi? 0:07:05.708,0:07:06.958 Mitt svar är nej. 0:07:07.732,0:07:08.969 Som antropolog 0:07:08.973,0:07:12.851 tror jag att artificiell intelligens[br]och förutsägbar analys kan vara bra 0:07:12.875,0:07:16.743 för att förutsäga sjukdomförlopp[br]eller bekämpa klimatförändringar. 0:07:18.000,0:07:19.643 Men vi måste överge tron 0:07:19.667,0:07:23.351 att dessa tekniker[br]objektivt kan profilera människor 0:07:23.375,0:07:26.559 och att vi kan förlita oss på dem[br]att ta datadrivna beslut 0:07:26.583,0:07:28.476 om individuella liv. 0:07:28.500,0:07:31.059 För de kan inte profilera människor. 0:07:31.083,0:07:34.434 Dataspår speglar inte vem vi är. 0:07:34.458,0:07:36.559 Människor tänker en sak[br]och säger motsatsen, 0:07:36.583,0:07:39.018 känner på ett sätt[br]och beter oss annorlunda. 0:07:39.042,0:07:41.568 Algoritmiska förutsägelser[br]eller våra digitala metoder 0:07:41.568,0:07:46.708 kan inte redogöra för oförutsägbarheten[br]och komplexiteten i mänsklig erfarenhet. 0:07:48.417,0:07:52.706 Och dessutom är dessa tekniker alltid - 0:07:52.708,0:07:55.826 alltid på ett eller annat sätt partiska. 0:07:57.125,0:08:02.184 Algoritmer är per definition[br]uppsättningar av regler eller steg 0:08:02.208,0:08:05.917 som har blivit designade att uppnå[br]ett specifikt resultat, OK? 0:08:06.533,0:08:09.583 Men dessa regler och steg[br]kan inte vara objektiva 0:08:09.583,0:08:13.500 för de har designats av människor[br]i ett specifikt kulturellt sammanhang 0:08:13.500,0:08:16.000 och är formade[br]av specifika kulturella värderingar. 0:08:16.667,0:08:20.693 Så när en maskin lär sig,[br]lär den sig utifrån partiska algoritmer 0:08:21.625,0:08:24.833 och de lär sig även ofta[br]från partiska databaser. 0:08:25.833,0:08:29.559 Just nu ser vi de första exemplen [br]på algoritmisk partiskhet. 0:08:29.583,0:08:33.083 Och vissa av dessa exempel[br]är uppriktigt skrämmande. 0:08:34.500,0:08:38.559 I år publicerade "Al Now Institute"[br]i New York en rapport 0:08:38.583,0:08:44.486 som avslöjade att Al-tekniker[br]som används för prediktivt polisarbete 0:08:44.500,0:08:47.625 har tränats på "problematisk" data. 0:08:48.333,0:08:51.226 Detta är helt enkelt data som har samlats 0:08:51.250,0:08:55.434 under historiska perioder[br]av känd raspartiskhet 0:08:55.458,0:08:57.708 och icke-transparent polisarbete. 0:08:58.542,0:09:02.601 Eftersom dessa tekniker[br]tränas med "problematisk" data 0:09:02.625,0:09:08.619 är de inte objektiva,[br]och deras resultat förstärker bara 0:09:08.625,0:09:10.250 polispartiskhet och fel. 0:09:13.167,0:09:16.309 Så jag tror att vi står inför[br]ett grundläggande problem 0:09:16.333,0:09:17.976 i vårt samhälle. 0:09:18.000,0:09:22.792 Vi börjar att lita på teknik när det [br]kommer till att profilera människor. 0:09:23.750,0:09:26.268 Vi vet att när man profilerar människor 0:09:26.292,0:09:29.101 så kommer teknik alltid att vara partisk 0:09:29.125,0:09:31.851 och kommer aldrig att vara riktigt exakt. 0:09:31.875,0:09:34.809 Så vad vi behöver nu[br]är faktiskt en politisk lösning. 0:09:34.833,0:09:39.542 Vi behöver få regeringar att erkänna att[br]vår data är våra mänskliga rättigheter. 0:09:40.292,0:09:44.375 (Applåder och jubel) 0:09:47.833,0:09:51.917 Tills detta händer kan vi inte hoppas[br]på en mer rättvis framtid. 0:09:52.750,0:09:55.476 Jag oroar mig över att mina döttrar[br]kommer att bli utsatta 0:09:55.500,0:09:59.226 för alla möjliga sorter av [br]algoritmisk diskriminering och fel. 0:09:59.250,0:10:01.643 Skillnaden mellan mig och mina döttrar 0:10:01.667,0:10:04.851 är att det inte finns något offentligt[br]register av min barndom. 0:10:04.875,0:10:08.893 Det finns absolut inte någon databas[br]med alla dumma saker jag har gjort 0:10:08.917,0:10:11.059 och tänkt när jag var tonåring. 0:10:11.083,0:10:12.583 (Skratt) 0:10:13.833,0:10:16.583 Men för mina döttrar[br]kan detta vara annorlunda. 0:10:17.292,0:10:20.476 Den data som samlas från dem idag 0:10:20.500,0:10:24.309 kan komma att användas [br]för att döma dem i framtiden 0:10:24.333,0:10:27.292 och kan komma att hindra[br]deras hopp och drömmar. 0:10:28.583,0:10:31.583 Jag tycker att det är dags.[br]Det är dags att vi kliver fram. 0:10:31.583,0:10:34.059 Det är dags att börja jobba tillsammans 0:10:34.083,0:10:38.078 som individer, som organisationer[br]och som institut 0:10:38.083,0:10:44.144 och kräva mer datarättvisa för oss[br]och för våra barn innan det är för sent. 0:10:44.167,0:10:45.434 Tack så mycket. 0:10:45.458,0:10:46.875 (Applåder)