Vad teknikföretag vet om dina barn
-
0:00 - 0:03Varje dag, varje vecka,
-
0:03 - 0:05godkänner vi villkor.
-
0:05 - 0:09Och när gör vi detta
förser vi företag med den lagliga rätten -
0:09 - 0:15att göra vad de vill med våran data
och med våra barns data. -
0:17 - 0:20Vilket får oss att undra:
-
0:20 - 0:25hur mycket data ger vi bort om barn,
och vad får det för konsekvenser? -
0:26 - 0:31Jag är antropolog och jag är även mamma
till två små flickor. -
0:31 - 0:35Och jag började bli intresserad
av denna fråga år 2015 -
0:35 - 0:38när jag plötsligt insåg
att det fanns stora - -
0:38 - 0:41nästan otroliga mängder dataspår
-
0:41 - 0:44som produceras och samlas om barn.
-
0:45 - 0:49Så jag lanserade ett forskningsprojekt
som heter Child Data Citizen -
0:49 - 0:51och jag siktade på att fylla tomrummen.
-
0:53 - 0:56Nu kanske du tror att
jag är här för att skylla på er -
0:56 - 0:58för att ni lägger upp bilder
på era barn på sociala medier -
0:58 - 1:01men det är inte riktigt poängen.
-
1:01 - 1:04Problemet är mycket större
än så kallat "sharenting." -
1:05 - 1:09Detta handlar om system, inte individer.
-
1:09 - 1:11Du och dina vanor är inte att skylla på.
-
1:13 - 1:16För första gången i historien
-
1:16 - 1:20spårar vi individuell data om barn
från långt innan de är födda - -
1:20 - 1:25ibland från befruktningsögonblicket,
och sedan genom deras liv. -
1:25 - 1:28Du förstår, när föräldrar bestämmer sig
för att skaffa barn -
1:28 - 1:31går de online för att söka på
"sätt att bli gravid," -
1:31 - 1:34eller så laddar de ned appar
för ägglossningsspårning. -
1:35 - 1:38När de blir gravida
-
1:38 - 1:41postar de ultraljud av sina
bäbisar på sociala medier, -
1:41 - 1:43de laddar ned graviditetsappar
-
1:43 - 1:47eller så konsulterar de dr Google
om alla möjliga saker, -
1:47 - 1:51som, du vet -
om "missfallsrisk när man flyger" -
1:51 - 1:54eller "magkrämpor i tidig graviditet."
-
1:54 - 1:57Jag vet för jag har gjort det -
och många gånger. -
1:58 - 2:02Och när är barnet fött
spårar de varje tupplur, varje matning, -
2:02 - 2:05varje liten livshändelse
med olika tekniker. -
2:06 - 2:08Och alla dessa tekniker
-
2:08 - 2:14transformerar bäbisens mest intima
beteende- och hälsodata till vinst -
2:14 - 2:16genom att dela det med andra.
-
2:16 - 2:19Så för att ge er en aning om
hur detta fungerar, -
2:19 - 2:242019 publicerade "British Medical Journal"
forskning som visade -
2:24 - 2:28att av 24 hälsoappar,
-
2:28 - 2:31delade 19 information med en tredje part.
-
2:32 - 2:38Och dessa tredje parter delade information
med 216 andra organisationer. -
2:39 - 2:42Av dessa 216 fjärde parterna
-
2:42 - 2:45ingick bara tre i sjukvårdssektorn.
-
2:46 - 2:50De andra företagen som hade tillgång
till datan var stora teknikföretag -
2:50 - 2:54som Google, Facebook eller Oracle,
-
2:54 - 2:56de var digitala reklamföretag
-
2:56 - 3:00och det fanns även en
konsumentkreditrapporteringsbyrå. -
3:01 - 3:03Så du förstår:
-
3:03 - 3:08reklambyråer och kreditbyråer har redan
datapunkter på små bäbisar. -
3:09 - 3:12Men mobilappar,
webbsökningar och sociala medier -
3:12 - 3:15är bara toppen av isberget
-
3:15 - 3:20eftersom barn blir spårade
av flera tekniker i vardagslivet. -
3:20 - 3:24De spåras av hemtekniker
och virtuella assistenter hemma. -
3:24 - 3:28De spåras av utbildningsplattformar
och utbildningstekniker i sina skolor. -
3:28 - 3:33De spåras av uppgifter online
och onlineportaler hos doktorn. -
3:33 - 3:36De spåras av sina
internetanslutna leksaker, onlinespel -
3:36 - 3:39och många, många, många,
många andra tekniker. -
3:40 - 3:42Så under min forskning
-
3:42 - 3:46kom många föräldrar fram till mig
och sa:"Så vadå? -
3:46 - 3:49Varför spelar det roll
att mina barn blir spårade? -
3:50 - 3:51Vi har inget att dölja."
-
3:53 - 3:54Det spelar roll.
-
3:55 - 4:01Det spelar roll för att dagens individer
inte bara blir spårade, -
4:01 - 4:05de blir även profilerade
på grundval av sina dataspår. -
4:05 - 4:09Artificiell intelligens
och förutsägbar analys används -
4:09 - 4:13för att samla in så mycket data
som möjligt om ett individuellt liv -
4:13 - 4:15från olika källor:
-
4:15 - 4:19familjehistoria, köpvanor,
kommentarer på sociala medier. -
4:19 - 4:21Och sedan samlar de all denna data
-
4:22 - 4:25för att skapa datadrivna beslut
om individen. -
4:25 - 4:28Och dessa tekniker används överallt.
-
4:28 - 4:31Banker använder dem för att
besluta om lån. -
4:31 - 4:33Försäkringar använder dem för att
besluta om premier. -
4:34 - 4:37Rekryterare och arbetsgivare använder dem
-
4:37 - 4:40för att besluta om någon
är passande för ett jobb eller inte. -
4:41 - 4:44Även polisen och rätten använder dem
-
4:44 - 4:47för att bestämma om någon
är en potentiell kriminell -
4:47 - 4:50eller är sannolik att
begå ett brott igen. -
4:52 - 4:57Vi har ingen kunskap eller kontroll
-
4:57 - 5:00över de sätt som de som köper,
säljer och bearbetar våran data -
5:00 - 5:03profilerar oss och våra barn.
-
5:04 - 5:08Men dessa profiler kan komma att påverka
våra rättigheter på betydelsefulla sätt. -
5:09 - 5:11För att ge ett exempel,
-
5:14 - 5:202018 publicerade "New York Times"
nyheten att datan som samlats in -
5:20 - 5:23genom online
högskoleplanerande tjänster - -
5:23 - 5:28som faktiskt används av miljoner
skolbarn över USA -
5:28 - 5:31som letar efter ett högskoleprogram
eller ett stipendium - -
5:31 - 5:34hade sålts ut till utbildningsmäklare.
-
5:36 - 5:41Forskare på Fordham som studerade
utbildningsmäklare har nu -
5:41 - 5:46avslöjat att dessa företag
profilerar barn så unga som 2 år -
5:46 - 5:50utifrån olika kategorier:
-
5:50 - 5:56etnicitet, religion, välstånd,
sociala besvärligheter -
5:56 - 5:59och många andra slumpmässiga kategorier.
-
5:59 - 6:04Och sedan säljer de dessa profiler
tillsammans med barnets namn, -
6:04 - 6:09deras hemadress och kontaktuppgifter
till olika företag -
6:09 - 6:11inklusive handels- och
karriärinstitutioner, -
6:12 - 6:15studentlån och kreditkortsföretag
för studenter. -
6:17 - 6:18För att skjuta på gränserna
-
6:18 - 6:22bad forskarna på Fordham
en utbildningsmäklare -
6:22 - 6:28att förse dem med en lista
på 14- till 15-åriga flickor -
6:28 - 6:31som var intresserade av
familjeplanerande tjänster. -
6:32 - 6:35Datamäklaren gick med på att
förse dem med listan. -
6:35 - 6:40Så tänk hur intimt
och påträngande det är för våra barn. -
6:41 - 6:45Men utbildningsmäklare
är bara ett exempel. -
6:45 - 6:47Sanningen är att våra barn
blir profilerade -
6:47 - 6:50på sätt vi inte kan kontrollera
-
6:50 - 6:53men det kan avsevärt påverka
deras chanser i livet. -
6:54 - 6:58Så vi måste fråga oss själva:
-
6:58 - 7:02Kan vi lita på dessa tekniker när det
kommer till att profilera våra barn? -
7:02 - 7:04Kan vi?
-
7:06 - 7:07Mitt svar är nej.
-
7:08 - 7:09Som antropolog
-
7:09 - 7:13tror jag att artificiell intelligens
och förutsägbar analys kan vara bra -
7:13 - 7:17för att förutsäga sjukdomförlopp
eller bekämpa klimatförändringar. -
7:18 - 7:20Men vi måste överge tron
-
7:20 - 7:23att dessa tekniker
objektivt kan profilera människor -
7:23 - 7:27och att vi kan förlita oss på dem
att ta datadrivna beslut -
7:27 - 7:28om individuella liv.
-
7:28 - 7:31För de kan inte profilera människor.
-
7:31 - 7:34Dataspår speglar inte vem vi är.
-
7:34 - 7:37Människor tänker en sak
och säger motsatsen, -
7:37 - 7:39känner på ett sätt
och beter oss annorlunda. -
7:39 - 7:42Algoritmiska förutsägelser
eller våra digitala metoder -
7:42 - 7:47kan inte redogöra för oförutsägbarheten
och komplexiteten i mänsklig erfarenhet. -
7:48 - 7:53Och dessutom är dessa tekniker alltid -
-
7:53 - 7:56alltid på ett eller annat sätt partiska.
-
7:57 - 8:02Algoritmer är per definition
uppsättningar av regler eller steg -
8:02 - 8:06som har blivit designade att uppnå
ett specifikt resultat, OK? -
8:07 - 8:10Men dessa regler och steg
kan inte vara objektiva -
8:10 - 8:14för de har designats av människor
i ett specifikt kulturellt sammanhang -
8:14 - 8:16och är formade
av specifika kulturella värderingar. -
8:17 - 8:21Så när en maskin lär sig,
lär den sig utifrån partiska algoritmer -
8:22 - 8:25och de lär sig även ofta
från partiska databaser. -
8:26 - 8:30Just nu ser vi de första exemplen
på algoritmisk partiskhet. -
8:30 - 8:33Och vissa av dessa exempel
är uppriktigt skrämmande. -
8:34 - 8:39I år publicerade "Al Now Institute"
i New York en rapport -
8:39 - 8:44som avslöjade att Al-tekniker
som används för prediktivt polisarbete -
8:44 - 8:48har tränats på "problematisk" data.
-
8:48 - 8:51Detta är helt enkelt data som har samlats
-
8:51 - 8:55under historiska perioder
av känd raspartiskhet -
8:55 - 8:58och icke-transparent polisarbete.
-
8:59 - 9:03Eftersom dessa tekniker
tränas med "problematisk" data -
9:03 - 9:09är de inte objektiva,
och deras resultat förstärker bara -
9:09 - 9:10polispartiskhet och fel.
-
9:13 - 9:16Så jag tror att vi står inför
ett grundläggande problem -
9:16 - 9:18i vårt samhälle.
-
9:18 - 9:23Vi börjar att lita på teknik när det
kommer till att profilera människor. -
9:24 - 9:26Vi vet att när man profilerar människor
-
9:26 - 9:29så kommer teknik alltid att vara partisk
-
9:29 - 9:32och kommer aldrig att vara riktigt exakt.
-
9:32 - 9:35Så vad vi behöver nu
är faktiskt en politisk lösning. -
9:35 - 9:40Vi behöver få regeringar att erkänna att
vår data är våra mänskliga rättigheter. -
9:40 - 9:44(Applåder och jubel)
-
9:48 - 9:52Tills detta händer kan vi inte hoppas
på en mer rättvis framtid. -
9:53 - 9:55Jag oroar mig över att mina döttrar
kommer att bli utsatta -
9:56 - 9:59för alla möjliga sorter av
algoritmisk diskriminering och fel. -
9:59 - 10:02Skillnaden mellan mig och mina döttrar
-
10:02 - 10:05är att det inte finns något offentligt
register av min barndom. -
10:05 - 10:09Det finns absolut inte någon databas
med alla dumma saker jag har gjort -
10:09 - 10:11och tänkt när jag var tonåring.
-
10:11 - 10:13(Skratt)
-
10:14 - 10:17Men för mina döttrar
kan detta vara annorlunda. -
10:17 - 10:20Den data som samlas från dem idag
-
10:20 - 10:24kan komma att användas
för att döma dem i framtiden -
10:24 - 10:27och kan komma att hindra
deras hopp och drömmar. -
10:29 - 10:32Jag tycker att det är dags.
Det är dags att vi kliver fram. -
10:32 - 10:34Det är dags att börja jobba tillsammans
-
10:34 - 10:38som individer, som organisationer
och som institut -
10:38 - 10:44och kräva mer datarättvisa för oss
och för våra barn innan det är för sent. -
10:44 - 10:45Tack så mycket.
-
10:45 - 10:47(Applåder)
- Title:
- Vad teknikföretag vet om dina barn
- Speaker:
- Veronica Barassi
- Description:
-
De digitala plattformarna du och din familj använder varje dag - från spel online till utbildningsappar och medicinska portaler - kanske samlar och säljer dina barns data, säger antropologen Veronica Barassi. Genom att dela hennes ögonöppnande forskning uppmanar Barassi föräldrar att titta en gång till på digitala villkor istället för att blint acceptera dem - och att kräva skydd som försäkrar att deras barns data inte förvränger deras framtid.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Lisbeth Pekkari approved Swedish subtitles for What tech companies know about your kids | ||
Lisbeth Pekkari accepted Swedish subtitles for What tech companies know about your kids | ||
Lisbeth Pekkari edited Swedish subtitles for What tech companies know about your kids | ||
Lisbeth Pekkari edited Swedish subtitles for What tech companies know about your kids | ||
Elsa Juujärvi edited Swedish subtitles for What tech companies know about your kids | ||
Elsa Juujärvi edited Swedish subtitles for What tech companies know about your kids |