Return to Video

Vad teknikföretag vet om dina barn

  • 0:00 - 0:03
    Varje dag, varje vecka,
  • 0:03 - 0:05
    godkänner vi villkor.
  • 0:05 - 0:09
    Och när gör vi detta
    förser vi företag med den lagliga rätten
  • 0:09 - 0:15
    att göra vad de vill med våran data
    och med våra barns data.
  • 0:17 - 0:20
    Vilket får oss att undra:
  • 0:20 - 0:25
    hur mycket data ger vi bort om barn,
    och vad får det för konsekvenser?
  • 0:26 - 0:31
    Jag är antropolog och jag är även mamma
    till två små flickor.
  • 0:31 - 0:35
    Och jag började bli intresserad
    av denna fråga år 2015
  • 0:35 - 0:38
    när jag plötsligt insåg
    att det fanns stora -
  • 0:38 - 0:41
    nästan otroliga mängder dataspår
  • 0:41 - 0:44
    som produceras och samlas om barn.
  • 0:45 - 0:49
    Så jag lanserade ett forskningsprojekt
    som heter Child Data Citizen
  • 0:49 - 0:51
    och jag siktade på att fylla tomrummen.
  • 0:53 - 0:56
    Nu kanske du tror att
    jag är här för att skylla på er
  • 0:56 - 0:58
    för att ni lägger upp bilder
    på era barn på sociala medier
  • 0:58 - 1:01
    men det är inte riktigt poängen.
  • 1:01 - 1:04
    Problemet är mycket större
    än så kallat "sharenting."
  • 1:05 - 1:09
    Detta handlar om system, inte individer.
  • 1:09 - 1:11
    Du och dina vanor är inte att skylla på.
  • 1:13 - 1:16
    För första gången i historien
  • 1:16 - 1:20
    spårar vi individuell data om barn
    från långt innan de är födda -
  • 1:20 - 1:25
    ibland från befruktningsögonblicket,
    och sedan genom deras liv.
  • 1:25 - 1:28
    Du förstår, när föräldrar bestämmer sig
    för att skaffa barn
  • 1:28 - 1:31
    går de online för att söka på
    "sätt att bli gravid,"
  • 1:31 - 1:34
    eller så laddar de ned appar
    för ägglossningsspårning.
  • 1:35 - 1:38
    När de blir gravida
  • 1:38 - 1:41
    postar de ultraljud av sina
    bäbisar på sociala medier,
  • 1:41 - 1:43
    de laddar ned graviditetsappar
  • 1:43 - 1:47
    eller så konsulterar de dr Google
    om alla möjliga saker,
  • 1:47 - 1:51
    som, du vet -
    om "missfallsrisk när man flyger"
  • 1:51 - 1:54
    eller "magkrämpor i tidig graviditet."
  • 1:54 - 1:57
    Jag vet för jag har gjort det -
    och många gånger.
  • 1:58 - 2:02
    Och när är barnet fött
    spårar de varje tupplur, varje matning,
  • 2:02 - 2:05
    varje liten livshändelse
    med olika tekniker.
  • 2:06 - 2:08
    Och alla dessa tekniker
  • 2:08 - 2:14
    transformerar bäbisens mest intima
    beteende- och hälsodata till vinst
  • 2:14 - 2:16
    genom att dela det med andra.
  • 2:16 - 2:19
    Så för att ge er en aning om
    hur detta fungerar,
  • 2:19 - 2:24
    2019 publicerade "British Medical Journal"
    forskning som visade
  • 2:24 - 2:28
    att av 24 hälsoappar,
  • 2:28 - 2:31
    delade 19 information med en tredje part.
  • 2:32 - 2:38
    Och dessa tredje parter delade information
    med 216 andra organisationer.
  • 2:39 - 2:42
    Av dessa 216 fjärde parterna
  • 2:42 - 2:45
    ingick bara tre i sjukvårdssektorn.
  • 2:46 - 2:50
    De andra företagen som hade tillgång
    till datan var stora teknikföretag
  • 2:50 - 2:54
    som Google, Facebook eller Oracle,
  • 2:54 - 2:56
    de var digitala reklamföretag
  • 2:56 - 3:00
    och det fanns även en
    konsumentkreditrapporteringsbyrå.
  • 3:01 - 3:03
    Så du förstår:
  • 3:03 - 3:08
    reklambyråer och kreditbyråer har redan
    datapunkter på små bäbisar.
  • 3:09 - 3:12
    Men mobilappar,
    webbsökningar och sociala medier
  • 3:12 - 3:15
    är bara toppen av isberget
  • 3:15 - 3:20
    eftersom barn blir spårade
    av flera tekniker i vardagslivet.
  • 3:20 - 3:24
    De spåras av hemtekniker
    och virtuella assistenter hemma.
  • 3:24 - 3:28
    De spåras av utbildningsplattformar
    och utbildningstekniker i sina skolor.
  • 3:28 - 3:33
    De spåras av uppgifter online
    och onlineportaler hos doktorn.
  • 3:33 - 3:36
    De spåras av sina
    internetanslutna leksaker, onlinespel
  • 3:36 - 3:39
    och många, många, många,
    många andra tekniker.
  • 3:40 - 3:42
    Så under min forskning
  • 3:42 - 3:46
    kom många föräldrar fram till mig
    och sa:"Så vadå?
  • 3:46 - 3:49
    Varför spelar det roll
    att mina barn blir spårade?
  • 3:50 - 3:51
    Vi har inget att dölja."
  • 3:53 - 3:54
    Det spelar roll.
  • 3:55 - 4:01
    Det spelar roll för att dagens individer
    inte bara blir spårade,
  • 4:01 - 4:05
    de blir även profilerade
    på grundval av sina dataspår.
  • 4:05 - 4:09
    Artificiell intelligens
    och förutsägbar analys används
  • 4:09 - 4:13
    för att samla in så mycket data
    som möjligt om ett individuellt liv
  • 4:13 - 4:15
    från olika källor:
  • 4:15 - 4:19
    familjehistoria, köpvanor,
    kommentarer på sociala medier.
  • 4:19 - 4:21
    Och sedan samlar de all denna data
  • 4:22 - 4:25
    för att skapa datadrivna beslut
    om individen.
  • 4:25 - 4:28
    Och dessa tekniker används överallt.
  • 4:28 - 4:31
    Banker använder dem för att
    besluta om lån.
  • 4:31 - 4:33
    Försäkringar använder dem för att
    besluta om premier.
  • 4:34 - 4:37
    Rekryterare och arbetsgivare använder dem
  • 4:37 - 4:40
    för att besluta om någon
    är passande för ett jobb eller inte.
  • 4:41 - 4:44
    Även polisen och rätten använder dem
  • 4:44 - 4:47
    för att bestämma om någon
    är en potentiell kriminell
  • 4:47 - 4:50
    eller är sannolik att
    begå ett brott igen.
  • 4:52 - 4:57
    Vi har ingen kunskap eller kontroll
  • 4:57 - 5:00
    över de sätt som de som köper,
    säljer och bearbetar våran data
  • 5:00 - 5:03
    profilerar oss och våra barn.
  • 5:04 - 5:08
    Men dessa profiler kan komma att påverka
    våra rättigheter på betydelsefulla sätt.
  • 5:09 - 5:11
    För att ge ett exempel,
  • 5:14 - 5:20
    2018 publicerade "New York Times"
    nyheten att datan som samlats in
  • 5:20 - 5:23
    genom online
    högskoleplanerande tjänster -
  • 5:23 - 5:28
    som faktiskt används av miljoner
    skolbarn över USA
  • 5:28 - 5:31
    som letar efter ett högskoleprogram
    eller ett stipendium -
  • 5:31 - 5:34
    hade sålts ut till utbildningsmäklare.
  • 5:36 - 5:41
    Forskare på Fordham som studerade
    utbildningsmäklare har nu
  • 5:41 - 5:46
    avslöjat att dessa företag
    profilerar barn så unga som 2 år
  • 5:46 - 5:50
    utifrån olika kategorier:
  • 5:50 - 5:56
    etnicitet, religion, välstånd,
    sociala besvärligheter
  • 5:56 - 5:59
    och många andra slumpmässiga kategorier.
  • 5:59 - 6:04
    Och sedan säljer de dessa profiler
    tillsammans med barnets namn,
  • 6:04 - 6:09
    deras hemadress och kontaktuppgifter
    till olika företag
  • 6:09 - 6:11
    inklusive handels- och
    karriärinstitutioner,
  • 6:12 - 6:15
    studentlån och kreditkortsföretag
    för studenter.
  • 6:17 - 6:18
    För att skjuta på gränserna
  • 6:18 - 6:22
    bad forskarna på Fordham
    en utbildningsmäklare
  • 6:22 - 6:28
    att förse dem med en lista
    på 14- till 15-åriga flickor
  • 6:28 - 6:31
    som var intresserade av
    familjeplanerande tjänster.
  • 6:32 - 6:35
    Datamäklaren gick med på att
    förse dem med listan.
  • 6:35 - 6:40
    Så tänk hur intimt
    och påträngande det är för våra barn.
  • 6:41 - 6:45
    Men utbildningsmäklare
    är bara ett exempel.
  • 6:45 - 6:47
    Sanningen är att våra barn
    blir profilerade
  • 6:47 - 6:50
    på sätt vi inte kan kontrollera
  • 6:50 - 6:53
    men det kan avsevärt påverka
    deras chanser i livet.
  • 6:54 - 6:58
    Så vi måste fråga oss själva:
  • 6:58 - 7:02
    Kan vi lita på dessa tekniker när det
    kommer till att profilera våra barn?
  • 7:02 - 7:04
    Kan vi?
  • 7:06 - 7:07
    Mitt svar är nej.
  • 7:08 - 7:09
    Som antropolog
  • 7:09 - 7:13
    tror jag att artificiell intelligens
    och förutsägbar analys kan vara bra
  • 7:13 - 7:17
    för att förutsäga sjukdomförlopp
    eller bekämpa klimatförändringar.
  • 7:18 - 7:20
    Men vi måste överge tron
  • 7:20 - 7:23
    att dessa tekniker
    objektivt kan profilera människor
  • 7:23 - 7:27
    och att vi kan förlita oss på dem
    att ta datadrivna beslut
  • 7:27 - 7:28
    om individuella liv.
  • 7:28 - 7:31
    För de kan inte profilera människor.
  • 7:31 - 7:34
    Dataspår speglar inte vem vi är.
  • 7:34 - 7:37
    Människor tänker en sak
    och säger motsatsen,
  • 7:37 - 7:39
    känner på ett sätt
    och beter oss annorlunda.
  • 7:39 - 7:42
    Algoritmiska förutsägelser
    eller våra digitala metoder
  • 7:42 - 7:47
    kan inte redogöra för oförutsägbarheten
    och komplexiteten i mänsklig erfarenhet.
  • 7:48 - 7:53
    Och dessutom är dessa tekniker alltid -
  • 7:53 - 7:56
    alltid på ett eller annat sätt partiska.
  • 7:57 - 8:02
    Algoritmer är per definition
    uppsättningar av regler eller steg
  • 8:02 - 8:06
    som har blivit designade att uppnå
    ett specifikt resultat, OK?
  • 8:07 - 8:10
    Men dessa regler och steg
    kan inte vara objektiva
  • 8:10 - 8:14
    för de har designats av människor
    i ett specifikt kulturellt sammanhang
  • 8:14 - 8:16
    och är formade
    av specifika kulturella värderingar.
  • 8:17 - 8:21
    Så när en maskin lär sig,
    lär den sig utifrån partiska algoritmer
  • 8:22 - 8:25
    och de lär sig även ofta
    från partiska databaser.
  • 8:26 - 8:30
    Just nu ser vi de första exemplen
    på algoritmisk partiskhet.
  • 8:30 - 8:33
    Och vissa av dessa exempel
    är uppriktigt skrämmande.
  • 8:34 - 8:39
    I år publicerade "Al Now Institute"
    i New York en rapport
  • 8:39 - 8:44
    som avslöjade att Al-tekniker
    som används för prediktivt polisarbete
  • 8:44 - 8:48
    har tränats på "problematisk" data.
  • 8:48 - 8:51
    Detta är helt enkelt data som har samlats
  • 8:51 - 8:55
    under historiska perioder
    av känd raspartiskhet
  • 8:55 - 8:58
    och icke-transparent polisarbete.
  • 8:59 - 9:03
    Eftersom dessa tekniker
    tränas med "problematisk" data
  • 9:03 - 9:09
    är de inte objektiva,
    och deras resultat förstärker bara
  • 9:09 - 9:10
    polispartiskhet och fel.
  • 9:13 - 9:16
    Så jag tror att vi står inför
    ett grundläggande problem
  • 9:16 - 9:18
    i vårt samhälle.
  • 9:18 - 9:23
    Vi börjar att lita på teknik när det
    kommer till att profilera människor.
  • 9:24 - 9:26
    Vi vet att när man profilerar människor
  • 9:26 - 9:29
    så kommer teknik alltid att vara partisk
  • 9:29 - 9:32
    och kommer aldrig att vara riktigt exakt.
  • 9:32 - 9:35
    Så vad vi behöver nu
    är faktiskt en politisk lösning.
  • 9:35 - 9:40
    Vi behöver få regeringar att erkänna att
    vår data är våra mänskliga rättigheter.
  • 9:40 - 9:44
    (Applåder och jubel)
  • 9:48 - 9:52
    Tills detta händer kan vi inte hoppas
    på en mer rättvis framtid.
  • 9:53 - 9:55
    Jag oroar mig över att mina döttrar
    kommer att bli utsatta
  • 9:56 - 9:59
    för alla möjliga sorter av
    algoritmisk diskriminering och fel.
  • 9:59 - 10:02
    Skillnaden mellan mig och mina döttrar
  • 10:02 - 10:05
    är att det inte finns något offentligt
    register av min barndom.
  • 10:05 - 10:09
    Det finns absolut inte någon databas
    med alla dumma saker jag har gjort
  • 10:09 - 10:11
    och tänkt när jag var tonåring.
  • 10:11 - 10:13
    (Skratt)
  • 10:14 - 10:17
    Men för mina döttrar
    kan detta vara annorlunda.
  • 10:17 - 10:20
    Den data som samlas från dem idag
  • 10:20 - 10:24
    kan komma att användas
    för att döma dem i framtiden
  • 10:24 - 10:27
    och kan komma att hindra
    deras hopp och drömmar.
  • 10:29 - 10:32
    Jag tycker att det är dags.
    Det är dags att vi kliver fram.
  • 10:32 - 10:34
    Det är dags att börja jobba tillsammans
  • 10:34 - 10:38
    som individer, som organisationer
    och som institut
  • 10:38 - 10:44
    och kräva mer datarättvisa för oss
    och för våra barn innan det är för sent.
  • 10:44 - 10:45
    Tack så mycket.
  • 10:45 - 10:47
    (Applåder)
タイトル:
Vad teknikföretag vet om dina barn
話者:
Veronica Barassi
概説:

De digitala plattformarna du och din familj använder varje dag - från spel online till utbildningsappar och medicinska portaler - kanske samlar och säljer dina barns data, säger antropologen Veronica Barassi. Genom att dela hennes ögonöppnande forskning uppmanar Barassi föräldrar att titta en gång till på digitala villkor istället för att blint acceptera dem - och att kräva skydd som försäkrar att deras barns data inte förvränger deras framtid.

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Swedish subtitles

改訂