Swedish 字幕

← Vad teknikföretag vet om dina barn

埋め込みコードを取得する
36言語

Showing Revision 4 created 08/11/2020 by Lisbeth Pekkari.

  1. Varje dag, varje vecka,
  2. godkänner vi villkor.
  3. Och när gör vi detta
    förser vi företag med den lagliga rätten
  4. att göra vad de vill med våran data
    och med våra barns data.
  5. Vilket får oss att undra:
  6. hur mycket data ger vi bort om barn,
    och vad får det för konsekvenser?
  7. Jag är antropolog och jag är även mamma
    till två små flickor.

  8. Och jag började bli intresserad
    av denna fråga år 2015
  9. när jag plötsligt insåg
    att det fanns stora -
  10. nästan otroliga mängder dataspår
  11. som produceras och samlas om barn.
  12. Så jag lanserade ett forskningsprojekt
    som heter Child Data Citizen
  13. och jag siktade på att fylla tomrummen.
  14. Nu kanske du tror att
    jag är här för att skylla på er

  15. för att ni lägger upp bilder
    på era barn på sociala medier
  16. men det är inte riktigt poängen.
  17. Problemet är mycket större
    än så kallat "sharenting."
  18. Detta handlar om system, inte individer.
  19. Du och dina vanor är inte att skylla på.
  20. För första gången i historien

  21. spårar vi individuell data om barn
    från långt innan de är födda -
  22. ibland från befruktningsögonblicket,
    och sedan genom deras liv.
  23. Du förstår, när föräldrar bestämmer sig
    för att skaffa barn
  24. går de online för att söka på
    "sätt att bli gravid,"
  25. eller så laddar de ned appar
    för ägglossningsspårning.
  26. När de blir gravida
  27. postar de ultraljud av sina
    bäbisar på sociala medier,
  28. de laddar ned graviditetsappar
  29. eller så konsulterar de dr Google
    om alla möjliga saker,
  30. som, du vet -
    om "missfallsrisk när man flyger"
  31. eller "magkrämpor i tidig graviditet."
  32. Jag vet för jag har gjort det -
    och många gånger.
  33. Och när är barnet fött
    spårar de varje tupplur, varje matning,
  34. varje liten livshändelse
    med olika tekniker.
  35. Och alla dessa tekniker
  36. transformerar bäbisens mest intima
    beteende- och hälsodata till vinst
  37. genom att dela det med andra.
  38. Så för att ge er en aning om
    hur detta fungerar,

  39. 2019 publicerade "British Medical Journal"
    forskning som visade
  40. att av 24 hälsoappar,
  41. delade 19 information med en tredje part.
  42. Och dessa tredje parter delade information
    med 216 andra organisationer.
  43. Av dessa 216 fjärde parterna
  44. ingick bara tre i sjukvårdssektorn.
  45. De andra företagen som hade tillgång
    till datan var stora teknikföretag
  46. som Google, Facebook eller Oracle,
  47. de var digitala reklamföretag
  48. och det fanns även en
    konsumentkreditrapporteringsbyrå.
  49. Så du förstår:
  50. reklambyråer och kreditbyråer har redan
    datapunkter på små bäbisar.
  51. Men mobilappar,
    webbsökningar och sociala medier
  52. är bara toppen av isberget
  53. eftersom barn blir spårade
    av flera tekniker i vardagslivet.
  54. De spåras av hemtekniker
    och virtuella assistenter hemma.
  55. De spåras av utbildningsplattformar
    och utbildningstekniker i sina skolor.
  56. De spåras av uppgifter online
    och onlineportaler hos doktorn.
  57. De spåras av sina
    internetanslutna leksaker, onlinespel
  58. och många, många, många,
    många andra tekniker.
  59. Så under min forskning

  60. kom många föräldrar fram till mig
    och sa:"Så vadå?
  61. Varför spelar det roll
    att mina barn blir spårade?
  62. Vi har inget att dölja."
  63. Det spelar roll.
  64. Det spelar roll för att dagens individer
    inte bara blir spårade,
  65. de blir även profilerade
    på grundval av sina dataspår.
  66. Artificiell intelligens
    och förutsägbar analys används
  67. för att samla in så mycket data
    som möjligt om ett individuellt liv
  68. från olika källor:
  69. familjehistoria, köpvanor,
    kommentarer på sociala medier.
  70. Och sedan samlar de all denna data
  71. för att skapa datadrivna beslut
    om individen.
  72. Och dessa tekniker används överallt.
  73. Banker använder dem för att
    besluta om lån.
  74. Försäkringar använder dem för att
    besluta om premier.
  75. Rekryterare och arbetsgivare använder dem
  76. för att besluta om någon
    är passande för ett jobb eller inte.
  77. Även polisen och rätten använder dem
  78. för att bestämma om någon
    är en potentiell kriminell
  79. eller är sannolik att
    begå ett brott igen.
  80. Vi har ingen kunskap eller kontroll

  81. över de sätt som de som köper,
    säljer och bearbetar våran data
  82. profilerar oss och våra barn.
  83. Men dessa profiler kan komma att påverka
    våra rättigheter på betydelsefulla sätt.
  84. För att ge ett exempel,

  85. 2018 publicerade "New York Times"
    nyheten att datan som samlats in
  86. genom online
    högskoleplanerande tjänster -
  87. som faktiskt används av miljoner
    skolbarn över USA
  88. som letar efter ett högskoleprogram
    eller ett stipendium -
  89. hade sålts ut till utbildningsmäklare.
  90. Forskare på Fordham som studerade
    utbildningsmäklare har nu
  91. avslöjat att dessa företag
    profilerar barn så unga som 2 år
  92. utifrån olika kategorier:
  93. etnicitet, religion, välstånd,
    sociala besvärligheter
  94. och många andra slumpmässiga kategorier.
  95. Och sedan säljer de dessa profiler
    tillsammans med barnets namn,
  96. deras hemadress och kontaktuppgifter
    till olika företag
  97. inklusive handels- och
    karriärinstitutioner,
  98. studentlån och kreditkortsföretag
    för studenter.
  99. För att skjuta på gränserna
  100. bad forskarna på Fordham
    en utbildningsmäklare
  101. att förse dem med en lista
    på 14- till 15-åriga flickor
  102. som var intresserade av
    familjeplanerande tjänster.
  103. Datamäklaren gick med på att
    förse dem med listan.
  104. Så tänk hur intimt
    och påträngande det är för våra barn.
  105. Men utbildningsmäklare
    är bara ett exempel.
  106. Sanningen är att våra barn
    blir profilerade
  107. på sätt vi inte kan kontrollera
  108. men det kan avsevärt påverka
    deras chanser i livet.
  109. Så vi måste fråga oss själva:

  110. Kan vi lita på dessa tekniker när det
    kommer till att profilera våra barn?
  111. Kan vi?
  112. Mitt svar är nej.
  113. Som antropolog
  114. tror jag att artificiell intelligens
    och förutsägbar analys kan vara bra
  115. för att förutsäga sjukdomförlopp
    eller bekämpa klimatförändringar.
  116. Men vi måste överge tron
  117. att dessa tekniker
    objektivt kan profilera människor
  118. och att vi kan förlita oss på dem
    att ta datadrivna beslut
  119. om individuella liv.
  120. För de kan inte profilera människor.
  121. Dataspår speglar inte vem vi är.
  122. Människor tänker en sak
    och säger motsatsen,
  123. känner på ett sätt
    och beter oss annorlunda.
  124. Algoritmiska förutsägelser
    eller våra digitala metoder
  125. kan inte redogöra för oförutsägbarheten
    och komplexiteten i mänsklig erfarenhet.
  126. Och dessutom är dessa tekniker alltid -

  127. alltid på ett eller annat sätt partiska.
  128. Algoritmer är per definition
    uppsättningar av regler eller steg
  129. som har blivit designade att uppnå
    ett specifikt resultat, OK?
  130. Men dessa regler och steg
    kan inte vara objektiva
  131. för de har designats av människor
    i ett specifikt kulturellt sammanhang
  132. och är formade
    av specifika kulturella värderingar.
  133. Så när en maskin lär sig,
    lär den sig utifrån partiska algoritmer
  134. och de lär sig även ofta
    från partiska databaser.
  135. Just nu ser vi de första exemplen
    på algoritmisk partiskhet.

  136. Och vissa av dessa exempel
    är uppriktigt skrämmande.
  137. I år publicerade "Al Now Institute"
    i New York en rapport
  138. som avslöjade att Al-tekniker
    som används för prediktivt polisarbete
  139. har tränats på "problematisk" data.
  140. Detta är helt enkelt data som har samlats
  141. under historiska perioder
    av känd raspartiskhet
  142. och icke-transparent polisarbete.
  143. Eftersom dessa tekniker
    tränas med "problematisk" data
  144. är de inte objektiva,
    och deras resultat förstärker bara
  145. polispartiskhet och fel.
  146. Så jag tror att vi står inför
    ett grundläggande problem

  147. i vårt samhälle.
  148. Vi börjar att lita på teknik när det
    kommer till att profilera människor.
  149. Vi vet att när man profilerar människor
  150. så kommer teknik alltid att vara partisk
  151. och kommer aldrig att vara riktigt exakt.
  152. Så vad vi behöver nu
    är faktiskt en politisk lösning.
  153. Vi behöver få regeringar att erkänna att
    vår data är våra mänskliga rättigheter.
  154. (Applåder och jubel)

  155. Tills detta händer kan vi inte hoppas
    på en mer rättvis framtid.

  156. Jag oroar mig över att mina döttrar
    kommer att bli utsatta
  157. för alla möjliga sorter av
    algoritmisk diskriminering och fel.
  158. Skillnaden mellan mig och mina döttrar
  159. är att det inte finns något offentligt
    register av min barndom.
  160. Det finns absolut inte någon databas
    med alla dumma saker jag har gjort
  161. och tänkt när jag var tonåring.
  162. (Skratt)

  163. Men för mina döttrar
    kan detta vara annorlunda.

  164. Den data som samlas från dem idag
  165. kan komma att användas
    för att döma dem i framtiden
  166. och kan komma att hindra
    deras hopp och drömmar.
  167. Jag tycker att det är dags.
    Det är dags att vi kliver fram.

  168. Det är dags att börja jobba tillsammans
  169. som individer, som organisationer
    och som institut
  170. och kräva mer datarättvisa för oss
    och för våra barn innan det är för sent.
  171. Tack så mycket.

  172. (Applåder)