Return to Video

Ce que les GAFA savent sur vos enfants

  • 0:01 - 0:03
    Chaque jour, chaque semaine,
  • 0:03 - 0:05
    nous acceptons des CGU.
  • 0:05 - 0:07
    Et ce faisant,
  • 0:07 - 0:09
    nous donnons aux entreprises le droit
  • 0:09 - 0:13
    de faire ce qu'elles veulent
    avec nos données
  • 0:13 - 0:15
    et celles de nos enfants.
  • 0:17 - 0:20
    Ce qui nous amène à nous demander :
  • 0:20 - 0:23
    quelle quantité de données
    donnons-nous sur nos enfants,
  • 0:23 - 0:25
    et quelles en sont les implications ?
  • 0:26 - 0:28
    Je suis anthropologue,
  • 0:28 - 0:31
    et je suis aussi la mère
    de deux petites filles.
  • 0:31 - 0:35
    J'ai commencé à m'intéresser
    à cette question en 2015
  • 0:35 - 0:38
    lorsque j'ai soudain réalisé
    qu'il y avait de vastes,
  • 0:38 - 0:41
    et presqu'innombrables,
    quantités de données
  • 0:41 - 0:44
    produites et collectées sur les enfants.
  • 0:45 - 0:47
    J'ai donc lancé un projet de recherche,
  • 0:47 - 0:49
    appelé « Child Data Citizen »,
  • 0:49 - 0:51
    et j'ai cherché à remplir le vide.
  • 0:53 - 0:56
    Vous pensez peut-être
    que je suis ici pour vous reprocher
  • 0:56 - 0:58
    de publier des photos de vos enfants
    sur les médias sociaux,
  • 0:58 - 1:01
    mais là n'est pas la question.
  • 1:01 - 1:04
    Le problème est bien plus important
    que le soi-disant « sharenting ».
  • 1:05 - 1:09
    Il s'agit de systèmes et non d'individus.
  • 1:09 - 1:11
    Vous et vos habitudes
    ne sont pas à blâmer.
  • 1:13 - 1:16
    Pour la toute première
    fois dans l'Histoire,
  • 1:16 - 1:18
    nous suivons
    les données individuelles des enfants
  • 1:18 - 1:20
    bien avant leur naissance -
  • 1:20 - 1:23
    parfois dès la conception,
  • 1:23 - 1:25
    puis tout au long de leur vie.
  • 1:25 - 1:28
    Vous voyez, lorsque les parents
    décident de concevoir,
  • 1:28 - 1:31
    ils vont chercher sur Internet
    des « moyens de tomber enceinte »
  • 1:31 - 1:34
    ou les femmes téléchargent
    des applications de suivi de l'ovulation.
  • 1:35 - 1:38
    Lorsqu'elles tombent enceintes,
  • 1:38 - 1:41
    elles publient les échographies
    sur les médias sociaux,
  • 1:41 - 1:43
    téléchargent des applications de grossesse
  • 1:43 - 1:47
    ou consultent Dr Google
    pour toutes sortes de choses,
  • 1:47 - 1:48
    comme, vous savez...
  • 1:48 - 1:51
    « le risque de fausse couche en avion »
  • 1:51 - 1:54
    ou « les crampes abdominales
    en début de grossesse ».
  • 1:54 - 1:56
    Je le sais parce que je l'ai fait -
  • 1:56 - 1:57
    et plusieurs fois.
  • 1:58 - 2:01
    Et puis, quand le bébé est né,
    elles suivent chaque sieste,
  • 2:01 - 2:03
    chaque repas,
  • 2:03 - 2:05
    chaque événement de la vie
    sur différentes technologies.
  • 2:06 - 2:09
    Et toutes ces technologies
    font de l'argent
  • 2:09 - 2:14
    avec les données les plus intimes
    du bébé - son comportement et sa santé -
  • 2:14 - 2:16
    en les partageant avec d'autres.
  • 2:17 - 2:19
    Pour vous montrer comment cela fonctionne,
  • 2:19 - 2:24
    en 2019, le British Medical Journal
    a publié une étude qui a montré
  • 2:24 - 2:28
    que sur 24 applications de santé mobiles,
  • 2:28 - 2:32
    19 partageaient des informations
    avec des tierces parties,
  • 2:32 - 2:38
    qui elles-mêmes les partageaient
    avec 216 autres entités.
  • 2:39 - 2:42
    Sur ces 216 entités,
  • 2:42 - 2:45
    seules trois appartenaient
    au secteur de la santé.
  • 2:46 - 2:50
    Les autres entreprises étaient
    de grandes sociétés de la tech
  • 2:50 - 2:54
    comme Google, Facebook ou Oracle,
  • 2:54 - 2:56
    des agences de publicité digitale,
  • 2:56 - 3:00
    ainsi qu'une agence de renseignements
    sur le crédit à la consommation.
  • 3:01 - 3:03
    Vous avez bien compris :
  • 3:03 - 3:08
    les agences de publicité et de crédit
    ont déjà des données sur les bébés.
  • 3:09 - 3:12
    Mais les apps, les moteurs
    de recherche et les médias sociaux
  • 3:12 - 3:15
    ne sont en réalité que la
    partie visible de l'iceberg,
  • 3:15 - 3:18
    car les enfants sont suivis
    par de multiples technologies
  • 3:18 - 3:20
    dans leur vie quotidienne.
  • 3:20 - 3:24
    Ils sont suivis chez eux par la domotique
    et les assistants virtuels ;
  • 3:24 - 3:26
    par les plates-formes éducatives
  • 3:26 - 3:28
    et les technologies éducatives
    à leur école ;
  • 3:28 - 3:30
    par leur dossier médical
  • 3:30 - 3:33
    et des portails en ligne
    chez leur médecin ;
  • 3:33 - 3:35
    par leurs jouets connectés à Internet,
  • 3:35 - 3:36
    leurs jeux en ligne
  • 3:36 - 3:39
    et beaucoup, beaucoup,
    beaucoup, beaucoup d'autres technologies.
  • 3:40 - 3:42
    Donc, pendant mes recherches,
  • 3:42 - 3:46
    beaucoup de parents sont venus me voir
    et m'ont dit : « Et alors ?
  • 3:46 - 3:49
    Quel est le problème
    que mes enfants soient surveillés ?
  • 3:50 - 3:52
    Nous n'avons rien à cacher. »
  • 3:53 - 3:54
    Eh bien, c'est important.
  • 3:55 - 4:01
    C'est important car aujourd'hui, les
    individus ne sont pas seulement suivis,
  • 4:01 - 4:05
    ils sont aussi profilés
    selon leurs données.
  • 4:05 - 4:09
    L'intelligence artificielle et
    l'analyse prédictive sont utilisées
  • 4:09 - 4:13
    pour exploiter le plus grand nombre
    possible de données sur un individu
  • 4:13 - 4:15
    provenant de différentes sources :
  • 4:15 - 4:19
    histoire familiale, habitudes d'achat,
    commentaires dans les médias sociaux.
  • 4:19 - 4:21
    Puis ils rassemblent ces données
  • 4:21 - 4:24
    pour prendre des décisions fondées
    sur des données concernant l'individu.
  • 4:25 - 4:28
    Et ces technologies
    sont utilisées partout.
  • 4:28 - 4:31
    Les banques les utilisent
    pour décider des prêts.
  • 4:31 - 4:33
    Les assurances les utilisent
    pour décider des primes.
  • 4:34 - 4:37
    Les recruteurs et les employeurs
    les utilisent
  • 4:37 - 4:40
    pour décider si une personne
    est apte à occuper un emploi ou non.
  • 4:41 - 4:44
    La police et les tribunaux
    les utilisent également
  • 4:44 - 4:47
    pour déterminer
    si une personne est un criminel potentiel
  • 4:47 - 4:50
    ou si elle est susceptible de récidiver.
  • 4:52 - 4:57
    Nous n'avons aucune connaissance
    ni aucun contrôle
  • 4:57 - 5:00
    sur la manière dont ceux qui achètent,
    vendent et traitent nos données
  • 5:00 - 5:03
    établissent notre profil
    et celui de nos enfants.
  • 5:04 - 5:08
    Mais ces profils peuvent avoir
    un impact significatif sur nos droits.
  • 5:09 - 5:11
    Pour vous donner un exemple,
  • 5:14 - 5:18
    en 2018, le New York Times
    a publié un article
  • 5:18 - 5:20
    sur les données
    qui avaient été recueillies
  • 5:20 - 5:23
    par le service de planification
    des études universitaires -
  • 5:23 - 5:28
    celles saisies par les millions
    de lycéens à travers les États-Unis
  • 5:28 - 5:31
    qui cherchent un programme universitaire
    ou une bourse.
  • 5:31 - 5:34
    Elles avaient été vendues à des
    courtiers en données éducatives.
  • 5:36 - 5:41
    Or, les chercheurs de Fordham qui ont
    étudié les courtiers en données éducatives
  • 5:41 - 5:46
    ont révélé qu'ils établissaient le
    profil des enfants dès l'âge de deux ans
  • 5:46 - 5:50
    sur la base de différentes catégories :
  • 5:50 - 5:54
    ethnicité, religion, richesse,
  • 5:54 - 5:56
    inaptitudes sociales
  • 5:56 - 5:59
    et bien d'autres catégories aléatoires.
  • 5:59 - 6:04
    Ils vendent ensuite ces profils,
    accompagnés du nom de l'enfant,
  • 6:04 - 6:07
    de son adresse et de ses coordonnées,
  • 6:07 - 6:09
    à différentes entreprises,
  • 6:09 - 6:12
    notamment des sociétés commerciales,
    des sociétés de recrutement,
  • 6:12 - 6:16
    des sociétés gérant des prêts étudiants
    et de cartes de crédit pour étudiants.
  • 6:17 - 6:18
    Pour aller au fond du sujet,
  • 6:18 - 6:22
    les chercheurs de Fordham ont demandé
    à un courtier en données éducatives
  • 6:22 - 6:28
    de leur fournir une liste de jeunes filles
    de 14-15 ans
  • 6:28 - 6:31
    intéressées par les services
    de planning familial.
  • 6:32 - 6:35
    Le courtier a accepté
    de leur fournir la liste.
  • 6:35 - 6:40
    Imaginez donc à quel point
    c'est intime et intrusif pour nos enfants.
  • 6:41 - 6:45
    Mais les courtiers en données éducatives
    ne sont en réalité qu'un exemple.
  • 6:45 - 6:47
    La vérité est que
    nos enfants sont profilés
  • 6:47 - 6:50
    d'une manière que nous
    ne pouvons pas contrôler
  • 6:50 - 6:53
    mais qui peut avoir un impact significatif
    sur leurs chances dans la vie.
  • 6:54 - 6:58
    Nous devons donc nous demander :
  • 6:58 - 7:02
    peut-on faire confiance à ces technologies
    lorsqu'il s'agit de profiler nos enfants ?
  • 7:02 - 7:04
    Vraiment ?
  • 7:06 - 7:07
    Ma réponse est non.
  • 7:08 - 7:09
    En tant qu'anthropologue,
  • 7:09 - 7:13
    je pense que l'IA et l'analyse
    prédictive peuvent être très utiles
  • 7:13 - 7:15
    pour prédire l'évolution d'une maladie
  • 7:15 - 7:17
    ou pour lutter contre
    le changement climatique.
  • 7:18 - 7:20
    Mais nous devons arrêter de croire
  • 7:20 - 7:23
    que ces technologies peuvent
    établir un profil objectif des humains
  • 7:23 - 7:27
    et qu'on peut s'appuyer sur elles
    pour prendre des décisions
  • 7:27 - 7:28
    concernant la vie des individus.
  • 7:28 - 7:31
    Parce qu'on ne peut pas
    profiler les êtres humains.
  • 7:31 - 7:34
    Les traces de données ne sont pas
    le miroir de qui nous sommes.
  • 7:34 - 7:37
    On pense une chose et on dit le contraire,
  • 7:37 - 7:39
    on ressent une chose
    et on agit différemment.
  • 7:39 - 7:42
    Les prédictions algorithmiques
  • 7:42 - 7:44
    ne peuvent rendre compte
    de l'imprévisibilité
  • 7:44 - 7:47
    et de la complexité
    de l'expérience humaine.
  • 7:48 - 7:50
    Mais en plus de cela,
  • 7:50 - 7:53
    ces technologies sont toujours -
  • 7:53 - 7:54
    toujours -
  • 7:54 - 7:56
    d'une manière ou d'une autre, biaisées.
  • 7:57 - 8:02
    Les algorithmes sont par définition
    des ensembles de règles ou d'étapes
  • 8:02 - 8:06
    qui ont été conçus pour atteindre
    un résultat spécifique.
  • 8:07 - 8:10
    Mais ces ensembles de règles
    ne peuvent pas être objectifs,
  • 8:10 - 8:12
    car ils ont été conçus
    par des êtres humains
  • 8:12 - 8:13
    dans un contexte culturel spécifique
  • 8:14 - 8:16
    et sont façonnés
    par des valeurs culturelles spécifiques.
  • 8:17 - 8:18
    Lorsque les machines apprennent,
  • 8:18 - 8:21
    elles apprennent à partir
    d'algorithmes biaisés,
  • 8:22 - 8:25
    et elles apprennent souvent aussi
    à partir de bases de données biaisées.
  • 8:26 - 8:30
    En ce moment, nous voyons les
    premiers exemples de biais algorithmiques.
  • 8:30 - 8:33
    Et certains de ces exemples
    sont franchement terrifiants.
  • 8:34 - 8:39
    Cette année, l'AI Now Institute
    de New York a publié un rapport
  • 8:39 - 8:41
    qui révèle que les technologies d'IA
  • 8:41 - 8:44
    utilisées pour la police prédictive
  • 8:44 - 8:48
    ont été formées sur des données « sales ».
  • 8:48 - 8:51
    Il s'agit essentiellement
    de données recueillies
  • 8:51 - 8:55
    au cours de périodes de préjugés raciaux
  • 8:55 - 8:58
    et de pratiques policières
    non transparentes.
  • 8:59 - 9:03
    Comme ces technologies
    sont formées avec des données sales,
  • 9:03 - 9:04
    elles ne sont pas objectives
  • 9:04 - 9:09
    et leurs résultats ne font
    qu'amplifier et perpétuer
  • 9:09 - 9:11
    les préjugés et les erreurs de la police.
  • 9:13 - 9:16
    Je pense donc que nous sommes confrontés
    à un problème fondamental
  • 9:16 - 9:18
    dans notre société.
  • 9:18 - 9:21
    Nous commençons
    à faire confiance aux technologies
  • 9:21 - 9:23
    pour profiler des êtres humains.
  • 9:24 - 9:26
    Nous savons qu'en établissant
    le profil des humains,
  • 9:26 - 9:29
    ces technologies seront toujours biaisées
  • 9:29 - 9:32
    et ne seront jamais vraiment précises.
  • 9:32 - 9:35
    Ce dont nous avons besoin,
    c'est d'une solution politique :
  • 9:35 - 9:37
    les gouvernements doivent reconnaître que
  • 9:37 - 9:40
    nos droits en matière de données
    sont des droits humains.
  • 9:40 - 9:44
    (Applaudissements et acclamations)
  • 9:48 - 9:52
    Tant que cela ne sera pas le cas, nous ne
    pourrons pas espérer un avenir plus juste.
  • 9:53 - 9:55
    Je crains que mes filles soient exposées
  • 9:56 - 9:59
    à toutes sortes de discriminations
    et d'erreurs algorithmiques.
  • 9:59 - 10:01
    La différence entre mes filles et moi,
  • 10:01 - 10:05
    c'est qu'il n'y a pas d'archives
    publiques de mon enfance.
  • 10:05 - 10:09
    Certainement pas de données sur toutes
    les choses stupides que j'ai faites
  • 10:09 - 10:11
    et pensées quand j'étais adolescente.
  • 10:11 - 10:13
    (Rires)
  • 10:14 - 10:17
    Mais pour mes filles,
    c'est peut-être différent.
  • 10:17 - 10:20
    Les données qui sont recueillies
    auprès d'elles aujourd'hui
  • 10:20 - 10:24
    peuvent être utilisées
    pour les juger à l'avenir
  • 10:24 - 10:27
    et pourraient peut-être altérer
    leurs espoirs et leurs rêves.
  • 10:29 - 10:30
    Je pense qu'il est temps
  • 10:30 - 10:32
    que nous nous engagions tous,
  • 10:32 - 10:34
    que nous commencions à travailler ensemble
  • 10:34 - 10:36
    en tant qu'individus,
  • 10:36 - 10:38
    organisations et institutions,
  • 10:38 - 10:41
    et exigions une plus grande justice
    en matière de données pour nous
  • 10:41 - 10:43
    et pour nos enfants
  • 10:43 - 10:44
    avant qu'il ne soit trop tard.
  • 10:44 - 10:45
    Je vous remercie.
  • 10:45 - 10:47
    (Applaudissements)
Title:
Ce que les GAFA savent sur vos enfants
Speaker:
Veronica Barassi
Description:

Les plateformes numériques que vous et votre famille utilisez tous les jours - des jeux en ligne aux applications éducatives en passant par les portails médicaux - pourraient collecter et vendre les données de vos enfants, explique l'anthropologue Veronica Barassi. Partageant ses découvertes, elle exhorte les parents à y regarder à deux fois avant d'accepter aveuglément les termes et conditions d'utilisation et à exiger des protections qui garantissent que les données sur leurs enfants ne compromettent pas leur avenir.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:01

French subtitles

Revisions