Chaque jour, chaque semaine,
nous acceptons des CGU.
Et ce faisant,
nous donnons aux entreprises le droit
de faire ce qu'elles veulent
avec nos données
et celles de nos enfants.
Ce qui nous amène à nous demander :
quelle quantité de données
donnons-nous sur nos enfants,
et quelles en sont les implications ?
Je suis anthropologue,
et je suis aussi la mère
de deux petites filles.
J'ai commencé à m'intéresser
à cette question en 2015
lorsque j'ai soudain réalisé
qu'il y avait de vastes,
et presqu'innombrables,
quantités de données
produites et collectées sur les enfants.
J'ai donc lancé un projet de recherche,
appelé « Child Data Citizen »,
et j'ai cherché à remplir le vide.
Vous pensez peut-être
que je suis ici pour vous reprocher
de publier des photos de vos enfants
sur les médias sociaux,
mais là n'est pas la question.
Le problème est bien plus important
que le soi-disant « sharenting ».
Il s'agit de systèmes et non d'individus.
Vous et vos habitudes
ne sont pas à blâmer.
Pour la toute première
fois dans l'Histoire,
nous suivons
les données individuelles des enfants
bien avant leur naissance -
parfois dès la conception,
puis tout au long de leur vie.
Vous voyez, lorsque les parents
décident de concevoir,
ils vont chercher sur Internet
des « moyens de tomber enceinte »
ou les femmes téléchargent
des applications de suivi de l'ovulation.
Lorsqu'elles tombent enceintes,
elles publient les échographies
sur les médias sociaux,
téléchargent des applications de grossesse
ou consultent Dr Google
pour toutes sortes de choses,
comme, vous savez...
« le risque de fausse couche en avion »
ou « les crampes abdominales
en début de grossesse ».
Je le sais parce que je l'ai fait -
et plusieurs fois.
Et puis, quand le bébé est né,
elles suivent chaque sieste,
chaque repas,
chaque événement de la vie
sur différentes technologies.
Et toutes ces technologies
font de l'argent
avec les données les plus intimes
du bébé - son comportement et sa santé -
en les partageant avec d'autres.
Pour vous montrer comment cela fonctionne,
en 2019, le British Medical Journal
a publié une étude qui a montré
que sur 24 applications de santé mobiles,
19 partageaient des informations
avec des tierces parties,
qui elles-mêmes les partageaient
avec 216 autres entités.
Sur ces 216 entités,
seules trois appartenaient
au secteur de la santé.
Les autres entreprises étaient
de grandes sociétés de la tech
comme Google, Facebook ou Oracle,
des agences de publicité digitale,
ainsi qu'une agence de renseignements
sur le crédit à la consommation.
Vous avez bien compris :
les agences de publicité et de crédit
ont déjà des données sur les bébés.
Mais les apps, les moteurs
de recherche et les médias sociaux
ne sont en réalité que la
partie visible de l'iceberg,
car les enfants sont suivis
par de multiples technologies
dans leur vie quotidienne.
Ils sont suivis chez eux par la domotique
et les assistants virtuels ;
par les plates-formes éducatives
et les technologies éducatives
à leur école ;
par leur dossier médical
et des portails en ligne
chez leur médecin ;
par leurs jouets connectés à Internet,
leurs jeux en ligne
et beaucoup, beaucoup,
beaucoup, beaucoup d'autres technologies.
Donc, pendant mes recherches,
beaucoup de parents sont venus me voir
et m'ont dit : « Et alors ?
Quel est le problème
que mes enfants soient surveillés ?
Nous n'avons rien à cacher. »
Eh bien, c'est important.
C'est important car aujourd'hui, les
individus ne sont pas seulement suivis,
ils sont aussi profilés
selon leurs données.
L'intelligence artificielle et
l'analyse prédictive sont utilisées
pour exploiter le plus grand nombre
possible de données sur un individu
provenant de différentes sources :
histoire familiale, habitudes d'achat,
commentaires dans les médias sociaux.
Puis ils rassemblent ces données
pour prendre des décisions fondées
sur des données concernant l'individu.
Et ces technologies
sont utilisées partout.
Les banques les utilisent
pour décider des prêts.
Les assurances les utilisent
pour décider des primes.
Les recruteurs et les employeurs
les utilisent
pour décider si une personne
est apte à occuper un emploi ou non.
La police et les tribunaux
les utilisent également
pour déterminer
si une personne est un criminel potentiel
ou si elle est susceptible de récidiver.
Nous n'avons aucune connaissance
ni aucun contrôle
sur la manière dont ceux qui achètent,
vendent et traitent nos données
établissent notre profil
et celui de nos enfants.
Mais ces profils peuvent avoir
un impact significatif sur nos droits.
Pour vous donner un exemple,
en 2018, le New York Times
a publié un article
sur les données
qui avaient été recueillies
par le service de planification
des études universitaires -
celles saisies par les millions
de lycéens à travers les États-Unis
qui cherchent un programme universitaire
ou une bourse.
Elles avaient été vendues à des
courtiers en données éducatives.
Or, les chercheurs de Fordham qui ont
étudié les courtiers en données éducatives
ont révélé qu'ils établissaient le
profil des enfants dès l'âge de deux ans
sur la base de différentes catégories :
ethnicité, religion, richesse,
inaptitudes sociales
et bien d'autres catégories aléatoires.
Ils vendent ensuite ces profils,
accompagnés du nom de l'enfant,
de son adresse et de ses coordonnées,
à différentes entreprises,
notamment des sociétés commerciales,
des sociétés de recrutement,
des sociétés gérant des prêts étudiants
et de cartes de crédit pour étudiants.
Pour aller au fond du sujet,
les chercheurs de Fordham ont demandé
à un courtier en données éducatives
de leur fournir une liste de jeunes filles
de 14-15 ans
intéressées par les services
de planning familial.
Le courtier a accepté
de leur fournir la liste.
Imaginez donc à quel point
c'est intime et intrusif pour nos enfants.
Mais les courtiers en données éducatives
ne sont en réalité qu'un exemple.
La vérité est que
nos enfants sont profilés
d'une manière que nous
ne pouvons pas contrôler
mais qui peut avoir un impact significatif
sur leurs chances dans la vie.
Nous devons donc nous demander :
peut-on faire confiance à ces technologies
lorsqu'il s'agit de profiler nos enfants ?
Vraiment ?
Ma réponse est non.
En tant qu'anthropologue,
je pense que l'IA et l'analyse
prédictive peuvent être très utiles
pour prédire l'évolution d'une maladie
ou pour lutter contre
le changement climatique.
Mais nous devons arrêter de croire
que ces technologies peuvent
établir un profil objectif des humains
et qu'on peut s'appuyer sur elles
pour prendre des décisions
concernant la vie des individus.
Parce qu'on ne peut pas
profiler les êtres humains.
Les traces de données ne sont pas
le miroir de qui nous sommes.
On pense une chose et on dit le contraire,
on ressent une chose
et on agit différemment.
Les prédictions algorithmiques
ne peuvent rendre compte
de l'imprévisibilité
et de la complexité
de l'expérience humaine.
Mais en plus de cela,
ces technologies sont toujours -
toujours -
d'une manière ou d'une autre, biaisées.
Les algorithmes sont par définition
des ensembles de règles ou d'étapes
qui ont été conçus pour atteindre
un résultat spécifique.
Mais ces ensembles de règles
ne peuvent pas être objectifs,
car ils ont été conçus
par des êtres humains
dans un contexte culturel spécifique
et sont façonnés
par des valeurs culturelles spécifiques.
Lorsque les machines apprennent,
elles apprennent à partir
d'algorithmes biaisés,
et elles apprennent souvent aussi
à partir de bases de données biaisées.
En ce moment, nous voyons les
premiers exemples de biais algorithmiques.
Et certains de ces exemples
sont franchement terrifiants.
Cette année, l'AI Now Institute
de New York a publié un rapport
qui révèle que les technologies d'IA
utilisées pour la police prédictive
ont été formées sur des données « sales ».
Il s'agit essentiellement
de données recueillies
au cours de périodes de préjugés raciaux
et de pratiques policières
non transparentes.
Comme ces technologies
sont formées avec des données sales,
elles ne sont pas objectives
et leurs résultats ne font
qu'amplifier et perpétuer
les préjugés et les erreurs de la police.
Je pense donc que nous sommes confrontés
à un problème fondamental
dans notre société.
Nous commençons
à faire confiance aux technologies
pour profiler des êtres humains.
Nous savons qu'en établissant
le profil des humains,
ces technologies seront toujours biaisées
et ne seront jamais vraiment précises.
Ce dont nous avons besoin,
c'est d'une solution politique :
les gouvernements doivent reconnaître que
nos droits en matière de données
sont des droits humains.
(Applaudissements et acclamations)
Tant que cela ne sera pas le cas, nous ne
pourrons pas espérer un avenir plus juste.
Je crains que mes filles soient exposées
à toutes sortes de discriminations
et d'erreurs algorithmiques.
La différence entre mes filles et moi,
c'est qu'il n'y a pas d'archives
publiques de mon enfance.
Certainement pas de données sur toutes
les choses stupides que j'ai faites
et pensées quand j'étais adolescente.
(Rires)
Mais pour mes filles,
c'est peut-être différent.
Les données qui sont recueillies
auprès d'elles aujourd'hui
peuvent être utilisées
pour les juger à l'avenir
et pourraient peut-être altérer
leurs espoirs et leurs rêves.
Je pense qu'il est temps
que nous nous engagions tous,
que nous commencions à travailler ensemble
en tant qu'individus,
organisations et institutions,
et exigions une plus grande justice
en matière de données pour nous
et pour nos enfants
avant qu'il ne soit trop tard.
Je vous remercie.
(Applaudissements)