Ce que les GAFA savent sur vos enfants
-
0:01 - 0:03Chaque jour, chaque semaine,
-
0:03 - 0:05nous acceptons des CGU.
-
0:05 - 0:07Et ce faisant,
-
0:07 - 0:09nous donnons aux entreprises le droit
-
0:09 - 0:13de faire ce qu'elles veulent
avec nos données -
0:13 - 0:15et celles de nos enfants.
-
0:17 - 0:20Ce qui nous amène à nous demander :
-
0:20 - 0:23quelle quantité de données
donnons-nous sur nos enfants, -
0:23 - 0:25et quelles en sont les implications ?
-
0:26 - 0:28Je suis anthropologue,
-
0:28 - 0:31et je suis aussi la mère
de deux petites filles. -
0:31 - 0:35J'ai commencé à m'intéresser
à cette question en 2015 -
0:35 - 0:38lorsque j'ai soudain réalisé
qu'il y avait de vastes, -
0:38 - 0:41et presqu'innombrables,
quantités de données -
0:41 - 0:44produites et collectées sur les enfants.
-
0:45 - 0:47J'ai donc lancé un projet de recherche,
-
0:47 - 0:49appelé « Child Data Citizen »,
-
0:49 - 0:51et j'ai cherché à remplir le vide.
-
0:53 - 0:56Vous pensez peut-être
que je suis ici pour vous reprocher -
0:56 - 0:58de publier des photos de vos enfants
sur les médias sociaux, -
0:58 - 1:01mais là n'est pas la question.
-
1:01 - 1:04Le problème est bien plus important
que le soi-disant « sharenting ». -
1:05 - 1:09Il s'agit de systèmes et non d'individus.
-
1:09 - 1:11Vous et vos habitudes
ne sont pas à blâmer. -
1:13 - 1:16Pour la toute première
fois dans l'Histoire, -
1:16 - 1:18nous suivons
les données individuelles des enfants -
1:18 - 1:20bien avant leur naissance -
-
1:20 - 1:23parfois dès la conception,
-
1:23 - 1:25puis tout au long de leur vie.
-
1:25 - 1:28Vous voyez, lorsque les parents
décident de concevoir, -
1:28 - 1:31ils vont chercher sur Internet
des « moyens de tomber enceinte » -
1:31 - 1:34ou les femmes téléchargent
des applications de suivi de l'ovulation. -
1:35 - 1:38Lorsqu'elles tombent enceintes,
-
1:38 - 1:41elles publient les échographies
sur les médias sociaux, -
1:41 - 1:43téléchargent des applications de grossesse
-
1:43 - 1:47ou consultent Dr Google
pour toutes sortes de choses, -
1:47 - 1:48comme, vous savez...
-
1:48 - 1:51« le risque de fausse couche en avion »
-
1:51 - 1:54ou « les crampes abdominales
en début de grossesse ». -
1:54 - 1:56Je le sais parce que je l'ai fait -
-
1:56 - 1:57et plusieurs fois.
-
1:58 - 2:01Et puis, quand le bébé est né,
elles suivent chaque sieste, -
2:01 - 2:03chaque repas,
-
2:03 - 2:05chaque événement de la vie
sur différentes technologies. -
2:06 - 2:09Et toutes ces technologies
font de l'argent -
2:09 - 2:14avec les données les plus intimes
du bébé - son comportement et sa santé - -
2:14 - 2:16en les partageant avec d'autres.
-
2:17 - 2:19Pour vous montrer comment cela fonctionne,
-
2:19 - 2:24en 2019, le British Medical Journal
a publié une étude qui a montré -
2:24 - 2:28que sur 24 applications de santé mobiles,
-
2:28 - 2:3219 partageaient des informations
avec des tierces parties, -
2:32 - 2:38qui elles-mêmes les partageaient
avec 216 autres entités. -
2:39 - 2:42Sur ces 216 entités,
-
2:42 - 2:45seules trois appartenaient
au secteur de la santé. -
2:46 - 2:50Les autres entreprises étaient
de grandes sociétés de la tech -
2:50 - 2:54comme Google, Facebook ou Oracle,
-
2:54 - 2:56des agences de publicité digitale,
-
2:56 - 3:00ainsi qu'une agence de renseignements
sur le crédit à la consommation. -
3:01 - 3:03Vous avez bien compris :
-
3:03 - 3:08les agences de publicité et de crédit
ont déjà des données sur les bébés. -
3:09 - 3:12Mais les apps, les moteurs
de recherche et les médias sociaux -
3:12 - 3:15ne sont en réalité que la
partie visible de l'iceberg, -
3:15 - 3:18car les enfants sont suivis
par de multiples technologies -
3:18 - 3:20dans leur vie quotidienne.
-
3:20 - 3:24Ils sont suivis chez eux par la domotique
et les assistants virtuels ; -
3:24 - 3:26par les plates-formes éducatives
-
3:26 - 3:28et les technologies éducatives
à leur école ; -
3:28 - 3:30par leur dossier médical
-
3:30 - 3:33et des portails en ligne
chez leur médecin ; -
3:33 - 3:35par leurs jouets connectés à Internet,
-
3:35 - 3:36leurs jeux en ligne
-
3:36 - 3:39et beaucoup, beaucoup,
beaucoup, beaucoup d'autres technologies. -
3:40 - 3:42Donc, pendant mes recherches,
-
3:42 - 3:46beaucoup de parents sont venus me voir
et m'ont dit : « Et alors ? -
3:46 - 3:49Quel est le problème
que mes enfants soient surveillés ? -
3:50 - 3:52Nous n'avons rien à cacher. »
-
3:53 - 3:54Eh bien, c'est important.
-
3:55 - 4:01C'est important car aujourd'hui, les
individus ne sont pas seulement suivis, -
4:01 - 4:05ils sont aussi profilés
selon leurs données. -
4:05 - 4:09L'intelligence artificielle et
l'analyse prédictive sont utilisées -
4:09 - 4:13pour exploiter le plus grand nombre
possible de données sur un individu -
4:13 - 4:15provenant de différentes sources :
-
4:15 - 4:19histoire familiale, habitudes d'achat,
commentaires dans les médias sociaux. -
4:19 - 4:21Puis ils rassemblent ces données
-
4:21 - 4:24pour prendre des décisions fondées
sur des données concernant l'individu. -
4:25 - 4:28Et ces technologies
sont utilisées partout. -
4:28 - 4:31Les banques les utilisent
pour décider des prêts. -
4:31 - 4:33Les assurances les utilisent
pour décider des primes. -
4:34 - 4:37Les recruteurs et les employeurs
les utilisent -
4:37 - 4:40pour décider si une personne
est apte à occuper un emploi ou non. -
4:41 - 4:44La police et les tribunaux
les utilisent également -
4:44 - 4:47pour déterminer
si une personne est un criminel potentiel -
4:47 - 4:50ou si elle est susceptible de récidiver.
-
4:52 - 4:57Nous n'avons aucune connaissance
ni aucun contrôle -
4:57 - 5:00sur la manière dont ceux qui achètent,
vendent et traitent nos données -
5:00 - 5:03établissent notre profil
et celui de nos enfants. -
5:04 - 5:08Mais ces profils peuvent avoir
un impact significatif sur nos droits. -
5:09 - 5:11Pour vous donner un exemple,
-
5:14 - 5:18en 2018, le New York Times
a publié un article -
5:18 - 5:20sur les données
qui avaient été recueillies -
5:20 - 5:23par le service de planification
des études universitaires - -
5:23 - 5:28celles saisies par les millions
de lycéens à travers les États-Unis -
5:28 - 5:31qui cherchent un programme universitaire
ou une bourse. -
5:31 - 5:34Elles avaient été vendues à des
courtiers en données éducatives. -
5:36 - 5:41Or, les chercheurs de Fordham qui ont
étudié les courtiers en données éducatives -
5:41 - 5:46ont révélé qu'ils établissaient le
profil des enfants dès l'âge de deux ans -
5:46 - 5:50sur la base de différentes catégories :
-
5:50 - 5:54ethnicité, religion, richesse,
-
5:54 - 5:56inaptitudes sociales
-
5:56 - 5:59et bien d'autres catégories aléatoires.
-
5:59 - 6:04Ils vendent ensuite ces profils,
accompagnés du nom de l'enfant, -
6:04 - 6:07de son adresse et de ses coordonnées,
-
6:07 - 6:09à différentes entreprises,
-
6:09 - 6:12notamment des sociétés commerciales,
des sociétés de recrutement, -
6:12 - 6:16des sociétés gérant des prêts étudiants
et de cartes de crédit pour étudiants. -
6:17 - 6:18Pour aller au fond du sujet,
-
6:18 - 6:22les chercheurs de Fordham ont demandé
à un courtier en données éducatives -
6:22 - 6:28de leur fournir une liste de jeunes filles
de 14-15 ans -
6:28 - 6:31intéressées par les services
de planning familial. -
6:32 - 6:35Le courtier a accepté
de leur fournir la liste. -
6:35 - 6:40Imaginez donc à quel point
c'est intime et intrusif pour nos enfants. -
6:41 - 6:45Mais les courtiers en données éducatives
ne sont en réalité qu'un exemple. -
6:45 - 6:47La vérité est que
nos enfants sont profilés -
6:47 - 6:50d'une manière que nous
ne pouvons pas contrôler -
6:50 - 6:53mais qui peut avoir un impact significatif
sur leurs chances dans la vie. -
6:54 - 6:58Nous devons donc nous demander :
-
6:58 - 7:02peut-on faire confiance à ces technologies
lorsqu'il s'agit de profiler nos enfants ? -
7:02 - 7:04Vraiment ?
-
7:06 - 7:07Ma réponse est non.
-
7:08 - 7:09En tant qu'anthropologue,
-
7:09 - 7:13je pense que l'IA et l'analyse
prédictive peuvent être très utiles -
7:13 - 7:15pour prédire l'évolution d'une maladie
-
7:15 - 7:17ou pour lutter contre
le changement climatique. -
7:18 - 7:20Mais nous devons arrêter de croire
-
7:20 - 7:23que ces technologies peuvent
établir un profil objectif des humains -
7:23 - 7:27et qu'on peut s'appuyer sur elles
pour prendre des décisions -
7:27 - 7:28concernant la vie des individus.
-
7:28 - 7:31Parce qu'on ne peut pas
profiler les êtres humains. -
7:31 - 7:34Les traces de données ne sont pas
le miroir de qui nous sommes. -
7:34 - 7:37On pense une chose et on dit le contraire,
-
7:37 - 7:39on ressent une chose
et on agit différemment. -
7:39 - 7:42Les prédictions algorithmiques
-
7:42 - 7:44ne peuvent rendre compte
de l'imprévisibilité -
7:44 - 7:47et de la complexité
de l'expérience humaine. -
7:48 - 7:50Mais en plus de cela,
-
7:50 - 7:53ces technologies sont toujours -
-
7:53 - 7:54toujours -
-
7:54 - 7:56d'une manière ou d'une autre, biaisées.
-
7:57 - 8:02Les algorithmes sont par définition
des ensembles de règles ou d'étapes -
8:02 - 8:06qui ont été conçus pour atteindre
un résultat spécifique. -
8:07 - 8:10Mais ces ensembles de règles
ne peuvent pas être objectifs, -
8:10 - 8:12car ils ont été conçus
par des êtres humains -
8:12 - 8:13dans un contexte culturel spécifique
-
8:14 - 8:16et sont façonnés
par des valeurs culturelles spécifiques. -
8:17 - 8:18Lorsque les machines apprennent,
-
8:18 - 8:21elles apprennent à partir
d'algorithmes biaisés, -
8:22 - 8:25et elles apprennent souvent aussi
à partir de bases de données biaisées. -
8:26 - 8:30En ce moment, nous voyons les
premiers exemples de biais algorithmiques. -
8:30 - 8:33Et certains de ces exemples
sont franchement terrifiants. -
8:34 - 8:39Cette année, l'AI Now Institute
de New York a publié un rapport -
8:39 - 8:41qui révèle que les technologies d'IA
-
8:41 - 8:44utilisées pour la police prédictive
-
8:44 - 8:48ont été formées sur des données « sales ».
-
8:48 - 8:51Il s'agit essentiellement
de données recueillies -
8:51 - 8:55au cours de périodes de préjugés raciaux
-
8:55 - 8:58et de pratiques policières
non transparentes. -
8:59 - 9:03Comme ces technologies
sont formées avec des données sales, -
9:03 - 9:04elles ne sont pas objectives
-
9:04 - 9:09et leurs résultats ne font
qu'amplifier et perpétuer -
9:09 - 9:11les préjugés et les erreurs de la police.
-
9:13 - 9:16Je pense donc que nous sommes confrontés
à un problème fondamental -
9:16 - 9:18dans notre société.
-
9:18 - 9:21Nous commençons
à faire confiance aux technologies -
9:21 - 9:23pour profiler des êtres humains.
-
9:24 - 9:26Nous savons qu'en établissant
le profil des humains, -
9:26 - 9:29ces technologies seront toujours biaisées
-
9:29 - 9:32et ne seront jamais vraiment précises.
-
9:32 - 9:35Ce dont nous avons besoin,
c'est d'une solution politique : -
9:35 - 9:37les gouvernements doivent reconnaître que
-
9:37 - 9:40nos droits en matière de données
sont des droits humains. -
9:40 - 9:44(Applaudissements et acclamations)
-
9:48 - 9:52Tant que cela ne sera pas le cas, nous ne
pourrons pas espérer un avenir plus juste. -
9:53 - 9:55Je crains que mes filles soient exposées
-
9:56 - 9:59à toutes sortes de discriminations
et d'erreurs algorithmiques. -
9:59 - 10:01La différence entre mes filles et moi,
-
10:01 - 10:05c'est qu'il n'y a pas d'archives
publiques de mon enfance. -
10:05 - 10:09Certainement pas de données sur toutes
les choses stupides que j'ai faites -
10:09 - 10:11et pensées quand j'étais adolescente.
-
10:11 - 10:13(Rires)
-
10:14 - 10:17Mais pour mes filles,
c'est peut-être différent. -
10:17 - 10:20Les données qui sont recueillies
auprès d'elles aujourd'hui -
10:20 - 10:24peuvent être utilisées
pour les juger à l'avenir -
10:24 - 10:27et pourraient peut-être altérer
leurs espoirs et leurs rêves. -
10:29 - 10:30Je pense qu'il est temps
-
10:30 - 10:32que nous nous engagions tous,
-
10:32 - 10:34que nous commencions à travailler ensemble
-
10:34 - 10:36en tant qu'individus,
-
10:36 - 10:38organisations et institutions,
-
10:38 - 10:41et exigions une plus grande justice
en matière de données pour nous -
10:41 - 10:43et pour nos enfants
-
10:43 - 10:44avant qu'il ne soit trop tard.
-
10:44 - 10:45Je vous remercie.
-
10:45 - 10:47(Applaudissements)
- Title:
- Ce que les GAFA savent sur vos enfants
- Speaker:
- Veronica Barassi
- Description:
-
Les plateformes numériques que vous et votre famille utilisez tous les jours - des jeux en ligne aux applications éducatives en passant par les portails médicaux - pourraient collecter et vendre les données de vos enfants, explique l'anthropologue Veronica Barassi. Partageant ses découvertes, elle exhorte les parents à y regarder à deux fois avant d'accepter aveuglément les termes et conditions d'utilisation et à exiger des protections qui garantissent que les données sur leurs enfants ne compromettent pas leur avenir.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Claire Ghyselen approved French subtitles for What tech companies know about your kids | ||
Claire Ghyselen accepted French subtitles for What tech companies know about your kids | ||
Claire Ghyselen edited French subtitles for What tech companies know about your kids | ||
eric vautier edited French subtitles for What tech companies know about your kids | ||
eric vautier edited French subtitles for What tech companies know about your kids | ||
eric vautier edited French subtitles for What tech companies know about your kids |