0:00:00.792,0:00:03.059 Chaque jour, chaque semaine, 0:00:03.083,0:00:05.268 nous acceptons des CGU. 0:00:05.292,0:00:06.768 Et ce faisant, 0:00:06.792,0:00:09.268 nous donnons aux entreprises le droit 0:00:09.292,0:00:12.976 de faire ce qu'elles veulent[br]avec nos données 0:00:13.000,0:00:15.375 et celles de nos enfants. 0:00:16.792,0:00:19.768 Ce qui nous amène à nous demander : 0:00:19.792,0:00:22.684 quelle quantité de données[br]donnons-nous sur nos enfants, 0:00:22.708,0:00:24.708 et quelles en sont les implications ? 0:00:26.500,0:00:27.893 Je suis anthropologue, 0:00:27.917,0:00:30.518 et je suis aussi la mère[br]de deux petites filles. 0:00:30.542,0:00:35.018 J'ai commencé à m'intéresser[br]à cette question en 2015 0:00:35.042,0:00:37.768 lorsque j'ai soudain réalisé[br]qu'il y avait de vastes, 0:00:37.792,0:00:40.809 et presqu'innombrables,[br]quantités de données 0:00:40.833,0:00:44.000 produites et collectées sur les enfants. 0:00:44.792,0:00:46.768 J'ai donc lancé un projet de recherche, 0:00:46.792,0:00:49.268 appelé « Child Data Citizen », 0:00:49.292,0:00:51.417 et j'ai cherché à remplir le vide. 0:00:52.583,0:00:55.601 Vous pensez peut-être[br]que je suis ici pour vous reprocher 0:00:55.601,0:00:58.416 de publier des photos de vos enfants[br]sur les médias sociaux, 0:00:58.417,0:01:00.559 mais là n'est pas la question. 0:01:00.583,0:01:04.000 Le problème est bien plus important[br]que le soi-disant « sharenting ». 0:01:04.792,0:01:08.893 Il s'agit de systèmes et non d'individus. 0:01:08.917,0:01:11.208 Vous et vos habitudes[br]ne sont pas à blâmer. 0:01:12.833,0:01:15.684 Pour la toute première[br]fois dans l'Histoire, 0:01:15.708,0:01:18.268 nous suivons[br]les données individuelles des enfants 0:01:18.292,0:01:20.059 bien avant leur naissance - 0:01:20.083,0:01:22.768 parfois dès la conception, 0:01:22.792,0:01:25.143 puis tout au long de leur vie. 0:01:25.167,0:01:28.268 Vous voyez, lorsque les parents[br]décident de concevoir, 0:01:28.292,0:01:31.291 ils vont chercher sur Internet[br]des « moyens de tomber enceinte » 0:01:31.292,0:01:34.497 ou les femmes téléchargent[br]des applications de suivi de l'ovulation. 0:01:35.250,0:01:37.851 Lorsqu'elles tombent enceintes, 0:01:37.875,0:01:41.041 elles publient les échographies[br]sur les médias sociaux, 0:01:41.042,0:01:43.082 téléchargent des applications de grossesse 0:01:43.083,0:01:46.809 ou consultent Dr Google[br]pour toutes sortes de choses, 0:01:46.833,0:01:48.351 comme, vous savez... 0:01:48.375,0:01:50.934 « le risque de fausse couche en avion » 0:01:50.958,0:01:53.726 ou « les crampes abdominales[br]en début de grossesse ». 0:01:53.750,0:01:55.559 Je le sais parce que je l'ai fait - 0:01:55.583,0:01:57.208 et plusieurs fois. 0:01:58.458,0:02:01.268 Et puis, quand le bébé est né,[br]elles suivent chaque sieste, 0:02:01.292,0:02:02.559 chaque repas, 0:02:02.583,0:02:05.203 chaque événement de la vie[br]sur différentes technologies. 0:02:06.083,0:02:08.819 Et toutes ces technologies[br]font de l'argent 0:02:08.819,0:02:13.726 avec les données les plus intimes[br]du bébé - son comportement et sa santé - 0:02:13.750,0:02:15.542 en les partageant avec d'autres. 0:02:16.583,0:02:18.749 Pour vous montrer comment cela fonctionne, 0:02:18.750,0:02:23.934 en 2019, le British Medical Journal[br]a publié une étude qui a montré 0:02:23.958,0:02:27.601 que sur 24 applications de santé mobiles, 0:02:27.625,0:02:31.864 19 partageaient des informations[br]avec des tierces parties, 0:02:32.083,0:02:37.917 qui elles-mêmes les partageaient[br]avec 216 autres entités. 0:02:38.875,0:02:42.309 Sur ces 216 entités, 0:02:42.333,0:02:45.476 seules trois appartenaient[br]au secteur de la santé. 0:02:45.500,0:02:50.041 Les autres entreprises étaient[br]de grandes sociétés de la tech 0:02:50.042,0:02:53.559 comme Google, Facebook ou Oracle, 0:02:53.583,0:02:56.184 des agences de publicité digitale, 0:02:56.208,0:03:00.333 ainsi qu'une agence de renseignements[br]sur le crédit à la consommation. 0:03:01.125,0:03:02.559 Vous avez bien compris : 0:03:02.583,0:03:07.917 les agences de publicité et de crédit[br]ont déjà des données sur les bébés. 0:03:09.075,0:03:11.926 Mais les apps, les moteurs[br]de recherche et les médias sociaux 0:03:11.926,0:03:15.018 ne sont en réalité que la[br]partie visible de l'iceberg, 0:03:15.042,0:03:17.893 car les enfants sont suivis[br]par de multiples technologies 0:03:17.917,0:03:19.643 dans leur vie quotidienne. 0:03:19.667,0:03:23.809 Ils sont suivis chez eux par la domotique[br]et les assistants virtuels ; 0:03:23.833,0:03:25.832 par les plates-formes éducatives 0:03:25.833,0:03:28.024 et les technologies éducatives[br]à leur école ; 0:03:28.042,0:03:29.643 par leur dossier médical 0:03:29.667,0:03:32.684 et des portails en ligne[br]chez leur médecin ; 0:03:32.708,0:03:35.082 par leurs jouets connectés à Internet, 0:03:35.083,0:03:36.393 leurs jeux en ligne 0:03:36.417,0:03:39.417 et beaucoup, beaucoup,[br]beaucoup, beaucoup d'autres technologies. 0:03:40.250,0:03:41.893 Donc, pendant mes recherches, 0:03:41.917,0:03:46.059 beaucoup de parents sont venus me voir[br]et m'ont dit : « Et alors ? 0:03:46.083,0:03:49.000 Quel est le problème[br]que mes enfants soient surveillés ? 0:03:50.042,0:03:51.666 Nous n'avons rien à cacher. » 0:03:52.958,0:03:54.458 Eh bien, c'est important. 0:03:55.083,0:04:01.101 C'est important car aujourd'hui, les[br]individus ne sont pas seulement suivis, 0:04:01.125,0:04:05.226 ils sont aussi profilés[br]selon leurs données. 0:04:05.250,0:04:09.059 L'intelligence artificielle et[br]l'analyse prédictive sont utilisées 0:04:09.083,0:04:12.749 pour exploiter le plus grand nombre[br]possible de données sur un individu 0:04:12.750,0:04:14.601 provenant de différentes sources : 0:04:14.625,0:04:19.143 histoire familiale, habitudes d'achat,[br]commentaires dans les médias sociaux. 0:04:19.167,0:04:21.018 Puis ils rassemblent ces données 0:04:21.042,0:04:24.471 pour prendre des décisions fondées[br]sur des données concernant l'individu. 0:04:24.792,0:04:28.226 Et ces technologies[br]sont utilisées partout. 0:04:28.250,0:04:30.643 Les banques les utilisent[br]pour décider des prêts. 0:04:30.667,0:04:33.191 Les assurances les utilisent[br]pour décider des primes. 0:04:34.208,0:04:36.684 Les recruteurs et les employeurs[br]les utilisent 0:04:36.708,0:04:39.756 pour décider si une personne[br]est apte à occuper un emploi ou non. 0:04:40.750,0:04:43.851 La police et les tribunaux[br]les utilisent également 0:04:43.875,0:04:47.393 pour déterminer[br]si une personne est un criminel potentiel 0:04:47.417,0:04:50.227 ou si elle est susceptible de récidiver. 0:04:52.458,0:04:56.518 Nous n'avons aucune connaissance[br]ni aucun contrôle 0:04:56.542,0:05:00.184 sur la manière dont ceux qui achètent,[br]vendent et traitent nos données 0:05:00.208,0:05:02.917 établissent notre profil[br]et celui de nos enfants. 0:05:03.625,0:05:07.667 Mais ces profils peuvent avoir[br]un impact significatif sur nos droits. 0:05:08.917,0:05:11.125 Pour vous donner un exemple, 0:05:13.792,0:05:17.851 en 2018, le New York Times[br]a publié un article 0:05:17.875,0:05:19.874 sur les données[br]qui avaient été recueillies 0:05:19.875,0:05:22.957 par le service de planification[br]des études universitaires - 0:05:22.958,0:05:27.684 celles saisies par les millions[br]de lycéens à travers les États-Unis 0:05:27.708,0:05:31.351 qui cherchent un programme universitaire[br]ou une bourse. 0:05:31.375,0:05:34.417 Elles avaient été vendues à des[br]courtiers en données éducatives. 0:05:35.792,0:05:41.226 Or, les chercheurs de Fordham qui ont[br]étudié les courtiers en données éducatives 0:05:41.250,0:05:46.476 ont révélé qu'ils établissaient le[br]profil des enfants dès l'âge de deux ans 0:05:46.500,0:05:49.559 sur la base de différentes catégories : 0:05:49.583,0:05:53.768 ethnicité, religion, richesse, 0:05:53.792,0:05:55.851 inaptitudes sociales 0:05:55.875,0:05:58.809 et bien d'autres catégories aléatoires. 0:05:58.833,0:06:03.851 Ils vendent ensuite ces profils,[br]accompagnés du nom de l'enfant, 0:06:03.875,0:06:06.684 de son adresse et de ses coordonnées, 0:06:06.708,0:06:08.559 à différentes entreprises, 0:06:08.583,0:06:11.681 notamment des sociétés commerciales,[br]des sociétés de recrutement, 0:06:12.083,0:06:15.781 des sociétés gérant des prêts étudiants[br]et de cartes de crédit pour étudiants. 0:06:16.542,0:06:17.893 Pour aller au fond du sujet, 0:06:17.917,0:06:21.726 les chercheurs de Fordham ont demandé[br]à un courtier en données éducatives 0:06:21.750,0:06:27.559 de leur fournir une liste de jeunes filles[br]de 14-15 ans 0:06:27.583,0:06:30.958 intéressées par les services[br]de planning familial. 0:06:32.208,0:06:34.707 Le courtier a accepté[br]de leur fournir la liste. 0:06:34.708,0:06:39.583 Imaginez donc à quel point[br]c'est intime et intrusif pour nos enfants. 0:06:40.833,0:06:44.809 Mais les courtiers en données éducatives[br]ne sont en réalité qu'un exemple. 0:06:44.833,0:06:47.175 La vérité est que[br]nos enfants sont profilés 0:06:47.175,0:06:49.518 d'une manière que nous[br]ne pouvons pas contrôler 0:06:49.542,0:06:52.971 mais qui peut avoir un impact significatif[br]sur leurs chances dans la vie. 0:06:54.167,0:06:57.643 Nous devons donc nous demander : 0:06:57.667,0:07:02.351 peut-on faire confiance à ces technologies[br]lorsqu'il s'agit de profiler nos enfants ? 0:07:02.375,0:07:03.625 Vraiment ? 0:07:05.708,0:07:06.958 Ma réponse est non. 0:07:07.792,0:07:09.059 En tant qu'anthropologue, 0:07:09.083,0:07:12.874 je pense que l'IA et l'analyse[br]prédictive peuvent être très utiles 0:07:12.875,0:07:14.893 pour prédire l'évolution d'une maladie 0:07:14.917,0:07:17.156 ou pour lutter contre[br]le changement climatique. 0:07:18.000,0:07:19.666 Mais nous devons arrêter de croire 0:07:19.667,0:07:23.351 que ces technologies peuvent[br]établir un profil objectif des humains 0:07:23.375,0:07:26.582 et qu'on peut s'appuyer sur elles[br]pour prendre des décisions 0:07:26.583,0:07:28.476 concernant la vie des individus. 0:07:28.500,0:07:31.082 Parce qu'on ne peut pas[br]profiler les êtres humains. 0:07:31.083,0:07:34.434 Les traces de données ne sont pas[br]le miroir de qui nous sommes. 0:07:34.458,0:07:36.582 On pense une chose et on dit le contraire, 0:07:36.583,0:07:39.018 on ressent une chose[br]et on agit différemment. 0:07:39.042,0:07:41.541 Les prédictions algorithmiques 0:07:41.542,0:07:44.463 ne peuvent rendre compte[br]de l'imprévisibilité 0:07:44.463,0:07:46.708 et de la complexité[br]de l'expérience humaine. 0:07:48.417,0:07:49.976 Mais en plus de cela, 0:07:50.000,0:07:52.684 ces technologies sont toujours - 0:07:52.708,0:07:53.976 toujours - 0:07:54.000,0:07:55.917 d'une manière ou d'une autre, biaisées. 0:07:57.125,0:08:02.184 Les algorithmes sont par définition[br]des ensembles de règles ou d'étapes 0:08:02.208,0:08:05.917 qui ont été conçus pour atteindre[br]un résultat spécifique. 0:08:06.813,0:08:09.582 Mais ces ensembles de règles[br]ne peuvent pas être objectifs, 0:08:09.583,0:08:11.726 car ils ont été conçus[br]par des êtres humains 0:08:11.750,0:08:13.476 dans un contexte culturel spécifique 0:08:13.500,0:08:16.167 et sont façonnés[br]par des valeurs culturelles spécifiques. 0:08:16.667,0:08:18.416 Lorsque les machines apprennent, 0:08:18.417,0:08:20.703 elles apprennent à partir[br]d'algorithmes biaisés, 0:08:21.625,0:08:25.006 et elles apprennent souvent aussi[br]à partir de bases de données biaisées. 0:08:25.833,0:08:29.559 En ce moment, nous voyons les[br]premiers exemples de biais algorithmiques. 0:08:29.583,0:08:33.083 Et certains de ces exemples[br]sont franchement terrifiants. 0:08:34.500,0:08:38.559 Cette année, l'AI Now Institute[br]de New York a publié un rapport 0:08:38.583,0:08:40.976 qui révèle que les technologies d'IA 0:08:41.000,0:08:44.476 utilisées pour la police prédictive 0:08:44.500,0:08:47.625 ont été formées sur des données « sales ». 0:08:48.333,0:08:51.249 Il s'agit essentiellement[br]de données recueillies 0:08:51.250,0:08:55.434 au cours de périodes de préjugés raciaux 0:08:55.458,0:08:57.708 et de pratiques policières[br]non transparentes. 0:08:58.542,0:09:02.601 Comme ces technologies[br]sont formées avec des données sales, 0:09:02.625,0:09:04.059 elles ne sont pas objectives 0:09:04.083,0:09:08.601 et leurs résultats ne font[br]qu'amplifier et perpétuer 0:09:08.625,0:09:10.578 les préjugés et les erreurs de la police. 0:09:13.167,0:09:16.309 Je pense donc que nous sommes confrontés[br]à un problème fondamental 0:09:16.333,0:09:17.976 dans notre société. 0:09:18.000,0:09:20.626 Nous commençons[br]à faire confiance aux technologies 0:09:20.626,0:09:22.792 pour profiler des êtres humains. 0:09:23.750,0:09:26.268 Nous savons qu'en établissant[br]le profil des humains, 0:09:26.292,0:09:29.101 ces technologies seront toujours biaisées 0:09:29.125,0:09:31.851 et ne seront jamais vraiment précises. 0:09:31.875,0:09:34.832 Ce dont nous avons besoin,[br]c'est d'une solution politique : 0:09:34.833,0:09:36.804 les gouvernements doivent reconnaître que 0:09:36.804,0:09:40.262 nos droits en matière de données[br]sont des droits humains. 0:09:40.292,0:09:44.375 (Applaudissements et acclamations) 0:09:47.833,0:09:51.917 Tant que cela ne sera pas le cas, nous ne[br]pourrons pas espérer un avenir plus juste. 0:09:52.750,0:09:55.476 Je crains que mes filles soient exposées 0:09:55.500,0:09:59.226 à toutes sortes de discriminations[br]et d'erreurs algorithmiques. 0:09:59.250,0:10:01.113 La différence entre mes filles et moi, 0:10:01.113,0:10:04.851 c'est qu'il n'y a pas d'archives[br]publiques de mon enfance. 0:10:04.875,0:10:08.916 Certainement pas de données sur toutes[br]les choses stupides que j'ai faites 0:10:08.917,0:10:11.059 et pensées quand j'étais adolescente. 0:10:11.083,0:10:12.583 (Rires) 0:10:13.833,0:10:16.583 Mais pour mes filles,[br]c'est peut-être différent. 0:10:17.292,0:10:20.476 Les données qui sont recueillies[br]auprès d'elles aujourd'hui 0:10:20.500,0:10:24.309 peuvent être utilisées[br]pour les juger à l'avenir 0:10:24.333,0:10:27.292 et pourraient peut-être altérer[br]leurs espoirs et leurs rêves. 0:10:28.583,0:10:30.101 Je pense qu'il est temps 0:10:30.125,0:10:31.582 que nous nous engagions tous, 0:10:31.583,0:10:34.082 que nous commencions à travailler ensemble 0:10:34.083,0:10:35.518 en tant qu'individus, 0:10:35.542,0:10:38.059 organisations et institutions, 0:10:38.059,0:10:41.207 et exigions une plus grande justice[br]en matière de données pour nous 0:10:41.208,0:10:42.601 et pour nos enfants 0:10:42.625,0:10:44.143 avant qu'il ne soit trop tard. 0:10:44.167,0:10:45.434 Je vous remercie. 0:10:45.458,0:10:46.875 (Applaudissements)