1 00:00:00,792 --> 00:00:03,059 Chaque jour, chaque semaine, 2 00:00:03,083 --> 00:00:05,268 nous acceptons des CGU. 3 00:00:05,292 --> 00:00:06,768 Et ce faisant, 4 00:00:06,792 --> 00:00:09,268 nous donnons aux entreprises le droit 5 00:00:09,292 --> 00:00:12,976 de faire ce qu'elles veulent avec nos données 6 00:00:13,000 --> 00:00:15,375 et celles de nos enfants. 7 00:00:16,792 --> 00:00:19,768 Ce qui nous amène à nous demander : 8 00:00:19,792 --> 00:00:22,684 quelle quantité de données donnons-nous sur nos enfants, 9 00:00:22,708 --> 00:00:24,708 et quelles en sont les implications ? 10 00:00:26,500 --> 00:00:27,893 Je suis anthropologue, 11 00:00:27,917 --> 00:00:30,518 et je suis aussi la mère de deux petites filles. 12 00:00:30,542 --> 00:00:35,018 J'ai commencé à m'intéresser à cette question en 2015 13 00:00:35,042 --> 00:00:37,768 lorsque j'ai soudain réalisé qu'il y avait de vastes, 14 00:00:37,792 --> 00:00:40,809 et presqu'innombrables, quantités de données 15 00:00:40,833 --> 00:00:44,000 produites et collectées sur les enfants. 16 00:00:44,792 --> 00:00:46,768 J'ai donc lancé un projet de recherche, 17 00:00:46,792 --> 00:00:49,268 appelé « Child Data Citizen », 18 00:00:49,292 --> 00:00:51,417 et j'ai cherché à remplir le vide. 19 00:00:52,583 --> 00:00:55,601 Vous pensez peut-être que je suis ici pour vous reprocher 20 00:00:55,601 --> 00:00:58,416 de publier des photos de vos enfants sur les médias sociaux, 21 00:00:58,417 --> 00:01:00,559 mais là n'est pas la question. 22 00:01:00,583 --> 00:01:04,000 Le problème est bien plus important que le soi-disant « sharenting ». 23 00:01:04,792 --> 00:01:08,893 Il s'agit de systèmes et non d'individus. 24 00:01:08,917 --> 00:01:11,208 Vous et vos habitudes ne sont pas à blâmer. 25 00:01:12,833 --> 00:01:15,684 Pour la toute première fois dans l'Histoire, 26 00:01:15,708 --> 00:01:18,268 nous suivons les données individuelles des enfants 27 00:01:18,292 --> 00:01:20,059 bien avant leur naissance - 28 00:01:20,083 --> 00:01:22,768 parfois dès la conception, 29 00:01:22,792 --> 00:01:25,143 puis tout au long de leur vie. 30 00:01:25,167 --> 00:01:28,268 Vous voyez, lorsque les parents décident de concevoir, 31 00:01:28,292 --> 00:01:31,291 ils vont chercher sur Internet des « moyens de tomber enceinte » 32 00:01:31,292 --> 00:01:34,497 ou les femmes téléchargent des applications de suivi de l'ovulation. 33 00:01:35,250 --> 00:01:37,851 Lorsqu'elles tombent enceintes, 34 00:01:37,875 --> 00:01:41,041 elles publient les échographies sur les médias sociaux, 35 00:01:41,042 --> 00:01:43,082 téléchargent des applications de grossesse 36 00:01:43,083 --> 00:01:46,809 ou consultent Dr Google pour toutes sortes de choses, 37 00:01:46,833 --> 00:01:48,351 comme, vous savez... 38 00:01:48,375 --> 00:01:50,934 « le risque de fausse couche en avion » 39 00:01:50,958 --> 00:01:53,726 ou « les crampes abdominales en début de grossesse ». 40 00:01:53,750 --> 00:01:55,559 Je le sais parce que je l'ai fait - 41 00:01:55,583 --> 00:01:57,208 et plusieurs fois. 42 00:01:58,458 --> 00:02:01,268 Et puis, quand le bébé est né, elles suivent chaque sieste, 43 00:02:01,292 --> 00:02:02,559 chaque repas, 44 00:02:02,583 --> 00:02:05,203 chaque événement de la vie sur différentes technologies. 45 00:02:06,083 --> 00:02:08,819 Et toutes ces technologies font de l'argent 46 00:02:08,819 --> 00:02:13,726 avec les données les plus intimes du bébé - son comportement et sa santé - 47 00:02:13,750 --> 00:02:15,542 en les partageant avec d'autres. 48 00:02:16,583 --> 00:02:18,749 Pour vous montrer comment cela fonctionne, 49 00:02:18,750 --> 00:02:23,934 en 2019, le British Medical Journal a publié une étude qui a montré 50 00:02:23,958 --> 00:02:27,601 que sur 24 applications de santé mobiles, 51 00:02:27,625 --> 00:02:31,864 19 partageaient des informations avec des tierces parties, 52 00:02:32,083 --> 00:02:37,917 qui elles-mêmes les partageaient avec 216 autres entités. 53 00:02:38,875 --> 00:02:42,309 Sur ces 216 entités, 54 00:02:42,333 --> 00:02:45,476 seules trois appartenaient au secteur de la santé. 55 00:02:45,500 --> 00:02:50,041 Les autres entreprises étaient de grandes sociétés de la tech 56 00:02:50,042 --> 00:02:53,559 comme Google, Facebook ou Oracle, 57 00:02:53,583 --> 00:02:56,184 des agences de publicité digitale, 58 00:02:56,208 --> 00:03:00,333 ainsi qu'une agence de renseignements sur le crédit à la consommation. 59 00:03:01,125 --> 00:03:02,559 Vous avez bien compris : 60 00:03:02,583 --> 00:03:07,917 les agences de publicité et de crédit ont déjà des données sur les bébés. 61 00:03:09,075 --> 00:03:11,926 Mais les apps, les moteurs de recherche et les médias sociaux 62 00:03:11,926 --> 00:03:15,018 ne sont en réalité que la partie visible de l'iceberg, 63 00:03:15,042 --> 00:03:17,893 car les enfants sont suivis par de multiples technologies 64 00:03:17,917 --> 00:03:19,643 dans leur vie quotidienne. 65 00:03:19,667 --> 00:03:23,809 Ils sont suivis chez eux par la domotique et les assistants virtuels ; 66 00:03:23,833 --> 00:03:25,832 par les plates-formes éducatives 67 00:03:25,833 --> 00:03:28,024 et les technologies éducatives à leur école ; 68 00:03:28,042 --> 00:03:29,643 par leur dossier médical 69 00:03:29,667 --> 00:03:32,684 et des portails en ligne chez leur médecin ; 70 00:03:32,708 --> 00:03:35,082 par leurs jouets connectés à Internet, 71 00:03:35,083 --> 00:03:36,393 leurs jeux en ligne 72 00:03:36,417 --> 00:03:39,417 et beaucoup, beaucoup, beaucoup, beaucoup d'autres technologies. 73 00:03:40,250 --> 00:03:41,893 Donc, pendant mes recherches, 74 00:03:41,917 --> 00:03:46,059 beaucoup de parents sont venus me voir et m'ont dit : « Et alors ? 75 00:03:46,083 --> 00:03:49,000 Quel est le problème que mes enfants soient surveillés ? 76 00:03:50,042 --> 00:03:51,666 Nous n'avons rien à cacher. » 77 00:03:52,958 --> 00:03:54,458 Eh bien, c'est important. 78 00:03:55,083 --> 00:04:01,101 C'est important car aujourd'hui, les individus ne sont pas seulement suivis, 79 00:04:01,125 --> 00:04:05,226 ils sont aussi profilés selon leurs données. 80 00:04:05,250 --> 00:04:09,059 L'intelligence artificielle et l'analyse prédictive sont utilisées 81 00:04:09,083 --> 00:04:12,749 pour exploiter le plus grand nombre possible de données sur un individu 82 00:04:12,750 --> 00:04:14,601 provenant de différentes sources : 83 00:04:14,625 --> 00:04:19,143 histoire familiale, habitudes d'achat, commentaires dans les médias sociaux. 84 00:04:19,167 --> 00:04:21,018 Puis ils rassemblent ces données 85 00:04:21,042 --> 00:04:24,471 pour prendre des décisions fondées sur des données concernant l'individu. 86 00:04:24,792 --> 00:04:28,226 Et ces technologies sont utilisées partout. 87 00:04:28,250 --> 00:04:30,643 Les banques les utilisent pour décider des prêts. 88 00:04:30,667 --> 00:04:33,191 Les assurances les utilisent pour décider des primes. 89 00:04:34,208 --> 00:04:36,684 Les recruteurs et les employeurs les utilisent 90 00:04:36,708 --> 00:04:39,756 pour décider si une personne est apte à occuper un emploi ou non. 91 00:04:40,750 --> 00:04:43,851 La police et les tribunaux les utilisent également 92 00:04:43,875 --> 00:04:47,393 pour déterminer si une personne est un criminel potentiel 93 00:04:47,417 --> 00:04:50,227 ou si elle est susceptible de récidiver. 94 00:04:52,458 --> 00:04:56,518 Nous n'avons aucune connaissance ni aucun contrôle 95 00:04:56,542 --> 00:05:00,184 sur la manière dont ceux qui achètent, vendent et traitent nos données 96 00:05:00,208 --> 00:05:02,917 établissent notre profil et celui de nos enfants. 97 00:05:03,625 --> 00:05:07,667 Mais ces profils peuvent avoir un impact significatif sur nos droits. 98 00:05:08,917 --> 00:05:11,125 Pour vous donner un exemple, 99 00:05:13,792 --> 00:05:17,851 en 2018, le New York Times a publié un article 100 00:05:17,875 --> 00:05:19,874 sur les données qui avaient été recueillies 101 00:05:19,875 --> 00:05:22,957 par le service de planification des études universitaires - 102 00:05:22,958 --> 00:05:27,684 celles saisies par les millions de lycéens à travers les États-Unis 103 00:05:27,708 --> 00:05:31,351 qui cherchent un programme universitaire ou une bourse. 104 00:05:31,375 --> 00:05:34,417 Elles avaient été vendues à des courtiers en données éducatives. 105 00:05:35,792 --> 00:05:41,226 Or, les chercheurs de Fordham qui ont étudié les courtiers en données éducatives 106 00:05:41,250 --> 00:05:46,476 ont révélé qu'ils établissaient le profil des enfants dès l'âge de deux ans 107 00:05:46,500 --> 00:05:49,559 sur la base de différentes catégories : 108 00:05:49,583 --> 00:05:53,768 ethnicité, religion, richesse, 109 00:05:53,792 --> 00:05:55,851 inaptitudes sociales 110 00:05:55,875 --> 00:05:58,809 et bien d'autres catégories aléatoires. 111 00:05:58,833 --> 00:06:03,851 Ils vendent ensuite ces profils, accompagnés du nom de l'enfant, 112 00:06:03,875 --> 00:06:06,684 de son adresse et de ses coordonnées, 113 00:06:06,708 --> 00:06:08,559 à différentes entreprises, 114 00:06:08,583 --> 00:06:11,681 notamment des sociétés commerciales, des sociétés de recrutement, 115 00:06:12,083 --> 00:06:15,781 des sociétés gérant des prêts étudiants et de cartes de crédit pour étudiants. 116 00:06:16,542 --> 00:06:17,893 Pour aller au fond du sujet, 117 00:06:17,917 --> 00:06:21,726 les chercheurs de Fordham ont demandé à un courtier en données éducatives 118 00:06:21,750 --> 00:06:27,559 de leur fournir une liste de jeunes filles de 14-15 ans 119 00:06:27,583 --> 00:06:30,958 intéressées par les services de planning familial. 120 00:06:32,208 --> 00:06:34,707 Le courtier a accepté de leur fournir la liste. 121 00:06:34,708 --> 00:06:39,583 Imaginez donc à quel point c'est intime et intrusif pour nos enfants. 122 00:06:40,833 --> 00:06:44,809 Mais les courtiers en données éducatives ne sont en réalité qu'un exemple. 123 00:06:44,833 --> 00:06:47,175 La vérité est que nos enfants sont profilés 124 00:06:47,175 --> 00:06:49,518 d'une manière que nous ne pouvons pas contrôler 125 00:06:49,542 --> 00:06:52,971 mais qui peut avoir un impact significatif sur leurs chances dans la vie. 126 00:06:54,167 --> 00:06:57,643 Nous devons donc nous demander : 127 00:06:57,667 --> 00:07:02,351 peut-on faire confiance à ces technologies lorsqu'il s'agit de profiler nos enfants ? 128 00:07:02,375 --> 00:07:03,625 Vraiment ? 129 00:07:05,708 --> 00:07:06,958 Ma réponse est non. 130 00:07:07,792 --> 00:07:09,059 En tant qu'anthropologue, 131 00:07:09,083 --> 00:07:12,874 je pense que l'IA et l'analyse prédictive peuvent être très utiles 132 00:07:12,875 --> 00:07:14,893 pour prédire l'évolution d'une maladie 133 00:07:14,917 --> 00:07:17,156 ou pour lutter contre le changement climatique. 134 00:07:18,000 --> 00:07:19,666 Mais nous devons arrêter de croire 135 00:07:19,667 --> 00:07:23,351 que ces technologies peuvent établir un profil objectif des humains 136 00:07:23,375 --> 00:07:26,582 et qu'on peut s'appuyer sur elles pour prendre des décisions 137 00:07:26,583 --> 00:07:28,476 concernant la vie des individus. 138 00:07:28,500 --> 00:07:31,082 Parce qu'on ne peut pas profiler les êtres humains. 139 00:07:31,083 --> 00:07:34,434 Les traces de données ne sont pas le miroir de qui nous sommes. 140 00:07:34,458 --> 00:07:36,582 On pense une chose et on dit le contraire, 141 00:07:36,583 --> 00:07:39,018 on ressent une chose et on agit différemment. 142 00:07:39,042 --> 00:07:41,541 Les prédictions algorithmiques 143 00:07:41,542 --> 00:07:44,463 ne peuvent rendre compte de l'imprévisibilité 144 00:07:44,463 --> 00:07:46,708 et de la complexité de l'expérience humaine. 145 00:07:48,417 --> 00:07:49,976 Mais en plus de cela, 146 00:07:50,000 --> 00:07:52,684 ces technologies sont toujours - 147 00:07:52,708 --> 00:07:53,976 toujours - 148 00:07:54,000 --> 00:07:55,917 d'une manière ou d'une autre, biaisées. 149 00:07:57,125 --> 00:08:02,184 Les algorithmes sont par définition des ensembles de règles ou d'étapes 150 00:08:02,208 --> 00:08:05,917 qui ont été conçus pour atteindre un résultat spécifique. 151 00:08:06,813 --> 00:08:09,582 Mais ces ensembles de règles ne peuvent pas être objectifs, 152 00:08:09,583 --> 00:08:11,726 car ils ont été conçus par des êtres humains 153 00:08:11,750 --> 00:08:13,476 dans un contexte culturel spécifique 154 00:08:13,500 --> 00:08:16,167 et sont façonnés par des valeurs culturelles spécifiques. 155 00:08:16,667 --> 00:08:18,416 Lorsque les machines apprennent, 156 00:08:18,417 --> 00:08:20,703 elles apprennent à partir d'algorithmes biaisés, 157 00:08:21,625 --> 00:08:25,006 et elles apprennent souvent aussi à partir de bases de données biaisées. 158 00:08:25,833 --> 00:08:29,559 En ce moment, nous voyons les premiers exemples de biais algorithmiques. 159 00:08:29,583 --> 00:08:33,083 Et certains de ces exemples sont franchement terrifiants. 160 00:08:34,500 --> 00:08:38,559 Cette année, l'AI Now Institute de New York a publié un rapport 161 00:08:38,583 --> 00:08:40,976 qui révèle que les technologies d'IA 162 00:08:41,000 --> 00:08:44,476 utilisées pour la police prédictive 163 00:08:44,500 --> 00:08:47,625 ont été formées sur des données « sales ». 164 00:08:48,333 --> 00:08:51,249 Il s'agit essentiellement de données recueillies 165 00:08:51,250 --> 00:08:55,434 au cours de périodes de préjugés raciaux 166 00:08:55,458 --> 00:08:57,708 et de pratiques policières non transparentes. 167 00:08:58,542 --> 00:09:02,601 Comme ces technologies sont formées avec des données sales, 168 00:09:02,625 --> 00:09:04,059 elles ne sont pas objectives 169 00:09:04,083 --> 00:09:08,601 et leurs résultats ne font qu'amplifier et perpétuer 170 00:09:08,625 --> 00:09:10,578 les préjugés et les erreurs de la police. 171 00:09:13,167 --> 00:09:16,309 Je pense donc que nous sommes confrontés à un problème fondamental 172 00:09:16,333 --> 00:09:17,976 dans notre société. 173 00:09:18,000 --> 00:09:20,626 Nous commençons à faire confiance aux technologies 174 00:09:20,626 --> 00:09:22,792 pour profiler des êtres humains. 175 00:09:23,750 --> 00:09:26,268 Nous savons qu'en établissant le profil des humains, 176 00:09:26,292 --> 00:09:29,101 ces technologies seront toujours biaisées 177 00:09:29,125 --> 00:09:31,851 et ne seront jamais vraiment précises. 178 00:09:31,875 --> 00:09:34,832 Ce dont nous avons besoin, c'est d'une solution politique : 179 00:09:34,833 --> 00:09:36,804 les gouvernements doivent reconnaître que 180 00:09:36,804 --> 00:09:40,262 nos droits en matière de données sont des droits humains. 181 00:09:40,292 --> 00:09:44,375 (Applaudissements et acclamations) 182 00:09:47,833 --> 00:09:51,917 Tant que cela ne sera pas le cas, nous ne pourrons pas espérer un avenir plus juste. 183 00:09:52,750 --> 00:09:55,476 Je crains que mes filles soient exposées 184 00:09:55,500 --> 00:09:59,226 à toutes sortes de discriminations et d'erreurs algorithmiques. 185 00:09:59,250 --> 00:10:01,113 La différence entre mes filles et moi, 186 00:10:01,113 --> 00:10:04,851 c'est qu'il n'y a pas d'archives publiques de mon enfance. 187 00:10:04,875 --> 00:10:08,916 Certainement pas de données sur toutes les choses stupides que j'ai faites 188 00:10:08,917 --> 00:10:11,059 et pensées quand j'étais adolescente. 189 00:10:11,083 --> 00:10:12,583 (Rires) 190 00:10:13,833 --> 00:10:16,583 Mais pour mes filles, c'est peut-être différent. 191 00:10:17,292 --> 00:10:20,476 Les données qui sont recueillies auprès d'elles aujourd'hui 192 00:10:20,500 --> 00:10:24,309 peuvent être utilisées pour les juger à l'avenir 193 00:10:24,333 --> 00:10:27,292 et pourraient peut-être altérer leurs espoirs et leurs rêves. 194 00:10:28,583 --> 00:10:30,101 Je pense qu'il est temps 195 00:10:30,125 --> 00:10:31,582 que nous nous engagions tous, 196 00:10:31,583 --> 00:10:34,082 que nous commencions à travailler ensemble 197 00:10:34,083 --> 00:10:35,518 en tant qu'individus, 198 00:10:35,542 --> 00:10:38,059 organisations et institutions, 199 00:10:38,059 --> 00:10:41,207 et exigions une plus grande justice en matière de données pour nous 200 00:10:41,208 --> 00:10:42,601 et pour nos enfants 201 00:10:42,625 --> 00:10:44,143 avant qu'il ne soit trop tard. 202 00:10:44,167 --> 00:10:45,434 Je vous remercie. 203 00:10:45,458 --> 00:10:46,875 (Applaudissements)