WEBVTT 00:00:01.041 --> 00:00:04.175 Bonjour, je suis Joy, une poète du code 00:00:04.199 --> 00:00:09.192 en mission pour arrêter une force invisible qui prend de l'ampleur 00:00:09.216 --> 00:00:12.072 une force que j'appelle « le regard codé », 00:00:12.096 --> 00:00:15.405 mon terme pour le biais algorithmique. 00:00:15.429 --> 00:00:19.729 Le biais algorithmique, comme le biais cognitif, crée de l'injustice. 00:00:19.753 --> 00:00:25.775 Mais les algorithmes, comme les virus, peuvent massivement générer un biais 00:00:25.799 --> 00:00:27.381 et ce, très rapidement. 00:00:27.943 --> 00:00:32.330 Le biais algorithmique peut aussi créer des sentiments d'exclusion 00:00:32.354 --> 00:00:34.482 et mener à des pratiques discriminatoires. 00:00:34.506 --> 00:00:36.601 Laissez-moi vous montrer ce que je veux dire. 00:00:36.980 --> 00:00:39.503 (Video) Joy Boulamwini : Salut webcam. J'ai un visage. 00:00:40.162 --> 00:00:42.026 Est-ce que tu peux le voir? 00:00:42.051 --> 00:00:43.676 Et sans lunettes ? 00:00:43.701 --> 00:00:45.915 Tu peux voir son visage à elle. 00:00:46.237 --> 00:00:48.482 Et le mien ? 00:00:51.890 --> 00:00:55.640 J'ai un masque. Est-ce que tu peux voir mon masque ? 00:00:56.474 --> 00:00:58.839 Joy Boulamwini : Ça, comment est-ce arrivé ? 00:00:58.863 --> 00:01:02.004 Pourquoi est-ce que je me retrouve assise devant un ordinateur 00:01:02.028 --> 00:01:03.452 portant un masque blanc 00:01:03.476 --> 00:01:07.126 pour essayer d'être détectée par une webcam premier prix ? 00:01:07.150 --> 00:01:09.441 Quand je ne me bats pas contre le regard codé 00:01:09.465 --> 00:01:10.985 en tant que poète du code, 00:01:11.009 --> 00:01:14.281 Je suis doctorante au Media Lab du MIT 00:01:14.305 --> 00:01:19.222 et j'ai l'opportunité de plancher sur plein de projets fantaisistes 00:01:19.246 --> 00:01:21.273 dont le Miroir Aspire 00:01:21.297 --> 00:01:26.431 que j'ai construit pour pouvoir projeter des masques digitaux sur mon reflet. 00:01:26.455 --> 00:01:28.805 Comme ça le matin, pour me sentir plus forte, 00:01:28.829 --> 00:01:30.263 je pouvais projeter un lion. 00:01:30.287 --> 00:01:33.783 Si j'avais besoin d'encouragements, je pouvais choisir une citation. 00:01:33.807 --> 00:01:36.796 J'ai donc utilisé un logiciel de reconnaissance faciale 00:01:36.820 --> 00:01:38.171 pour construire le système, 00:01:38.195 --> 00:01:43.298 mais j'ai réalisé que je ne pouvais pas le tester à moins de porter un masque. 00:01:44.282 --> 00:01:48.628 Malheureusement, j'avais déjà rencontré ce problème. 00:01:48.652 --> 00:01:52.955 Quand j'étais étudiante en informatique à Georgia Tech, 00:01:52.979 --> 00:01:55.034 je travaillais sur les robots sociaux 00:01:55.058 --> 00:01:58.835 et l'un de mes devoirs était de programmer un robot pour qu'il joue à « Caché », 00:01:58.839 --> 00:02:00.542 un jeu qui se joue à tour de rôle 00:02:00.566 --> 00:02:04.887 dans lequel chacun couvre son visage, puis le découvre en disant « Coucou ! » 00:02:04.911 --> 00:02:09.340 Le problème, c'est que ce jeu ne peut pas marcher si je ne peux pas vous voir 00:02:09.364 --> 00:02:11.863 et mon robot ne pouvait pas me voir. 00:02:11.887 --> 00:02:15.837 Mais j'ai emprunté le visage de ma colocataire pour finir le projet, 00:02:15.861 --> 00:02:17.241 j'ai rendu le devoir, 00:02:17.265 --> 00:02:21.018 et je me suis dit que quelqu'un d'autre résoudrait le problème. 00:02:21.669 --> 00:02:23.672 Peu de temps après, 00:02:23.696 --> 00:02:27.855 j'étais à Hong Kong pour une compétition d'entrepreneuriat. 00:02:28.339 --> 00:02:31.033 Les organisateurs ont décidé d'emmener les participants 00:02:31.057 --> 00:02:33.429 faire le tour des start-up locales. 00:02:33.453 --> 00:02:38.138 L'une d'elles avait un robot social, ils ont décidé de faire une démonstration. 00:02:38.138 --> 00:02:41.108 Ça a marché avec tout le monde jusqu'à ce que vienne mon tour, 00:02:41.132 --> 00:02:43.055 et vous pouvez sans doute deviner. 00:02:43.079 --> 00:02:46.044 Le robot ne pouvait pas détecter mon visage. 00:02:46.068 --> 00:02:48.579 J'ai demandé aux développeurs ce qu'il se passait, 00:02:48.603 --> 00:02:54.136 et en fait nous avions utilisé le même outil de reconnaissance faciale. 00:02:54.160 --> 00:02:55.810 À l'autre bout du monde, 00:02:55.834 --> 00:02:59.686 j'avais appris que le biais algorithmique peut voyager aussi rapidement 00:02:59.710 --> 00:03:02.880 qu'un téléchargement de fichiers. 00:03:03.745 --> 00:03:06.821 Qu'est-ce qui se passe ? Pourquoi mon visage n'est pas détecté ? 00:03:06.845 --> 00:03:10.201 Pour répondre, il faut comprendre comment on donne la vue aux machines. 00:03:10.225 --> 00:03:13.634 La vision informatique utilise des techniques de machine learning 00:03:13.658 --> 00:03:15.538 pour reconnaître des visages. 00:03:15.562 --> 00:03:19.459 Pour que ça marche, vous créez un ensemble de formation avec des exemples. 00:03:19.483 --> 00:03:22.301 Ceci est un visage. Ceci est un visage. Mais pas ça. 00:03:22.325 --> 00:03:26.844 Au fur et à mesure, l'ordinateur apprend comment reconnaître d'autres visages. 00:03:26.868 --> 00:03:30.857 Mais si les jeux de tests ne sont pas très variés, 00:03:30.881 --> 00:03:34.230 n'importe quel visage qui dévie trop de la norme établie 00:03:34.254 --> 00:03:35.903 sera plus compliqué à détecter, 00:03:35.927 --> 00:03:37.890 et c'était ce qui se passait avec moi. 00:03:37.914 --> 00:03:40.296 Mais pas d'angoisse -- il y a de bonnes nouvelles. 00:03:40.320 --> 00:03:43.091 Les jeux de tests n'apparaissent pas par magie. 00:03:43.115 --> 00:03:44.903 On peut les créer nous-mêmes. 00:03:44.927 --> 00:03:49.103 Il y a la possibilité de créer des jeux de tests plus variés 00:03:49.127 --> 00:03:52.951 qui offrent un portrait plus riche de l'humanité. 00:03:52.975 --> 00:03:55.196 Vous avez vu dans mes exemples 00:03:55.220 --> 00:03:56.988 que c'est via les robots sociaux 00:03:57.012 --> 00:04:01.623 que je me suis rendu compte de l'existence du biais algorithmique. 00:04:01.647 --> 00:04:06.462 Mais le biais algorithmique peut aussi mener à des pratiques discriminatoires. 00:04:07.437 --> 00:04:08.890 Aux États-Unis, 00:04:08.914 --> 00:04:13.112 la police commence à utiliser des logiciels de reconnaissance faciale 00:04:13.136 --> 00:04:15.595 dans son arsenal contre le crime. 00:04:15.619 --> 00:04:17.632 Georgetown Law a publié un rapport 00:04:17.656 --> 00:04:24.419 montrant qu'un adulte sur deux aux États-Unis - 117 millions de personnes-- 00:04:24.443 --> 00:04:27.977 ont leur visage dans un système de reconnaissance faciale. 00:04:28.001 --> 00:04:32.553 La police peut en ce moment consulter ces systèmes non régulés, 00:04:32.577 --> 00:04:36.863 en utilisant des algorithmes dont la fiabilité n'a pas été testée. 00:04:36.887 --> 00:04:40.751 Mais on sait que la reconnaissance faciale a des failles, 00:04:40.775 --> 00:04:44.954 et que correctement étiqueter un visage reste un défi. 00:04:44.978 --> 00:04:46.740 Vous l'avez sûrement vu sur Facebook. 00:04:46.764 --> 00:04:49.752 Avec mes amis, on rit souvent quand on voit d'autres personnes 00:04:49.776 --> 00:04:52.234 mal identifiées dans nos photos. 00:04:52.258 --> 00:04:57.849 Mais mal identifier un suspect comme étant un criminel n'est pas drôle, 00:04:57.873 --> 00:05:00.700 et porter atteinte aux libertés civiles non plus. 00:05:00.724 --> 00:05:03.929 Le machine learning est utilisé pour la reconnaissance faciale, 00:05:03.953 --> 00:05:08.458 mais s'utilise dans d'autres domaines que la vision informatique. 00:05:09.266 --> 00:05:13.282 Dans son livre « Weapons of Math Destruction », 00:05:13.306 --> 00:05:19.987 la data scientist Cathy O'Neil parle des risques de ces nouvelles armes, 00:05:20.011 --> 00:05:24.364 des algorithmes répandus, mystérieux et destructeurs 00:05:24.388 --> 00:05:27.352 qui sont de plus en plus utilisés dans des prises de décision 00:05:27.376 --> 00:05:30.553 qui ont un impact sur nos vies. 00:05:30.577 --> 00:05:32.447 Qui est embauché ou renvoyé ? 00:05:32.471 --> 00:05:34.583 Aurez-vous ce prêt ? Une assurance ? 00:05:34.607 --> 00:05:38.110 Serez-vous admis dans cette université que vous voulez vraiment ? 00:05:38.134 --> 00:05:41.643 Est-ce que vous et moi payons le même prix pour le même produit 00:05:41.667 --> 00:05:44.109 acheté sur la même plateforme ? 00:05:44.133 --> 00:05:47.892 Les autorités policières commencent à utiliser le machine learning 00:05:47.916 --> 00:05:50.205 dans le cadre de la prévention policière. 00:05:50.229 --> 00:05:53.723 Certains juges utilisent des scores générés par des machines 00:05:53.747 --> 00:05:58.149 pour déterminer combien de temps un individu passera derrière les barreaux. 00:05:58.173 --> 00:06:00.627 Nous devons donc réfléchir à ces décisions. 00:06:00.651 --> 00:06:01.833 Sont-elles justes ? 00:06:01.857 --> 00:06:04.747 Et nous avons vu que le biais algorithmique 00:06:04.771 --> 00:06:08.145 ne mène pas forcément à des décisions justes. 00:06:08.169 --> 00:06:10.133 Que pouvons-nous faire ? 00:06:10.157 --> 00:06:13.837 Nous pouvons commencer à penser à une manière de coder plus inclusivement 00:06:13.861 --> 00:06:16.851 et à utiliser des pratiques de code plus inclusives. 00:06:16.875 --> 00:06:19.184 Tout commence avec les gens. 00:06:19.708 --> 00:06:21.669 Qui code a une importance. 00:06:21.693 --> 00:06:25.812 Créons-nous des équipes composées d'individus variés 00:06:25.836 --> 00:06:28.247 qui puissent vérifier mutuellement leurs travaux ? 00:06:28.271 --> 00:06:31.816 D'un point de vue technique, comment on code a de l'importance. 00:06:31.840 --> 00:06:35.491 Ajoutons-nous la justice à l'équation quand nous développons des systèmes ? 00:06:35.515 --> 00:06:38.428 Finalement, pourquoi on code a une importance. 00:06:38.785 --> 00:06:43.868 Nous avons utilisé des outils numériques pour générer d'immenses richesses. 00:06:43.892 --> 00:06:48.339 Nous avons maintenant l'opportunité de créer encore plus d'égalité 00:06:48.363 --> 00:06:51.293 si nous faisons du changement social une priorité. 00:06:51.317 --> 00:06:53.487 et pas une préoccupation secondaire. 00:06:54.008 --> 00:06:58.530 Ceci seront les trois piliers du mouvement « incoding ». 00:06:58.554 --> 00:07:00.206 Qui code a de l'importance, 00:07:00.230 --> 00:07:01.773 la manière dont on code aussi 00:07:01.797 --> 00:07:03.820 et pourquoi on code également. 00:07:03.844 --> 00:07:06.943 Pour aller vers l'incoding, nous pouvons commencer à réfléchir 00:07:06.967 --> 00:07:10.131 à comment construire des outils pouvant identifier ce biais 00:07:10.155 --> 00:07:13.233 via la collecte de témoignages comme celui que j'ai partagé, 00:07:13.257 --> 00:07:16.327 mais qui pourraient aussi tester des logiciels existants. 00:07:16.351 --> 00:07:20.116 Nous pouvons commencer à créer des jeux de tests plus complets. 00:07:20.140 --> 00:07:22.943 Imaginez une campagne « Selfies pour l'inclusion », 00:07:22.967 --> 00:07:26.622 où vous et moi pourrions aider les développeurs à tester et créer 00:07:26.646 --> 00:07:28.739 ces jeux de tests plus variés. 00:07:29.302 --> 00:07:32.130 Nous pouvons commencer à penser plus consciencieusement 00:07:32.154 --> 00:07:37.545 à l'impact social des technologies que nous développons. 00:07:37.569 --> 00:07:39.962 Pour commencer le mouvement incoding, 00:07:39.986 --> 00:07:42.833 J'ai lancé l'Algorithmic Justice League, 00:07:42.857 --> 00:07:48.729 où n'importe qui se souciant du problème peut aider à combattre le regard codé. 00:07:48.753 --> 00:07:52.049 Sur codedgaze.com, vous pouvez dénoncer des biais, 00:07:52.073 --> 00:07:54.518 demander des tests, être testeur vous-même 00:07:54.542 --> 00:07:57.313 et rejoindre la conversation, 00:07:57.337 --> 00:07:59.624 #codedgaze. 00:08:00.742 --> 00:08:03.229 Donc je vous invite à me rejoindre 00:08:03.253 --> 00:08:06.972 pour créer un monde où la technologie marche pour nous tous, 00:08:06.996 --> 00:08:08.893 pas seulement pour certains, 00:08:08.917 --> 00:08:13.505 un monde où l'inclusion et le changement social ont de la valeur. 00:08:13.529 --> 00:08:14.704 Merci. 00:08:14.728 --> 00:08:18.999 (Applaudissements) 00:08:20.873 --> 00:08:23.727 Mais j'ai une question : 00:08:23.751 --> 00:08:25.810 Me rejoindrez-vous dans ce combat? 00:08:25.834 --> 00:08:27.119 (Rires) 00:08:27.143 --> 00:08:30.830 (Applaudissements)