0:00:01.041,0:00:04.175 Bonjour, je suis Joy, une poète du code 0:00:04.199,0:00:09.192 en mission pour arrêter [br]une force invisible qui prend de l'ampleur 0:00:09.216,0:00:12.072 une force que j'appelle[br]« le regard codé », 0:00:12.096,0:00:15.405 mon terme pour le biais algorithmique. 0:00:15.429,0:00:19.729 Le biais algorithmique, comme le biais[br]cognitif, crée de l'injustice. 0:00:19.753,0:00:25.775 Mais les algorithmes, comme les virus, [br]peuvent massivement générer un biais 0:00:25.799,0:00:27.381 et ce, très rapidement. 0:00:27.943,0:00:32.330 Le biais algorithmique peut aussi[br]créer des sentiments d'exclusion 0:00:32.354,0:00:34.482 et mener à des pratiques discriminatoires. 0:00:34.506,0:00:36.601 Laissez-moi vous montrer[br]ce que je veux dire. 0:00:36.980,0:00:39.503 (Video) Joy Boulamwini : Salut[br]webcam. J'ai un visage. 0:00:40.162,0:00:42.026 Est-ce que tu peux le voir? 0:00:42.051,0:00:43.676 Et sans lunettes ? 0:00:43.701,0:00:45.915 Tu peux voir son visage à elle. 0:00:46.237,0:00:48.482 Et le mien ? 0:00:51.890,0:00:55.640 J'ai un masque. Est-ce que tu peux [br]voir mon masque ? 0:00:56.474,0:00:58.839 Joy Boulamwini : Ça, comment [br]est-ce arrivé ? 0:00:58.863,0:01:02.004 Pourquoi est-ce que je me retrouve[br]assise devant un ordinateur 0:01:02.028,0:01:03.452 portant un masque blanc 0:01:03.476,0:01:07.126 pour essayer d'être détectée[br]par une webcam premier prix ? 0:01:07.150,0:01:09.441 Quand je ne me bats pas [br]contre le regard codé 0:01:09.465,0:01:10.985 en tant que poète du code, 0:01:11.009,0:01:14.281 Je suis doctorante au Media Lab du MIT 0:01:14.305,0:01:19.222 et j'ai l'opportunité de plancher [br]sur plein de projets fantaisistes 0:01:19.246,0:01:21.273 dont le Miroir Aspire 0:01:21.297,0:01:26.431 que j'ai construit pour pouvoir projeter[br]des masques digitaux sur mon reflet. 0:01:26.455,0:01:28.805 Comme ça le matin, pour[br]me sentir plus forte, 0:01:28.829,0:01:30.263 je pouvais projeter un lion. 0:01:30.287,0:01:33.783 Si j'avais besoin d'encouragements,[br]je pouvais choisir une citation. 0:01:33.807,0:01:36.796 J'ai donc utilisé un logiciel [br]de reconnaissance faciale 0:01:36.820,0:01:38.171 pour construire le système, 0:01:38.195,0:01:43.298 mais j'ai réalisé que je ne pouvais pas [br]le tester à moins de porter un masque. 0:01:44.282,0:01:48.628 Malheureusement, j'avais déjà [br]rencontré ce problème. 0:01:48.652,0:01:52.955 Quand j'étais étudiante [br]en informatique à Georgia Tech, 0:01:52.979,0:01:55.034 je travaillais sur les robots sociaux 0:01:55.058,0:01:58.835 et l'un de mes devoirs était de programmer[br]un robot pour qu'il joue à « Caché », 0:01:58.839,0:02:00.542 un jeu qui se joue à tour de rôle 0:02:00.566,0:02:04.887 dans lequel chacun couvre son visage, [br]puis le découvre en disant « Coucou ! » 0:02:04.911,0:02:09.340 Le problème, c'est que ce jeu ne peut [br]pas marcher si je ne peux pas vous voir 0:02:09.364,0:02:11.863 et mon robot ne pouvait pas me voir. 0:02:11.887,0:02:15.837 Mais j'ai emprunté le visage de ma [br]colocataire pour finir le projet, 0:02:15.861,0:02:17.241 j'ai rendu le devoir, 0:02:17.265,0:02:21.018 et je me suis dit que[br]quelqu'un d'autre résoudrait le problème. 0:02:21.669,0:02:23.672 Peu de temps après, 0:02:23.696,0:02:27.855 j'étais à Hong Kong [br]pour une compétition d'entrepreneuriat. 0:02:28.339,0:02:31.033 Les organisateurs ont décidé [br]d'emmener les participants 0:02:31.057,0:02:33.429 faire le tour des start-up locales. 0:02:33.453,0:02:38.138 L'une d'elles avait un robot social, ils[br]ont décidé de faire une démonstration. 0:02:38.138,0:02:41.108 Ça a marché avec tout le monde[br]jusqu'à ce que vienne mon tour, 0:02:41.132,0:02:43.055 et vous pouvez sans doute deviner. 0:02:43.079,0:02:46.044 Le robot ne pouvait pas[br]détecter mon visage. 0:02:46.068,0:02:48.579 J'ai demandé aux développeurs[br]ce qu'il se passait, 0:02:48.603,0:02:54.136 et en fait nous avions utilisé le même[br]outil de reconnaissance faciale. 0:02:54.160,0:02:55.810 À l'autre bout du monde, 0:02:55.834,0:02:59.686 j'avais appris que le biais algorithmique [br]peut voyager aussi rapidement 0:02:59.710,0:03:02.880 qu'un téléchargement de fichiers. 0:03:03.745,0:03:06.821 Qu'est-ce qui se passe ?[br]Pourquoi mon visage n'est pas détecté ? 0:03:06.845,0:03:10.201 Pour répondre, il faut comprendre comment[br]on donne la vue aux machines. 0:03:10.225,0:03:13.634 La vision informatique utilise [br]des techniques de machine learning 0:03:13.658,0:03:15.538 pour reconnaître des visages. 0:03:15.562,0:03:19.459 Pour que ça marche, vous créez un ensemble[br]de formation avec des exemples. 0:03:19.483,0:03:22.301 Ceci est un visage. Ceci est un visage.[br]Mais pas ça. 0:03:22.325,0:03:26.844 Au fur et à mesure, l'ordinateur apprend[br]comment reconnaître d'autres visages. 0:03:26.868,0:03:30.857 Mais si les jeux de tests[br]ne sont pas très variés, 0:03:30.881,0:03:34.230 n'importe quel visage qui dévie trop[br]de la norme établie 0:03:34.254,0:03:35.903 sera plus compliqué à détecter, 0:03:35.927,0:03:37.890 et c'était ce qui se passait avec moi. 0:03:37.914,0:03:40.296 Mais pas d'angoisse -- [br]il y a de bonnes nouvelles. 0:03:40.320,0:03:43.091 Les jeux de tests [br]n'apparaissent pas par magie. 0:03:43.115,0:03:44.903 On peut les créer nous-mêmes. 0:03:44.927,0:03:49.103 Il y a la possibilité de créer[br]des jeux de tests plus variés 0:03:49.127,0:03:52.951 qui offrent un portrait [br]plus riche de l'humanité. 0:03:52.975,0:03:55.196 Vous avez vu dans mes exemples 0:03:55.220,0:03:56.988 que c'est via les robots sociaux 0:03:57.012,0:04:01.623 que je me suis rendu compte de l'existence[br]du biais algorithmique. 0:04:01.647,0:04:06.462 Mais le biais algorithmique peut aussi[br]mener à des pratiques discriminatoires. 0:04:07.437,0:04:08.890 Aux États-Unis, 0:04:08.914,0:04:13.112 la police commence à utiliser [br]des logiciels de reconnaissance faciale 0:04:13.136,0:04:15.595 dans son arsenal contre le crime. 0:04:15.619,0:04:17.632 Georgetown Law a publié un rapport 0:04:17.656,0:04:24.419 montrant qu'un adulte sur deux aux[br]États-Unis - 117 millions de personnes-- 0:04:24.443,0:04:27.977 ont leur visage dans un système de[br]reconnaissance faciale. 0:04:28.001,0:04:32.553 La police peut en ce moment consulter [br]ces systèmes non régulés, 0:04:32.577,0:04:36.863 en utilisant des algorithmes[br]dont la fiabilité n'a pas été testée. 0:04:36.887,0:04:40.751 Mais on sait que la reconnaissance [br]faciale a des failles, 0:04:40.775,0:04:44.954 et que correctement étiqueter [br]un visage reste un défi. 0:04:44.978,0:04:46.740 Vous l'avez sûrement vu sur Facebook. 0:04:46.764,0:04:49.752 Avec mes amis, on rit souvent[br]quand on voit d'autres personnes 0:04:49.776,0:04:52.234 mal identifiées dans nos photos. 0:04:52.258,0:04:57.849 Mais mal identifier un suspect comme étant[br]un criminel n'est pas drôle, 0:04:57.873,0:05:00.700 et porter atteinte aux libertés civiles[br]non plus. 0:05:00.724,0:05:03.929 Le machine learning est utilisé [br]pour la reconnaissance faciale, 0:05:03.953,0:05:08.458 mais s'utilise dans d'autres[br]domaines que la vision informatique. 0:05:09.266,0:05:13.282 Dans son livre « Weapons[br]of Math Destruction », 0:05:13.306,0:05:19.987 la data scientist Cathy O'Neil [br]parle des risques de ces nouvelles armes, 0:05:20.011,0:05:24.364 des algorithmes répandus, [br]mystérieux et destructeurs 0:05:24.388,0:05:27.352 qui sont de plus en plus utilisés [br]dans des prises de décision 0:05:27.376,0:05:30.553 qui ont un impact sur nos vies. 0:05:30.577,0:05:32.447 Qui est embauché ou renvoyé ? 0:05:32.471,0:05:34.583 Aurez-vous ce prêt ?[br]Une assurance ? 0:05:34.607,0:05:38.110 Serez-vous admis dans cette université[br]que vous voulez vraiment ? 0:05:38.134,0:05:41.643 Est-ce que vous et moi payons[br]le même prix pour le même produit 0:05:41.667,0:05:44.109 acheté sur la même plateforme ? 0:05:44.133,0:05:47.892 Les autorités policières commencent [br]à utiliser le machine learning 0:05:47.916,0:05:50.205 dans le cadre de la prévention policière. 0:05:50.229,0:05:53.723 Certains juges utilisent des scores[br]générés par des machines 0:05:53.747,0:05:58.149 pour déterminer combien de temps[br]un individu passera derrière les barreaux. 0:05:58.173,0:06:00.627 Nous devons donc réfléchir [br]à ces décisions. 0:06:00.651,0:06:01.833 Sont-elles justes ? 0:06:01.857,0:06:04.747 Et nous avons vu que[br]le biais algorithmique 0:06:04.771,0:06:08.145 ne mène pas forcément[br]à des décisions justes. 0:06:08.169,0:06:10.133 Que pouvons-nous faire ? 0:06:10.157,0:06:13.837 Nous pouvons commencer à penser[br]à une manière de coder plus inclusivement 0:06:13.861,0:06:16.851 et à utiliser des pratiques[br]de code plus inclusives. 0:06:16.875,0:06:19.184 Tout commence avec les gens. 0:06:19.708,0:06:21.669 Qui code a une importance. 0:06:21.693,0:06:25.812 Créons-nous des équipes [br]composées d'individus variés 0:06:25.836,0:06:28.247 qui puissent vérifier mutuellement [br]leurs travaux ? 0:06:28.271,0:06:31.816 D'un point de vue technique,[br]comment on code a de l'importance. 0:06:31.840,0:06:35.491 Ajoutons-nous la justice à l'équation [br]quand nous développons des systèmes ? 0:06:35.515,0:06:38.428 Finalement, pourquoi[br]on code a une importance. 0:06:38.785,0:06:43.868 Nous avons utilisé des outils numériques[br]pour générer d'immenses richesses. 0:06:43.892,0:06:48.339 Nous avons maintenant l'opportunité [br]de créer encore plus d'égalité 0:06:48.363,0:06:51.293 si nous faisons du changement [br]social une priorité. 0:06:51.317,0:06:53.487 et pas une préoccupation secondaire. 0:06:54.008,0:06:58.530 Ceci seront les trois piliers[br]du mouvement « incoding ». 0:06:58.554,0:07:00.206 Qui code a de l'importance, 0:07:00.230,0:07:01.773 la manière dont on code aussi 0:07:01.797,0:07:03.820 et pourquoi on code également. 0:07:03.844,0:07:06.943 Pour aller vers l'incoding,[br]nous pouvons commencer à réfléchir 0:07:06.967,0:07:10.131 à comment construire des outils[br]pouvant identifier ce biais 0:07:10.155,0:07:13.233 via la collecte de témoignages[br]comme celui que j'ai partagé, 0:07:13.257,0:07:16.327 mais qui pourraient aussi tester[br]des logiciels existants. 0:07:16.351,0:07:20.116 Nous pouvons commencer à créer[br]des jeux de tests plus complets. 0:07:20.140,0:07:22.943 Imaginez une campagne[br]« Selfies pour l'inclusion », 0:07:22.967,0:07:26.622 où vous et moi pourrions aider[br]les développeurs à tester et créer 0:07:26.646,0:07:28.739 ces jeux de tests plus variés. 0:07:29.302,0:07:32.130 Nous pouvons commencer à penser[br]plus consciencieusement 0:07:32.154,0:07:37.545 à l'impact social[br]des technologies que nous développons. 0:07:37.569,0:07:39.962 Pour commencer le mouvement incoding, 0:07:39.986,0:07:42.833 J'ai lancé l'Algorithmic Justice League, 0:07:42.857,0:07:48.729 où n'importe qui se souciant du problème[br]peut aider à combattre le regard codé. 0:07:48.753,0:07:52.049 Sur codedgaze.com, vous pouvez[br]dénoncer des biais, 0:07:52.073,0:07:54.518 demander des tests, être testeur vous-même 0:07:54.542,0:07:57.313 et rejoindre la conversation, 0:07:57.337,0:07:59.624 #codedgaze. 0:08:00.742,0:08:03.229 Donc je vous invite à me rejoindre 0:08:03.253,0:08:06.972 pour créer un monde où la technologie [br]marche pour nous tous, 0:08:06.996,0:08:08.893 pas seulement pour certains, 0:08:08.917,0:08:13.505 un monde où l'inclusion [br]et le changement social ont de la valeur. 0:08:13.529,0:08:14.704 Merci. 0:08:14.728,0:08:18.999 (Applaudissements) 0:08:20.873,0:08:23.727 Mais j'ai une question : 0:08:23.751,0:08:25.810 Me rejoindrez-vous dans ce combat? 0:08:25.834,0:08:27.119 (Rires) 0:08:27.143,0:08:30.830 (Applaudissements)