0:00:13.961,0:00:16.909 Bonjour, je suis Joy, une poète du code 0:00:16.909,0:00:21.896 en mission pour arrêter [br]une force invisible qui prend de l'ampleur 0:00:21.896,0:00:24.992 une force que j'appelle[br]« le regard codé », 0:00:25.016,0:00:28.099 mon terme pour le biais algorithmique. 0:00:28.099,0:00:32.453 Le biais algorithmique, comme le biais[br]cognitif, crée de l'injustice. 0:00:32.453,0:00:38.695 Mais les algorithmes, comme les virus, [br]peuvent massivement générer un biais 0:00:38.719,0:00:40.301 et ce, très rapidement. 0:00:40.863,0:00:44.924 Le biais algorithmique peut aussi[br]créer des sentiments d'exclusion 0:00:44.924,0:00:47.402 et mener à des pratiques discriminatoires. 0:00:47.426,0:00:49.537 Laissez-moi vous montrer[br]ce que je veux dire. 0:00:50.340,0:00:52.876 (Video) Joy Boulamwini : Salut[br]webcam. J'ai un visage. 0:00:53.242,0:00:55.107 Est-ce que tu peux le voir? 0:00:55.131,0:00:56.756 Et sans lunettes ? 0:00:58.461,0:01:00.207 Tu peux voir son visage à elle. 0:01:01.084,0:01:02.691 Et le mien? 0:01:05.874,0:01:06.838 (Rires) 0:01:06.838,0:01:09.737 J'ai un masque. Est-ce que tu peux [br]voir mon masque ? 0:01:11.914,0:01:14.103 Joy Boulamwini : Ça, comment [br]est-ce arrivé ? 0:01:14.103,0:01:17.198 Pourquoi est-ce que je me retrouve[br]assise devant un ordinateur 0:01:17.198,0:01:18.842 portant un masque blanc 0:01:18.866,0:01:22.440 pour essayer d'être détectée[br]par une webcam premier prix ? 0:01:22.440,0:01:24.881 Quand je ne me bats pas [br]contre le regard codé 0:01:24.905,0:01:26.425 en tant que poète du code, 0:01:26.449,0:01:29.721 je suis doctorante au Media Lab du MIT 0:01:29.745,0:01:34.662 et j'ai l'opportunité de plancher [br]sur plein de projets fantaisistes 0:01:34.686,0:01:36.713 dont le Miroir Aspire 0:01:36.737,0:01:41.755 que j'ai construit pour pouvoir projeter[br]des masques digitaux sur mon reflet. 0:01:41.755,0:01:44.245 Comme ça le matin, pour[br]me sentir plus forte, 0:01:44.269,0:01:45.703 je pouvais projeter un lion. 0:01:45.727,0:01:49.223 Si j'avais besoin d'encouragements,[br]je pouvais choisir une citation. 0:01:49.247,0:01:52.236 J'ai donc utilisé un logiciel [br]de reconnaissance faciale 0:01:52.260,0:01:53.611 pour construire le système, 0:01:53.635,0:01:58.738 mais j'ai réalisé que je ne pouvais pas [br]le tester à moins de porter un masque. 0:01:59.722,0:02:04.068 Malheureusement, j'avais déjà [br]rencontré ce problème. 0:02:04.092,0:02:08.435 Quand j'étais étudiante [br]en informatique à Georgia Tech, 0:02:08.459,0:02:10.514 je travaillais sur les robots sociaux 0:02:10.538,0:02:14.315 et l'un de mes devoirs était de programmer[br]un robot pour qu'il joue à « Caché », 0:02:14.339,0:02:16.272 un simple jeu qui se joue à tour de rôle 0:02:16.420,0:02:20.741 dans lequel chacun couvre son visage, [br]puis le découvre en disant « Coucou ! » 0:02:20.741,0:02:25.170 Le problème, c'est que ce jeu ne peut [br]pas marcher si je ne peux pas vous voir 0:02:25.194,0:02:27.693 et mon robot ne pouvait pas me voir. 0:02:27.717,0:02:31.667 Mais j'ai emprunté le visage de ma [br]colocataire pour finir le projet, 0:02:31.691,0:02:33.071 j'ai rendu le devoir, 0:02:33.095,0:02:36.848 et je me suis dit que[br]quelqu'un d'autre résoudrait le problème. 0:02:37.499,0:02:39.502 Peu de temps après, 0:02:39.526,0:02:43.685 j'étais à Hong Kong [br]pour une compétition d'entrepreneuriat. 0:02:44.169,0:02:46.863 Les organisateurs ont décidé [br]d'emmener les participants 0:02:46.887,0:02:49.259 faire le tour des start-up locales. 0:02:49.283,0:02:51.752 L'une d'elles avait un robot social, 0:02:51.752,0:02:53.934 et ils ont décidé[br]de faire une démonstration. 0:02:53.958,0:02:56.938 Ça a marché avec tout le monde[br]jusqu'à ce que vienne mon tour, 0:02:56.962,0:02:58.885 et vous pouvez sans doute deviner. 0:02:58.909,0:03:01.874 Le robot ne pouvait pas[br]détecter mon visage. 0:03:01.898,0:03:04.409 J'ai demandé aux développeurs[br]ce qu'il se passait, 0:03:04.433,0:03:09.966 et en fait nous avions utilisé le même[br]outil de reconnaissance faciale. 0:03:09.990,0:03:11.640 À l'autre bout du monde, 0:03:11.664,0:03:15.516 j'avais appris que le biais algorithmique [br]peut voyager aussi rapidement 0:03:15.540,0:03:18.710 qu'un téléchargement de fichiers. 0:03:19.575,0:03:22.651 Qu'est-ce qui se passe ?[br]Pourquoi mon visage n'est pas détecté ? 0:03:22.675,0:03:26.051 Pour répondre, il faut comprendre comment [br]on donne la vue aux machines. 0:03:26.055,0:03:29.464 La vision informatique utilise [br]des techniques de machine learning 0:03:29.488,0:03:31.368 pour reconnaître des visages. 0:03:31.392,0:03:35.289 Pour que ça marche, vous créez un ensemble[br]de formation avec des exemples. 0:03:35.313,0:03:38.131 Ceci est un visage. Ceci est un visage.[br]Mais pas ça. 0:03:38.155,0:03:42.674 Au fur et à mesure, l'ordinateur apprend[br]comment reconnaître d'autres visages. 0:03:42.698,0:03:46.687 Mais si les jeux de tests[br]ne sont pas très variés, 0:03:46.711,0:03:50.060 n'importe quel visage qui dévie trop[br]de la norme établie 0:03:50.084,0:03:51.733 sera plus compliqué à détecter, 0:03:51.757,0:03:53.720 et c'était ce qui se passait avec moi. 0:03:53.744,0:03:56.126 Mais pas d'angoisse -- [br]il y a de bonnes nouvelles. 0:03:56.150,0:03:58.921 Les jeux de tests [br]n'apparaissent pas par magie. 0:03:58.945,0:04:00.733 On peut les créer nous-mêmes. 0:04:00.757,0:04:04.933 Il y a la possibilité de créer[br]des jeux de tests plus variés 0:04:04.957,0:04:08.781 qui offrent un portrait [br]plus riche de l'humanité. 0:04:08.805,0:04:11.026 Vous avez vu dans mes exemples 0:04:11.050,0:04:12.818 que c'est via les robots sociaux 0:04:12.842,0:04:17.453 que je me suis rendu compte de l'existence[br]du biais algorithmique. 0:04:17.477,0:04:22.292 Mais le biais algorithmique peut aussi[br]mener à des pratiques discriminatoires. 0:04:23.267,0:04:24.720 Aux États-Unis, 0:04:24.744,0:04:28.942 la police commence à utiliser [br]des logiciels de reconnaissance faciale 0:04:28.966,0:04:31.425 dans son arsenal contre le crime. 0:04:31.449,0:04:33.462 Georgetown Law a publié un rapport 0:04:33.486,0:04:40.249 montrant qu'un adulte sur deux aux[br]États-Unis - 117 millions de personnes-- 0:04:40.273,0:04:43.807 ont leur visage dans un système de[br]reconnaissance faciale. 0:04:43.831,0:04:48.383 La police peut en ce moment consulter [br]ces systèmes non régulés, 0:04:48.407,0:04:52.693 en utilisant des algorithmes[br]dont la fiabilité n'a pas été testée. 0:04:52.717,0:04:56.581 Mais on sait que la reconnaissance [br]faciale a des failles, 0:04:56.605,0:05:00.784 et que correctement étiqueter [br]un visage reste un défi. 0:05:00.808,0:05:02.570 Vous l'avez sûrement vu sur Facebook. 0:05:02.594,0:05:05.582 Avec mes amis, on rit souvent[br]quand on voit d'autres personnes 0:05:05.606,0:05:08.064 mal identifiées dans nos photos. 0:05:08.088,0:05:13.679 Mais mal identifier un suspect comme étant[br]un criminel n'est pas drôle, 0:05:13.703,0:05:16.530 et porter atteinte aux libertés civiles[br]non plus. 0:05:16.554,0:05:19.759 Le machine learning est utilisé [br]pour la reconnaissance faciale, 0:05:19.783,0:05:24.288 mais s'utilise dans d'autres[br]domaines que la vision informatique. 0:05:25.096,0:05:29.112 Dans son livre « Weapons[br]of Math Destruction », 0:05:29.136,0:05:35.817 la data scientist Cathy O'Neil [br]parle des risques de ces nouvelles armes, 0:05:35.841,0:05:40.194 des algorithmes répandus, [br]mystérieux et destructeurs 0:05:40.218,0:05:43.182 qui sont de plus en plus utilisés [br]dans des prises de décision 0:05:43.206,0:05:46.383 qui ont un impact sur nos vies. 0:05:46.407,0:05:48.251 Qui est embauché ou renvoyé ? 0:05:48.251,0:05:50.453 Est-ce que vous aurez ce prêt ?[br]Une assurance ? 0:05:50.453,0:05:53.940 Serez-vous admis dans cette université[br]que vous voulez vraiment ? 0:05:53.964,0:05:57.473 Est-ce que vous et moi payons[br]le même prix pour le même produit 0:05:57.497,0:05:59.939 acheté sur la même plateforme ? 0:05:59.963,0:06:03.722 Les autorités policières commencent [br]à utiliser le machine learning 0:06:03.746,0:06:06.035 dans le cadre de la prévention policière. 0:06:06.059,0:06:09.553 Certains juges utilisent des scores[br]générés par des machines 0:06:09.577,0:06:13.979 pour déterminer combien de temps[br]un individu passera derrière les barreaux. 0:06:14.003,0:06:16.457 Nous devons donc réfléchir [br]à ces décisions. 0:06:16.481,0:06:17.663 Sont-elles justes ? 0:06:17.687,0:06:20.577 Et nous avons vu que[br]le biais algorithmique 0:06:20.601,0:06:23.975 ne mène pas forcément[br]à des décisions justes. 0:06:23.999,0:06:25.963 Que pouvons-nous faire ? 0:06:25.987,0:06:29.667 Nous pouvons commencer à penser[br]à une manière de coder plus inclusivement 0:06:29.691,0:06:32.681 et à utiliser des pratiques[br]de code plus inclusives. 0:06:32.705,0:06:35.014 Tout commence avec les gens. 0:06:35.538,0:06:37.499 Qui code a une importance. 0:06:37.523,0:06:41.642 Créons-nous des équipes [br]composées d'individus variés 0:06:41.666,0:06:44.077 qui puissent vérifier mutuellement [br]leurs travaux ? 0:06:44.101,0:06:47.646 D'un point de vue technique,[br]comment on code a de l'importance. 0:06:47.670,0:06:51.321 Ajoutons-nous la justice à l'équation [br]quand nous développons des systèmes ? 0:06:51.345,0:06:54.258 Finalement, pourquoi[br]on code a une importance. 0:06:54.615,0:06:59.698 Nous avons utilisé des outils numériques[br]pour générer d'immenses richesses. 0:06:59.722,0:07:04.169 Nous avons maintenant l'opportunité [br]de créer encore plus d'égalité 0:07:04.193,0:07:07.123 si nous faisons du changement [br]social une priorité. 0:07:07.147,0:07:09.317 et pas une préoccupation secondaire. 0:07:09.838,0:07:14.360 Ceci seront les trois piliers[br]du mouvement « incoding ». 0:07:14.384,0:07:16.036 Qui code a de l'importance, 0:07:16.060,0:07:17.603 la manière dont on code aussi 0:07:17.627,0:07:19.650 et pourquoi on code également. 0:07:19.674,0:07:22.773 Pour aller vers l'incoding,[br]nous pouvons commencer à réfléchir 0:07:22.797,0:07:25.961 à comment construire des outils[br]pouvant identifier ce biais 0:07:25.985,0:07:29.063 via la collecte de témoignages[br]comme celui que j'ai partagé, 0:07:29.087,0:07:32.157 mais qui pourraient aussi tester[br]des logiciels existants. 0:07:32.181,0:07:35.946 Nous pouvons commencer à créer[br]des jeux de tests plus complets. 0:07:35.970,0:07:38.773 Imaginez une campagne[br]« Selfies pour l'inclusion », 0:07:38.797,0:07:42.452 où vous et moi pourrions aider[br]les développeurs à tester et créer 0:07:42.476,0:07:44.569 ces jeux de tests plus variés. 0:07:45.132,0:07:47.960 Nous pouvons commencer à penser[br]plus consciencieusement 0:07:47.984,0:07:53.375 à l'impact social[br]des technologies que nous développons. 0:07:53.399,0:07:55.792 Pour commencer le mouvement incoding, 0:07:55.816,0:07:58.663 j'ai lancé l'Algorithmic Justice League, 0:07:58.687,0:08:04.559 où n'importe qui se souciant du problème[br]peut aider à combattre le regard codé. 0:08:04.583,0:08:07.879 Sur codedgaze.com, vous pouvez[br]dénoncer des biais, 0:08:07.903,0:08:10.348 demander des tests, être testeur vous-même 0:08:10.372,0:08:13.143 et rejoindre la conversation, 0:08:13.167,0:08:15.454 #codedgaze. 0:08:16.572,0:08:19.059 Donc je vous invite à me rejoindre 0:08:19.083,0:08:22.802 pour créer un monde où la technologie [br]marche pour nous tous, 0:08:22.826,0:08:24.723 pas seulement pour certains, 0:08:24.747,0:08:29.395 un monde où l'inclusion [br]et le changement social ont de la valeur. 0:08:29.419,0:08:30.594 Merci. 0:08:30.618,0:08:35.912 (Applaudissements) 0:08:41.443,0:08:44.307 Mais j'ai une question : 0:08:44.307,0:08:46.530 Me rejoindrez-vous dans ce combat? 0:08:46.530,0:08:47.619 (Rires) 0:08:47.619,0:08:49.140 (Applaudissements)