1 00:00:01,041 --> 00:00:04,175 Bonjour, je suis Joy, une poète du code 2 00:00:04,199 --> 00:00:09,192 en mission pour arrêter une force invisible qui prend de l'ampleur 3 00:00:09,216 --> 00:00:12,072 une force que j'appelle « le regard codé », 4 00:00:12,096 --> 00:00:15,405 mon terme pour le biais algorithmique. 5 00:00:15,429 --> 00:00:19,729 Le biais algorithmique, comme le biais cognitif, crée de l'injustice. 6 00:00:19,753 --> 00:00:25,775 Mais les algorithmes, comme les virus, peuvent massivement générer un biais 7 00:00:25,799 --> 00:00:27,381 et ce, très rapidement. 8 00:00:27,943 --> 00:00:32,330 Le biais algorithmique peut aussi créer des sentiments d'exclusion 9 00:00:32,354 --> 00:00:34,482 et mener à des pratiques discriminatoires. 10 00:00:34,506 --> 00:00:36,601 Laissez-moi vous montrer ce que je veux dire. 11 00:00:36,980 --> 00:00:39,503 (Video) Joy Boulamwini : Salut webcam. J'ai un visage. 12 00:00:40,162 --> 00:00:42,026 Est-ce que tu peux le voir? 13 00:00:42,051 --> 00:00:43,676 Et sans lunettes ? 14 00:00:43,701 --> 00:00:45,915 Tu peux voir son visage à elle. 15 00:00:46,237 --> 00:00:48,482 Et le mien ? 16 00:00:51,890 --> 00:00:55,640 J'ai un masque. Est-ce que tu peux voir mon masque ? 17 00:00:56,474 --> 00:00:58,839 Joy Boulamwini : Ça, comment est-ce arrivé ? 18 00:00:58,863 --> 00:01:02,004 Pourquoi est-ce que je me retrouve assise devant un ordinateur 19 00:01:02,028 --> 00:01:03,452 portant un masque blanc 20 00:01:03,476 --> 00:01:07,126 pour essayer d'être détectée par une webcam premier prix ? 21 00:01:07,150 --> 00:01:09,441 Quand je ne me bats pas contre le regard codé 22 00:01:09,465 --> 00:01:10,985 en tant que poète du code, 23 00:01:11,009 --> 00:01:14,281 Je suis doctorante au Media Lab du MIT 24 00:01:14,305 --> 00:01:19,222 et j'ai l'opportunité de plancher sur plein de projets fantaisistes 25 00:01:19,246 --> 00:01:21,273 dont le Miroir Aspire 26 00:01:21,297 --> 00:01:26,431 que j'ai construit pour pouvoir projeter des masques digitaux sur mon reflet. 27 00:01:26,455 --> 00:01:28,805 Comme ça le matin, pour me sentir plus forte, 28 00:01:28,829 --> 00:01:30,263 je pouvais projeter un lion. 29 00:01:30,287 --> 00:01:33,783 Si j'avais besoin d'encouragements, je pouvais choisir une citation. 30 00:01:33,807 --> 00:01:36,796 J'ai donc utilisé un logiciel de reconnaissance faciale 31 00:01:36,820 --> 00:01:38,171 pour construire le système, 32 00:01:38,195 --> 00:01:43,298 mais j'ai réalisé que je ne pouvais pas le tester à moins de porter un masque. 33 00:01:44,282 --> 00:01:48,628 Malheureusement, j'avais déjà rencontré ce problème. 34 00:01:48,652 --> 00:01:52,955 Quand j'étais étudiante en informatique à Georgia Tech, 35 00:01:52,979 --> 00:01:55,034 je travaillais sur les robots sociaux 36 00:01:55,058 --> 00:01:58,835 et l'un de mes devoirs était de programmer un robot pour qu'il joue à « Caché », 37 00:01:58,839 --> 00:02:00,542 un jeu qui se joue à tour de rôle 38 00:02:00,566 --> 00:02:04,887 dans lequel chacun couvre son visage, puis le découvre en disant « Coucou ! » 39 00:02:04,911 --> 00:02:09,340 Le problème, c'est que ce jeu ne peut pas marcher si je ne peux pas vous voir 40 00:02:09,364 --> 00:02:11,863 et mon robot ne pouvait pas me voir. 41 00:02:11,887 --> 00:02:15,837 Mais j'ai emprunté le visage de ma colocataire pour finir le projet, 42 00:02:15,861 --> 00:02:17,241 j'ai rendu le devoir, 43 00:02:17,265 --> 00:02:21,018 et je me suis dit que quelqu'un d'autre résoudrait le problème. 44 00:02:21,669 --> 00:02:23,672 Peu de temps après, 45 00:02:23,696 --> 00:02:27,855 j'étais à Hong Kong pour une compétition d'entrepreneuriat. 46 00:02:28,339 --> 00:02:31,033 Les organisateurs ont décidé d'emmener les participants 47 00:02:31,057 --> 00:02:33,429 faire le tour des start-up locales. 48 00:02:33,453 --> 00:02:38,138 L'une d'elles avait un robot social, ils ont décidé de faire une démonstration. 49 00:02:38,138 --> 00:02:41,108 Ça a marché avec tout le monde jusqu'à ce que vienne mon tour, 50 00:02:41,132 --> 00:02:43,055 et vous pouvez sans doute deviner. 51 00:02:43,079 --> 00:02:46,044 Le robot ne pouvait pas détecter mon visage. 52 00:02:46,068 --> 00:02:48,579 J'ai demandé aux développeurs ce qu'il se passait, 53 00:02:48,603 --> 00:02:54,136 et en fait nous avions utilisé le même outil de reconnaissance faciale. 54 00:02:54,160 --> 00:02:55,810 À l'autre bout du monde, 55 00:02:55,834 --> 00:02:59,686 j'avais appris que le biais algorithmique peut voyager aussi rapidement 56 00:02:59,710 --> 00:03:02,880 qu'un téléchargement de fichiers. 57 00:03:03,745 --> 00:03:06,821 Qu'est-ce qui se passe ? Pourquoi mon visage n'est pas détecté ? 58 00:03:06,845 --> 00:03:10,201 Pour répondre, il faut comprendre comment on donne la vue aux machines. 59 00:03:10,225 --> 00:03:13,634 La vision informatique utilise des techniques de machine learning 60 00:03:13,658 --> 00:03:15,538 pour reconnaître des visages. 61 00:03:15,562 --> 00:03:19,459 Pour que ça marche, vous créez un ensemble de formation avec des exemples. 62 00:03:19,483 --> 00:03:22,301 Ceci est un visage. Ceci est un visage. Mais pas ça. 63 00:03:22,325 --> 00:03:26,844 Au fur et à mesure, l'ordinateur apprend comment reconnaître d'autres visages. 64 00:03:26,868 --> 00:03:30,857 Mais si les jeux de tests ne sont pas très variés, 65 00:03:30,881 --> 00:03:34,230 n'importe quel visage qui dévie trop de la norme établie 66 00:03:34,254 --> 00:03:35,903 sera plus compliqué à détecter, 67 00:03:35,927 --> 00:03:37,890 et c'était ce qui se passait avec moi. 68 00:03:37,914 --> 00:03:40,296 Mais pas d'angoisse -- il y a de bonnes nouvelles. 69 00:03:40,320 --> 00:03:43,091 Les jeux de tests n'apparaissent pas par magie. 70 00:03:43,115 --> 00:03:44,903 On peut les créer nous-mêmes. 71 00:03:44,927 --> 00:03:49,103 Il y a la possibilité de créer des jeux de tests plus variés 72 00:03:49,127 --> 00:03:52,951 qui offrent un portrait plus riche de l'humanité. 73 00:03:52,975 --> 00:03:55,196 Vous avez vu dans mes exemples 74 00:03:55,220 --> 00:03:56,988 que c'est via les robots sociaux 75 00:03:57,012 --> 00:04:01,623 que je me suis rendu compte de l'existence du biais algorithmique. 76 00:04:01,647 --> 00:04:06,462 Mais le biais algorithmique peut aussi mener à des pratiques discriminatoires. 77 00:04:07,437 --> 00:04:08,890 Aux États-Unis, 78 00:04:08,914 --> 00:04:13,112 la police commence à utiliser des logiciels de reconnaissance faciale 79 00:04:13,136 --> 00:04:15,595 dans son arsenal contre le crime. 80 00:04:15,619 --> 00:04:17,632 Georgetown Law a publié un rapport 81 00:04:17,656 --> 00:04:24,419 montrant qu'un adulte sur deux aux États-Unis - 117 millions de personnes-- 82 00:04:24,443 --> 00:04:27,977 ont leur visage dans un système de reconnaissance faciale. 83 00:04:28,001 --> 00:04:32,553 La police peut en ce moment consulter ces systèmes non régulés, 84 00:04:32,577 --> 00:04:36,863 en utilisant des algorithmes dont la fiabilité n'a pas été testée. 85 00:04:36,887 --> 00:04:40,751 Mais on sait que la reconnaissance faciale a des failles, 86 00:04:40,775 --> 00:04:44,954 et que correctement étiqueter un visage reste un défi. 87 00:04:44,978 --> 00:04:46,740 Vous l'avez sûrement vu sur Facebook. 88 00:04:46,764 --> 00:04:49,752 Avec mes amis, on rit souvent quand on voit d'autres personnes 89 00:04:49,776 --> 00:04:52,234 mal identifiées dans nos photos. 90 00:04:52,258 --> 00:04:57,849 Mais mal identifier un suspect comme étant un criminel n'est pas drôle, 91 00:04:57,873 --> 00:05:00,700 et porter atteinte aux libertés civiles non plus. 92 00:05:00,724 --> 00:05:03,929 Le machine learning est utilisé pour la reconnaissance faciale, 93 00:05:03,953 --> 00:05:08,458 mais s'utilise dans d'autres domaines que la vision informatique. 94 00:05:09,266 --> 00:05:13,282 Dans son livre « Weapons of Math Destruction », 95 00:05:13,306 --> 00:05:19,987 la data scientist Cathy O'Neil parle des risques de ces nouvelles armes, 96 00:05:20,011 --> 00:05:24,364 des algorithmes répandus, mystérieux et destructeurs 97 00:05:24,388 --> 00:05:27,352 qui sont de plus en plus utilisés dans des prises de décision 98 00:05:27,376 --> 00:05:30,553 qui ont un impact sur nos vies. 99 00:05:30,577 --> 00:05:32,447 Qui est embauché ou renvoyé ? 100 00:05:32,471 --> 00:05:34,583 Aurez-vous ce prêt ? Une assurance ? 101 00:05:34,607 --> 00:05:38,110 Serez-vous admis dans cette université que vous voulez vraiment ? 102 00:05:38,134 --> 00:05:41,643 Est-ce que vous et moi payons le même prix pour le même produit 103 00:05:41,667 --> 00:05:44,109 acheté sur la même plateforme ? 104 00:05:44,133 --> 00:05:47,892 Les autorités policières commencent à utiliser le machine learning 105 00:05:47,916 --> 00:05:50,205 dans le cadre de la prévention policière. 106 00:05:50,229 --> 00:05:53,723 Certains juges utilisent des scores générés par des machines 107 00:05:53,747 --> 00:05:58,149 pour déterminer combien de temps un individu passera derrière les barreaux. 108 00:05:58,173 --> 00:06:00,627 Nous devons donc réfléchir à ces décisions. 109 00:06:00,651 --> 00:06:01,833 Sont-elles justes ? 110 00:06:01,857 --> 00:06:04,747 Et nous avons vu que le biais algorithmique 111 00:06:04,771 --> 00:06:08,145 ne mène pas forcément à des décisions justes. 112 00:06:08,169 --> 00:06:10,133 Que pouvons-nous faire ? 113 00:06:10,157 --> 00:06:13,837 Nous pouvons commencer à penser à une manière de coder plus inclusivement 114 00:06:13,861 --> 00:06:16,851 et à utiliser des pratiques de code plus inclusives. 115 00:06:16,875 --> 00:06:19,184 Tout commence avec les gens. 116 00:06:19,708 --> 00:06:21,669 Qui code a une importance. 117 00:06:21,693 --> 00:06:25,812 Créons-nous des équipes composées d'individus variés 118 00:06:25,836 --> 00:06:28,247 qui puissent vérifier mutuellement leurs travaux ? 119 00:06:28,271 --> 00:06:31,816 D'un point de vue technique, comment on code a de l'importance. 120 00:06:31,840 --> 00:06:35,491 Ajoutons-nous la justice à l'équation quand nous développons des systèmes ? 121 00:06:35,515 --> 00:06:38,428 Finalement, pourquoi on code a une importance. 122 00:06:38,785 --> 00:06:43,868 Nous avons utilisé des outils numériques pour générer d'immenses richesses. 123 00:06:43,892 --> 00:06:48,339 Nous avons maintenant l'opportunité de créer encore plus d'égalité 124 00:06:48,363 --> 00:06:51,293 si nous faisons du changement social une priorité. 125 00:06:51,317 --> 00:06:53,487 et pas une préoccupation secondaire. 126 00:06:54,008 --> 00:06:58,530 Ceci seront les trois piliers du mouvement « incoding ». 127 00:06:58,554 --> 00:07:00,206 Qui code a de l'importance, 128 00:07:00,230 --> 00:07:01,773 la manière dont on code aussi 129 00:07:01,797 --> 00:07:03,820 et pourquoi on code également. 130 00:07:03,844 --> 00:07:06,943 Pour aller vers l'incoding, nous pouvons commencer à réfléchir 131 00:07:06,967 --> 00:07:10,131 à comment construire des outils pouvant identifier ce biais 132 00:07:10,155 --> 00:07:13,233 via la collecte de témoignages comme celui que j'ai partagé, 133 00:07:13,257 --> 00:07:16,327 mais qui pourraient aussi tester des logiciels existants. 134 00:07:16,351 --> 00:07:20,116 Nous pouvons commencer à créer des jeux de tests plus complets. 135 00:07:20,140 --> 00:07:22,943 Imaginez une campagne « Selfies pour l'inclusion », 136 00:07:22,967 --> 00:07:26,622 où vous et moi pourrions aider les développeurs à tester et créer 137 00:07:26,646 --> 00:07:28,739 ces jeux de tests plus variés. 138 00:07:29,302 --> 00:07:32,130 Nous pouvons commencer à penser plus consciencieusement 139 00:07:32,154 --> 00:07:37,545 à l'impact social des technologies que nous développons. 140 00:07:37,569 --> 00:07:39,962 Pour commencer le mouvement incoding, 141 00:07:39,986 --> 00:07:42,833 J'ai lancé l'Algorithmic Justice League, 142 00:07:42,857 --> 00:07:48,729 où n'importe qui se souciant du problème peut aider à combattre le regard codé. 143 00:07:48,753 --> 00:07:52,049 Sur codedgaze.com, vous pouvez dénoncer des biais, 144 00:07:52,073 --> 00:07:54,518 demander des tests, être testeur vous-même 145 00:07:54,542 --> 00:07:57,313 et rejoindre la conversation, 146 00:07:57,337 --> 00:07:59,624 #codedgaze. 147 00:08:00,742 --> 00:08:03,229 Donc je vous invite à me rejoindre 148 00:08:03,253 --> 00:08:06,972 pour créer un monde où la technologie marche pour nous tous, 149 00:08:06,996 --> 00:08:08,893 pas seulement pour certains, 150 00:08:08,917 --> 00:08:13,505 un monde où l'inclusion et le changement social ont de la valeur. 151 00:08:13,529 --> 00:08:14,704 Merci. 152 00:08:14,728 --> 00:08:18,999 (Applaudissements) 153 00:08:20,873 --> 00:08:23,727 Mais j'ai une question : 154 00:08:23,751 --> 00:08:25,810 Me rejoindrez-vous dans ce combat? 155 00:08:25,834 --> 00:08:27,119 (Rires) 156 00:08:27,143 --> 00:08:30,830 (Applaudissements)