1 00:00:13,961 --> 00:00:16,909 Bonjour, je suis Joy, une poète du code 2 00:00:16,909 --> 00:00:21,896 en mission pour arrêter une force invisible qui prend de l'ampleur 3 00:00:21,896 --> 00:00:24,992 une force que j'appelle « le regard codé », 4 00:00:25,016 --> 00:00:28,099 mon terme pour le biais algorithmique. 5 00:00:28,099 --> 00:00:32,453 Le biais algorithmique, comme le biais cognitif, crée de l'injustice. 6 00:00:32,453 --> 00:00:38,695 Mais les algorithmes, comme les virus, peuvent massivement générer un biais 7 00:00:38,719 --> 00:00:40,301 et ce, très rapidement. 8 00:00:40,863 --> 00:00:44,924 Le biais algorithmique peut aussi créer des sentiments d'exclusion 9 00:00:44,924 --> 00:00:47,402 et mener à des pratiques discriminatoires. 10 00:00:47,426 --> 00:00:49,537 Laissez-moi vous montrer ce que je veux dire. 11 00:00:50,340 --> 00:00:52,876 (Video) Joy Boulamwini : Salut webcam. J'ai un visage. 12 00:00:53,242 --> 00:00:55,107 Est-ce que tu peux le voir? 13 00:00:55,131 --> 00:00:56,756 Et sans lunettes ? 14 00:00:58,461 --> 00:01:00,207 Tu peux voir son visage à elle. 15 00:01:01,084 --> 00:01:02,691 Et le mien? 16 00:01:05,874 --> 00:01:06,838 (Rires) 17 00:01:06,838 --> 00:01:09,737 J'ai un masque. Est-ce que tu peux voir mon masque ? 18 00:01:11,914 --> 00:01:14,103 Joy Boulamwini : Ça, comment est-ce arrivé ? 19 00:01:14,103 --> 00:01:17,198 Pourquoi est-ce que je me retrouve assise devant un ordinateur 20 00:01:17,198 --> 00:01:18,842 portant un masque blanc 21 00:01:18,866 --> 00:01:22,440 pour essayer d'être détectée par une webcam premier prix ? 22 00:01:22,440 --> 00:01:24,881 Quand je ne me bats pas contre le regard codé 23 00:01:24,905 --> 00:01:26,425 en tant que poète du code, 24 00:01:26,449 --> 00:01:29,721 je suis doctorante au Media Lab du MIT 25 00:01:29,745 --> 00:01:34,662 et j'ai l'opportunité de plancher sur plein de projets fantaisistes 26 00:01:34,686 --> 00:01:36,713 dont le Miroir Aspire 27 00:01:36,737 --> 00:01:41,755 que j'ai construit pour pouvoir projeter des masques digitaux sur mon reflet. 28 00:01:41,755 --> 00:01:44,245 Comme ça le matin, pour me sentir plus forte, 29 00:01:44,269 --> 00:01:45,703 je pouvais projeter un lion. 30 00:01:45,727 --> 00:01:49,223 Si j'avais besoin d'encouragements, je pouvais choisir une citation. 31 00:01:49,247 --> 00:01:52,236 J'ai donc utilisé un logiciel de reconnaissance faciale 32 00:01:52,260 --> 00:01:53,611 pour construire le système, 33 00:01:53,635 --> 00:01:58,738 mais j'ai réalisé que je ne pouvais pas le tester à moins de porter un masque. 34 00:01:59,722 --> 00:02:04,068 Malheureusement, j'avais déjà rencontré ce problème. 35 00:02:04,092 --> 00:02:08,435 Quand j'étais étudiante en informatique à Georgia Tech, 36 00:02:08,459 --> 00:02:10,514 je travaillais sur les robots sociaux 37 00:02:10,538 --> 00:02:14,315 et l'un de mes devoirs était de programmer un robot pour qu'il joue à « Caché », 38 00:02:14,339 --> 00:02:16,272 un simple jeu qui se joue à tour de rôle 39 00:02:16,420 --> 00:02:20,741 dans lequel chacun couvre son visage, puis le découvre en disant « Coucou ! » 40 00:02:20,741 --> 00:02:25,170 Le problème, c'est que ce jeu ne peut pas marcher si je ne peux pas vous voir 41 00:02:25,194 --> 00:02:27,693 et mon robot ne pouvait pas me voir. 42 00:02:27,717 --> 00:02:31,667 Mais j'ai emprunté le visage de ma colocataire pour finir le projet, 43 00:02:31,691 --> 00:02:33,071 j'ai rendu le devoir, 44 00:02:33,095 --> 00:02:36,848 et je me suis dit que quelqu'un d'autre résoudrait le problème. 45 00:02:37,499 --> 00:02:39,502 Peu de temps après, 46 00:02:39,526 --> 00:02:43,685 j'étais à Hong Kong pour une compétition d'entrepreneuriat. 47 00:02:44,169 --> 00:02:46,863 Les organisateurs ont décidé d'emmener les participants 48 00:02:46,887 --> 00:02:49,259 faire le tour des start-up locales. 49 00:02:49,283 --> 00:02:51,752 L'une d'elles avait un robot social, 50 00:02:51,752 --> 00:02:53,934 et ils ont décidé de faire une démonstration. 51 00:02:53,958 --> 00:02:56,938 Ça a marché avec tout le monde jusqu'à ce que vienne mon tour, 52 00:02:56,962 --> 00:02:58,885 et vous pouvez sans doute deviner. 53 00:02:58,909 --> 00:03:01,874 Le robot ne pouvait pas détecter mon visage. 54 00:03:01,898 --> 00:03:04,409 J'ai demandé aux développeurs ce qu'il se passait, 55 00:03:04,433 --> 00:03:09,966 et en fait nous avions utilisé le même outil de reconnaissance faciale. 56 00:03:09,990 --> 00:03:11,640 À l'autre bout du monde, 57 00:03:11,664 --> 00:03:15,516 j'avais appris que le biais algorithmique peut voyager aussi rapidement 58 00:03:15,540 --> 00:03:18,710 qu'un téléchargement de fichiers. 59 00:03:19,575 --> 00:03:22,651 Qu'est-ce qui se passe ? Pourquoi mon visage n'est pas détecté ? 60 00:03:22,675 --> 00:03:26,051 Pour répondre, il faut comprendre comment on donne la vue aux machines. 61 00:03:26,055 --> 00:03:29,464 La vision informatique utilise des techniques de machine learning 62 00:03:29,488 --> 00:03:31,368 pour reconnaître des visages. 63 00:03:31,392 --> 00:03:35,289 Pour que ça marche, vous créez un ensemble de formation avec des exemples. 64 00:03:35,313 --> 00:03:38,131 Ceci est un visage. Ceci est un visage. Mais pas ça. 65 00:03:38,155 --> 00:03:42,674 Au fur et à mesure, l'ordinateur apprend comment reconnaître d'autres visages. 66 00:03:42,698 --> 00:03:46,687 Mais si les jeux de tests ne sont pas très variés, 67 00:03:46,711 --> 00:03:50,060 n'importe quel visage qui dévie trop de la norme établie 68 00:03:50,084 --> 00:03:51,733 sera plus compliqué à détecter, 69 00:03:51,757 --> 00:03:53,720 et c'était ce qui se passait avec moi. 70 00:03:53,744 --> 00:03:56,126 Mais pas d'angoisse -- il y a de bonnes nouvelles. 71 00:03:56,150 --> 00:03:58,921 Les jeux de tests n'apparaissent pas par magie. 72 00:03:58,945 --> 00:04:00,733 On peut les créer nous-mêmes. 73 00:04:00,757 --> 00:04:04,933 Il y a la possibilité de créer des jeux de tests plus variés 74 00:04:04,957 --> 00:04:08,781 qui offrent un portrait plus riche de l'humanité. 75 00:04:08,805 --> 00:04:11,026 Vous avez vu dans mes exemples 76 00:04:11,050 --> 00:04:12,818 que c'est via les robots sociaux 77 00:04:12,842 --> 00:04:17,453 que je me suis rendu compte de l'existence du biais algorithmique. 78 00:04:17,477 --> 00:04:22,292 Mais le biais algorithmique peut aussi mener à des pratiques discriminatoires. 79 00:04:23,267 --> 00:04:24,720 Aux États-Unis, 80 00:04:24,744 --> 00:04:28,942 la police commence à utiliser des logiciels de reconnaissance faciale 81 00:04:28,966 --> 00:04:31,425 dans son arsenal contre le crime. 82 00:04:31,449 --> 00:04:33,462 Georgetown Law a publié un rapport 83 00:04:33,486 --> 00:04:40,249 montrant qu'un adulte sur deux aux États-Unis - 117 millions de personnes-- 84 00:04:40,273 --> 00:04:43,807 ont leur visage dans un système de reconnaissance faciale. 85 00:04:43,831 --> 00:04:48,383 La police peut en ce moment consulter ces systèmes non régulés, 86 00:04:48,407 --> 00:04:52,693 en utilisant des algorithmes dont la fiabilité n'a pas été testée. 87 00:04:52,717 --> 00:04:56,581 Mais on sait que la reconnaissance faciale a des failles, 88 00:04:56,605 --> 00:05:00,784 et que correctement étiqueter un visage reste un défi. 89 00:05:00,808 --> 00:05:02,570 Vous l'avez sûrement vu sur Facebook. 90 00:05:02,594 --> 00:05:05,582 Avec mes amis, on rit souvent quand on voit d'autres personnes 91 00:05:05,606 --> 00:05:08,064 mal identifiées dans nos photos. 92 00:05:08,088 --> 00:05:13,679 Mais mal identifier un suspect comme étant un criminel n'est pas drôle, 93 00:05:13,703 --> 00:05:16,530 et porter atteinte aux libertés civiles non plus. 94 00:05:16,554 --> 00:05:19,759 Le machine learning est utilisé pour la reconnaissance faciale, 95 00:05:19,783 --> 00:05:24,288 mais s'utilise dans d'autres domaines que la vision informatique. 96 00:05:25,096 --> 00:05:29,112 Dans son livre « Weapons of Math Destruction », 97 00:05:29,136 --> 00:05:35,817 la data scientist Cathy O'Neil parle des risques de ces nouvelles armes, 98 00:05:35,841 --> 00:05:40,194 des algorithmes répandus, mystérieux et destructeurs 99 00:05:40,218 --> 00:05:43,182 qui sont de plus en plus utilisés dans des prises de décision 100 00:05:43,206 --> 00:05:46,383 qui ont un impact sur nos vies. 101 00:05:46,407 --> 00:05:48,251 Qui est embauché ou renvoyé ? 102 00:05:48,251 --> 00:05:50,453 Est-ce que vous aurez ce prêt ? Une assurance ? 103 00:05:50,453 --> 00:05:53,940 Serez-vous admis dans cette université que vous voulez vraiment ? 104 00:05:53,964 --> 00:05:57,473 Est-ce que vous et moi payons le même prix pour le même produit 105 00:05:57,497 --> 00:05:59,939 acheté sur la même plateforme ? 106 00:05:59,963 --> 00:06:03,722 Les autorités policières commencent à utiliser le machine learning 107 00:06:03,746 --> 00:06:06,035 dans le cadre de la prévention policière. 108 00:06:06,059 --> 00:06:09,553 Certains juges utilisent des scores générés par des machines 109 00:06:09,577 --> 00:06:13,979 pour déterminer combien de temps un individu passera derrière les barreaux. 110 00:06:14,003 --> 00:06:16,457 Nous devons donc réfléchir à ces décisions. 111 00:06:16,481 --> 00:06:17,663 Sont-elles justes ? 112 00:06:17,687 --> 00:06:20,577 Et nous avons vu que le biais algorithmique 113 00:06:20,601 --> 00:06:23,975 ne mène pas forcément à des décisions justes. 114 00:06:23,999 --> 00:06:25,963 Que pouvons-nous faire ? 115 00:06:25,987 --> 00:06:29,667 Nous pouvons commencer à penser à une manière de coder plus inclusivement 116 00:06:29,691 --> 00:06:32,681 et à utiliser des pratiques de code plus inclusives. 117 00:06:32,705 --> 00:06:35,014 Tout commence avec les gens. 118 00:06:35,538 --> 00:06:37,499 Qui code a une importance. 119 00:06:37,523 --> 00:06:41,642 Créons-nous des équipes composées d'individus variés 120 00:06:41,666 --> 00:06:44,077 qui puissent vérifier mutuellement leurs travaux ? 121 00:06:44,101 --> 00:06:47,646 D'un point de vue technique, comment on code a de l'importance. 122 00:06:47,670 --> 00:06:51,321 Ajoutons-nous la justice à l'équation quand nous développons des systèmes ? 123 00:06:51,345 --> 00:06:54,258 Finalement, pourquoi on code a une importance. 124 00:06:54,615 --> 00:06:59,698 Nous avons utilisé des outils numériques pour générer d'immenses richesses. 125 00:06:59,722 --> 00:07:04,169 Nous avons maintenant l'opportunité de créer encore plus d'égalité 126 00:07:04,193 --> 00:07:07,123 si nous faisons du changement social une priorité. 127 00:07:07,147 --> 00:07:09,317 et pas une préoccupation secondaire. 128 00:07:09,838 --> 00:07:14,360 Ceci seront les trois piliers du mouvement « incoding ». 129 00:07:14,384 --> 00:07:16,036 Qui code a de l'importance, 130 00:07:16,060 --> 00:07:17,603 la manière dont on code aussi 131 00:07:17,627 --> 00:07:19,650 et pourquoi on code également. 132 00:07:19,674 --> 00:07:22,773 Pour aller vers l'incoding, nous pouvons commencer à réfléchir 133 00:07:22,797 --> 00:07:25,961 à comment construire des outils pouvant identifier ce biais 134 00:07:25,985 --> 00:07:29,063 via la collecte de témoignages comme celui que j'ai partagé, 135 00:07:29,087 --> 00:07:32,157 mais qui pourraient aussi tester des logiciels existants. 136 00:07:32,181 --> 00:07:35,946 Nous pouvons commencer à créer des jeux de tests plus complets. 137 00:07:35,970 --> 00:07:38,773 Imaginez une campagne « Selfies pour l'inclusion », 138 00:07:38,797 --> 00:07:42,452 où vous et moi pourrions aider les développeurs à tester et créer 139 00:07:42,476 --> 00:07:44,569 ces jeux de tests plus variés. 140 00:07:45,132 --> 00:07:47,960 Nous pouvons commencer à penser plus consciencieusement 141 00:07:47,984 --> 00:07:53,375 à l'impact social des technologies que nous développons. 142 00:07:53,399 --> 00:07:55,792 Pour commencer le mouvement incoding, 143 00:07:55,816 --> 00:07:58,663 j'ai lancé l'Algorithmic Justice League, 144 00:07:58,687 --> 00:08:04,559 où n'importe qui se souciant du problème peut aider à combattre le regard codé. 145 00:08:04,583 --> 00:08:07,879 Sur codedgaze.com, vous pouvez dénoncer des biais, 146 00:08:07,903 --> 00:08:10,348 demander des tests, être testeur vous-même 147 00:08:10,372 --> 00:08:13,143 et rejoindre la conversation, 148 00:08:13,167 --> 00:08:15,454 #codedgaze. 149 00:08:16,572 --> 00:08:19,059 Donc je vous invite à me rejoindre 150 00:08:19,083 --> 00:08:22,802 pour créer un monde où la technologie marche pour nous tous, 151 00:08:22,826 --> 00:08:24,723 pas seulement pour certains, 152 00:08:24,747 --> 00:08:29,395 un monde où l'inclusion et le changement social ont de la valeur. 153 00:08:29,419 --> 00:08:30,594 Merci. 154 00:08:30,618 --> 00:08:35,912 (Applaudissements) 155 00:08:41,443 --> 00:08:44,307 Mais j'ai une question : 156 00:08:44,307 --> 00:08:46,530 Me rejoindrez-vous dans ce combat? 157 00:08:46,530 --> 00:08:47,619 (Rires) 158 00:08:47,619 --> 00:08:49,140 (Applaudissements)