WEBVTT 00:00:13.961 --> 00:00:16.909 Bonjour, je suis Joy, une poète du code 00:00:16.909 --> 00:00:21.896 en mission pour arrêter une force invisible qui prend de l'ampleur 00:00:21.896 --> 00:00:24.992 une force que j'appelle « le regard codé », 00:00:25.016 --> 00:00:28.099 mon terme pour le biais algorithmique. NOTE Paragraph 00:00:28.099 --> 00:00:32.453 Le biais algorithmique, comme le biais cognitif, crée de l'injustice. 00:00:32.453 --> 00:00:38.695 Mais les algorithmes, comme les virus, peuvent massivement générer un biais 00:00:38.719 --> 00:00:40.301 et ce, très rapidement. 00:00:40.863 --> 00:00:44.924 Le biais algorithmique peut aussi créer des sentiments d'exclusion 00:00:44.924 --> 00:00:47.402 et mener à des pratiques discriminatoires. 00:00:47.426 --> 00:00:49.537 Laissez-moi vous montrer ce que je veux dire. NOTE Paragraph 00:00:50.340 --> 00:00:52.876 (Video) Joy Boulamwini : Salut webcam. J'ai un visage. 00:00:53.242 --> 00:00:55.107 Est-ce que tu peux le voir? 00:00:55.131 --> 00:00:56.756 Et sans lunettes ? 00:00:58.461 --> 00:01:00.207 Tu peux voir son visage à elle. 00:01:01.084 --> 00:01:02.691 Et le mien? 00:01:05.874 --> 00:01:06.838 (Rires) 00:01:06.838 --> 00:01:09.737 J'ai un masque. Est-ce que tu peux voir mon masque ? NOTE Paragraph 00:01:11.914 --> 00:01:14.103 Joy Boulamwini : Ça, comment est-ce arrivé ? 00:01:14.103 --> 00:01:17.198 Pourquoi est-ce que je me retrouve assise devant un ordinateur 00:01:17.198 --> 00:01:18.842 portant un masque blanc 00:01:18.866 --> 00:01:22.440 pour essayer d'être détectée par une webcam premier prix ? 00:01:22.440 --> 00:01:24.881 Quand je ne me bats pas contre le regard codé 00:01:24.905 --> 00:01:26.425 en tant que poète du code, 00:01:26.449 --> 00:01:29.721 je suis doctorante au Media Lab du MIT 00:01:29.745 --> 00:01:34.662 et j'ai l'opportunité de plancher sur plein de projets fantaisistes 00:01:34.686 --> 00:01:36.713 dont le Miroir Aspire 00:01:36.737 --> 00:01:41.755 que j'ai construit pour pouvoir projeter des masques digitaux sur mon reflet. 00:01:41.755 --> 00:01:44.245 Comme ça le matin, pour me sentir plus forte, 00:01:44.269 --> 00:01:45.703 je pouvais projeter un lion. 00:01:45.727 --> 00:01:49.223 Si j'avais besoin d'encouragements, je pouvais choisir une citation. 00:01:49.247 --> 00:01:52.236 J'ai donc utilisé un logiciel de reconnaissance faciale 00:01:52.260 --> 00:01:53.611 pour construire le système, 00:01:53.635 --> 00:01:58.738 mais j'ai réalisé que je ne pouvais pas le tester à moins de porter un masque. NOTE Paragraph 00:01:59.722 --> 00:02:04.068 Malheureusement, j'avais déjà rencontré ce problème. 00:02:04.092 --> 00:02:08.435 Quand j'étais étudiante en informatique à Georgia Tech, 00:02:08.459 --> 00:02:10.514 je travaillais sur les robots sociaux 00:02:10.538 --> 00:02:14.315 et l'un de mes devoirs était de programmer un robot pour qu'il joue à « Caché », 00:02:14.339 --> 00:02:16.272 un simple jeu qui se joue à tour de rôle 00:02:16.420 --> 00:02:20.741 dans lequel chacun couvre son visage, puis le découvre en disant « Coucou ! » 00:02:20.741 --> 00:02:25.170 Le problème, c'est que ce jeu ne peut pas marcher si je ne peux pas vous voir 00:02:25.194 --> 00:02:27.693 et mon robot ne pouvait pas me voir. 00:02:27.717 --> 00:02:31.667 Mais j'ai emprunté le visage de ma colocataire pour finir le projet, 00:02:31.691 --> 00:02:33.071 j'ai rendu le devoir, 00:02:33.095 --> 00:02:36.848 et je me suis dit que quelqu'un d'autre résoudrait le problème. NOTE Paragraph 00:02:37.499 --> 00:02:39.502 Peu de temps après, 00:02:39.526 --> 00:02:43.685 j'étais à Hong Kong pour une compétition d'entrepreneuriat. 00:02:44.169 --> 00:02:46.863 Les organisateurs ont décidé d'emmener les participants 00:02:46.887 --> 00:02:49.259 faire le tour des start-up locales. 00:02:49.283 --> 00:02:51.752 L'une d'elles avait un robot social, 00:02:51.752 --> 00:02:53.934 et ils ont décidé de faire une démonstration. 00:02:53.958 --> 00:02:56.938 Ça a marché avec tout le monde jusqu'à ce que vienne mon tour, 00:02:56.962 --> 00:02:58.885 et vous pouvez sans doute deviner. 00:02:58.909 --> 00:03:01.874 Le robot ne pouvait pas détecter mon visage. 00:03:01.898 --> 00:03:04.409 J'ai demandé aux développeurs ce qu'il se passait, 00:03:04.433 --> 00:03:09.966 et en fait nous avions utilisé le même outil de reconnaissance faciale. 00:03:09.990 --> 00:03:11.640 À l'autre bout du monde, 00:03:11.664 --> 00:03:15.516 j'avais appris que le biais algorithmique peut voyager aussi rapidement 00:03:15.540 --> 00:03:18.710 qu'un téléchargement de fichiers. NOTE Paragraph 00:03:19.575 --> 00:03:22.651 Qu'est-ce qui se passe ? Pourquoi mon visage n'est pas détecté ? 00:03:22.675 --> 00:03:26.051 Pour répondre, il faut comprendre comment on donne la vue aux machines. 00:03:26.055 --> 00:03:29.464 La vision informatique utilise des techniques de machine learning 00:03:29.488 --> 00:03:31.368 pour reconnaître des visages. 00:03:31.392 --> 00:03:35.289 Pour que ça marche, vous créez un ensemble de formation avec des exemples. 00:03:35.313 --> 00:03:38.131 Ceci est un visage. Ceci est un visage. Mais pas ça. 00:03:38.155 --> 00:03:42.674 Au fur et à mesure, l'ordinateur apprend comment reconnaître d'autres visages. 00:03:42.698 --> 00:03:46.687 Mais si les jeux de tests ne sont pas très variés, 00:03:46.711 --> 00:03:50.060 n'importe quel visage qui dévie trop de la norme établie 00:03:50.084 --> 00:03:51.733 sera plus compliqué à détecter, 00:03:51.757 --> 00:03:53.720 et c'était ce qui se passait avec moi. NOTE Paragraph 00:03:53.744 --> 00:03:56.126 Mais pas d'angoisse -- il y a de bonnes nouvelles. 00:03:56.150 --> 00:03:58.921 Les jeux de tests n'apparaissent pas par magie. 00:03:58.945 --> 00:04:00.733 On peut les créer nous-mêmes. 00:04:00.757 --> 00:04:04.933 Il y a la possibilité de créer des jeux de tests plus variés 00:04:04.957 --> 00:04:08.781 qui offrent un portrait plus riche de l'humanité. NOTE Paragraph 00:04:08.805 --> 00:04:11.026 Vous avez vu dans mes exemples 00:04:11.050 --> 00:04:12.818 que c'est via les robots sociaux 00:04:12.842 --> 00:04:17.453 que je me suis rendu compte de l'existence du biais algorithmique. 00:04:17.477 --> 00:04:22.292 Mais le biais algorithmique peut aussi mener à des pratiques discriminatoires. 00:04:23.267 --> 00:04:24.720 Aux États-Unis, 00:04:24.744 --> 00:04:28.942 la police commence à utiliser des logiciels de reconnaissance faciale 00:04:28.966 --> 00:04:31.425 dans son arsenal contre le crime. 00:04:31.449 --> 00:04:33.462 Georgetown Law a publié un rapport 00:04:33.486 --> 00:04:40.249 montrant qu'un adulte sur deux aux États-Unis - 117 millions de personnes-- 00:04:40.273 --> 00:04:43.807 ont leur visage dans un système de reconnaissance faciale. 00:04:43.831 --> 00:04:48.383 La police peut en ce moment consulter ces systèmes non régulés, 00:04:48.407 --> 00:04:52.693 en utilisant des algorithmes dont la fiabilité n'a pas été testée. 00:04:52.717 --> 00:04:56.581 Mais on sait que la reconnaissance faciale a des failles, 00:04:56.605 --> 00:05:00.784 et que correctement étiqueter un visage reste un défi. 00:05:00.808 --> 00:05:02.570 Vous l'avez sûrement vu sur Facebook. 00:05:02.594 --> 00:05:05.582 Avec mes amis, on rit souvent quand on voit d'autres personnes 00:05:05.606 --> 00:05:08.064 mal identifiées dans nos photos. 00:05:08.088 --> 00:05:13.679 Mais mal identifier un suspect comme étant un criminel n'est pas drôle, 00:05:13.703 --> 00:05:16.530 et porter atteinte aux libertés civiles non plus. NOTE Paragraph 00:05:16.554 --> 00:05:19.759 Le machine learning est utilisé pour la reconnaissance faciale, 00:05:19.783 --> 00:05:24.288 mais s'utilise dans d'autres domaines que la vision informatique. 00:05:25.096 --> 00:05:29.112 Dans son livre « Weapons of Math Destruction », 00:05:29.136 --> 00:05:35.817 la data scientist Cathy O'Neil parle des risques de ces nouvelles armes, 00:05:35.841 --> 00:05:40.194 des algorithmes répandus, mystérieux et destructeurs 00:05:40.218 --> 00:05:43.182 qui sont de plus en plus utilisés dans des prises de décision 00:05:43.206 --> 00:05:46.383 qui ont un impact sur nos vies. 00:05:46.407 --> 00:05:48.251 Qui est embauché ou renvoyé ? 00:05:48.251 --> 00:05:50.453 Est-ce que vous aurez ce prêt ? Une assurance ? 00:05:50.453 --> 00:05:53.940 Serez-vous admis dans cette université que vous voulez vraiment ? 00:05:53.964 --> 00:05:57.473 Est-ce que vous et moi payons le même prix pour le même produit 00:05:57.497 --> 00:05:59.939 acheté sur la même plateforme ? NOTE Paragraph 00:05:59.963 --> 00:06:03.722 Les autorités policières commencent à utiliser le machine learning 00:06:03.746 --> 00:06:06.035 dans le cadre de la prévention policière. 00:06:06.059 --> 00:06:09.553 Certains juges utilisent des scores générés par des machines 00:06:09.577 --> 00:06:13.979 pour déterminer combien de temps un individu passera derrière les barreaux. 00:06:14.003 --> 00:06:16.457 Nous devons donc réfléchir à ces décisions. 00:06:16.481 --> 00:06:17.663 Sont-elles justes ? 00:06:17.687 --> 00:06:20.577 Et nous avons vu que le biais algorithmique 00:06:20.601 --> 00:06:23.975 ne mène pas forcément à des décisions justes. NOTE Paragraph 00:06:23.999 --> 00:06:25.963 Que pouvons-nous faire ? 00:06:25.987 --> 00:06:29.667 Nous pouvons commencer à penser à une manière de coder plus inclusivement 00:06:29.691 --> 00:06:32.681 et à utiliser des pratiques de code plus inclusives. 00:06:32.705 --> 00:06:35.014 Tout commence avec les gens. 00:06:35.538 --> 00:06:37.499 Qui code a une importance. 00:06:37.523 --> 00:06:41.642 Créons-nous des équipes composées d'individus variés 00:06:41.666 --> 00:06:44.077 qui puissent vérifier mutuellement leurs travaux ? 00:06:44.101 --> 00:06:47.646 D'un point de vue technique, comment on code a de l'importance. 00:06:47.670 --> 00:06:51.321 Ajoutons-nous la justice à l'équation quand nous développons des systèmes ? 00:06:51.345 --> 00:06:54.258 Finalement, pourquoi on code a une importance. 00:06:54.615 --> 00:06:59.698 Nous avons utilisé des outils numériques pour générer d'immenses richesses. 00:06:59.722 --> 00:07:04.169 Nous avons maintenant l'opportunité de créer encore plus d'égalité 00:07:04.193 --> 00:07:07.123 si nous faisons du changement social une priorité. 00:07:07.147 --> 00:07:09.317 et pas une préoccupation secondaire. 00:07:09.838 --> 00:07:14.360 Ceci seront les trois piliers du mouvement « incoding ». 00:07:14.384 --> 00:07:16.036 Qui code a de l'importance, 00:07:16.060 --> 00:07:17.603 la manière dont on code aussi 00:07:17.627 --> 00:07:19.650 et pourquoi on code également. NOTE Paragraph 00:07:19.674 --> 00:07:22.773 Pour aller vers l'incoding, nous pouvons commencer à réfléchir 00:07:22.797 --> 00:07:25.961 à comment construire des outils pouvant identifier ce biais 00:07:25.985 --> 00:07:29.063 via la collecte de témoignages comme celui que j'ai partagé, 00:07:29.087 --> 00:07:32.157 mais qui pourraient aussi tester des logiciels existants. 00:07:32.181 --> 00:07:35.946 Nous pouvons commencer à créer des jeux de tests plus complets. 00:07:35.970 --> 00:07:38.773 Imaginez une campagne « Selfies pour l'inclusion », 00:07:38.797 --> 00:07:42.452 où vous et moi pourrions aider les développeurs à tester et créer 00:07:42.476 --> 00:07:44.569 ces jeux de tests plus variés. 00:07:45.132 --> 00:07:47.960 Nous pouvons commencer à penser plus consciencieusement 00:07:47.984 --> 00:07:53.375 à l'impact social des technologies que nous développons. NOTE Paragraph 00:07:53.399 --> 00:07:55.792 Pour commencer le mouvement incoding, 00:07:55.816 --> 00:07:58.663 j'ai lancé l'Algorithmic Justice League, 00:07:58.687 --> 00:08:04.559 où n'importe qui se souciant du problème peut aider à combattre le regard codé. 00:08:04.583 --> 00:08:07.879 Sur codedgaze.com, vous pouvez dénoncer des biais, 00:08:07.903 --> 00:08:10.348 demander des tests, être testeur vous-même 00:08:10.372 --> 00:08:13.143 et rejoindre la conversation, 00:08:13.167 --> 00:08:15.454 #codedgaze. NOTE Paragraph 00:08:16.572 --> 00:08:19.059 Donc je vous invite à me rejoindre 00:08:19.083 --> 00:08:22.802 pour créer un monde où la technologie marche pour nous tous, 00:08:22.826 --> 00:08:24.723 pas seulement pour certains, 00:08:24.747 --> 00:08:29.395 un monde où l'inclusion et le changement social ont de la valeur. NOTE Paragraph 00:08:29.419 --> 00:08:30.594 Merci. NOTE Paragraph 00:08:30.618 --> 00:08:35.912 (Applaudissements) NOTE Paragraph 00:08:41.443 --> 00:08:44.307 Mais j'ai une question : 00:08:44.307 --> 00:08:46.530 Me rejoindrez-vous dans ce combat? NOTE Paragraph 00:08:46.530 --> 00:08:47.619 (Rires) NOTE Paragraph 00:08:47.619 --> 00:08:49.140 (Applaudissements)