Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet
-
0:14 - 0:17Bonjour, je suis Joy, une poète du code
-
0:17 - 0:22en mission pour arrêter
une force invisible qui prend de l'ampleur -
0:22 - 0:25une force que j'appelle
« le regard codé », -
0:25 - 0:28mon terme pour le biais algorithmique.
-
0:28 - 0:32Le biais algorithmique, comme le biais
cognitif, crée de l'injustice. -
0:32 - 0:39Mais les algorithmes, comme les virus,
peuvent massivement générer un biais -
0:39 - 0:40et ce, très rapidement.
-
0:41 - 0:45Le biais algorithmique peut aussi
créer des sentiments d'exclusion -
0:45 - 0:47et mener à des pratiques discriminatoires.
-
0:47 - 0:50Laissez-moi vous montrer
ce que je veux dire. -
0:50 - 0:53(Video) Joy Boulamwini : Salut
webcam. J'ai un visage. -
0:53 - 0:55Est-ce que tu peux le voir?
-
0:55 - 0:57Et sans lunettes ?
-
0:58 - 1:00Tu peux voir son visage à elle.
-
1:01 - 1:03Et le mien?
-
1:06 - 1:07(Rires)
-
1:07 - 1:10J'ai un masque. Est-ce que tu peux
voir mon masque ? -
1:12 - 1:14Joy Boulamwini : Ça, comment
est-ce arrivé ? -
1:14 - 1:17Pourquoi est-ce que je me retrouve
assise devant un ordinateur -
1:17 - 1:19portant un masque blanc
-
1:19 - 1:22pour essayer d'être détectée
par une webcam premier prix ? -
1:22 - 1:25Quand je ne me bats pas
contre le regard codé -
1:25 - 1:26en tant que poète du code,
-
1:26 - 1:30je suis doctorante au Media Lab du MIT
-
1:30 - 1:35et j'ai l'opportunité de plancher
sur plein de projets fantaisistes -
1:35 - 1:37dont le Miroir Aspire
-
1:37 - 1:42que j'ai construit pour pouvoir projeter
des masques digitaux sur mon reflet. -
1:42 - 1:44Comme ça le matin, pour
me sentir plus forte, -
1:44 - 1:46je pouvais projeter un lion.
-
1:46 - 1:49Si j'avais besoin d'encouragements,
je pouvais choisir une citation. -
1:49 - 1:52J'ai donc utilisé un logiciel
de reconnaissance faciale -
1:52 - 1:54pour construire le système,
-
1:54 - 1:59mais j'ai réalisé que je ne pouvais pas
le tester à moins de porter un masque. -
2:00 - 2:04Malheureusement, j'avais déjà
rencontré ce problème. -
2:04 - 2:08Quand j'étais étudiante
en informatique à Georgia Tech, -
2:08 - 2:11je travaillais sur les robots sociaux
-
2:11 - 2:14et l'un de mes devoirs était de programmer
un robot pour qu'il joue à « Caché », -
2:14 - 2:16un simple jeu qui se joue à tour de rôle
-
2:16 - 2:21dans lequel chacun couvre son visage,
puis le découvre en disant « Coucou ! » -
2:21 - 2:25Le problème, c'est que ce jeu ne peut
pas marcher si je ne peux pas vous voir -
2:25 - 2:28et mon robot ne pouvait pas me voir.
-
2:28 - 2:32Mais j'ai emprunté le visage de ma
colocataire pour finir le projet, -
2:32 - 2:33j'ai rendu le devoir,
-
2:33 - 2:37et je me suis dit que
quelqu'un d'autre résoudrait le problème. -
2:37 - 2:40Peu de temps après,
-
2:40 - 2:44j'étais à Hong Kong
pour une compétition d'entrepreneuriat. -
2:44 - 2:47Les organisateurs ont décidé
d'emmener les participants -
2:47 - 2:49faire le tour des start-up locales.
-
2:49 - 2:52L'une d'elles avait un robot social,
-
2:52 - 2:54et ils ont décidé
de faire une démonstration. -
2:54 - 2:57Ça a marché avec tout le monde
jusqu'à ce que vienne mon tour, -
2:57 - 2:59et vous pouvez sans doute deviner.
-
2:59 - 3:02Le robot ne pouvait pas
détecter mon visage. -
3:02 - 3:04J'ai demandé aux développeurs
ce qu'il se passait, -
3:04 - 3:10et en fait nous avions utilisé le même
outil de reconnaissance faciale. -
3:10 - 3:12À l'autre bout du monde,
-
3:12 - 3:16j'avais appris que le biais algorithmique
peut voyager aussi rapidement -
3:16 - 3:19qu'un téléchargement de fichiers.
-
3:20 - 3:23Qu'est-ce qui se passe ?
Pourquoi mon visage n'est pas détecté ? -
3:23 - 3:26Pour répondre, il faut comprendre comment
on donne la vue aux machines. -
3:26 - 3:29La vision informatique utilise
des techniques de machine learning -
3:29 - 3:31pour reconnaître des visages.
-
3:31 - 3:35Pour que ça marche, vous créez un ensemble
de formation avec des exemples. -
3:35 - 3:38Ceci est un visage. Ceci est un visage.
Mais pas ça. -
3:38 - 3:43Au fur et à mesure, l'ordinateur apprend
comment reconnaître d'autres visages. -
3:43 - 3:47Mais si les jeux de tests
ne sont pas très variés, -
3:47 - 3:50n'importe quel visage qui dévie trop
de la norme établie -
3:50 - 3:52sera plus compliqué à détecter,
-
3:52 - 3:54et c'était ce qui se passait avec moi.
-
3:54 - 3:56Mais pas d'angoisse --
il y a de bonnes nouvelles. -
3:56 - 3:59Les jeux de tests
n'apparaissent pas par magie. -
3:59 - 4:01On peut les créer nous-mêmes.
-
4:01 - 4:05Il y a la possibilité de créer
des jeux de tests plus variés -
4:05 - 4:09qui offrent un portrait
plus riche de l'humanité. -
4:09 - 4:11Vous avez vu dans mes exemples
-
4:11 - 4:13que c'est via les robots sociaux
-
4:13 - 4:17que je me suis rendu compte de l'existence
du biais algorithmique. -
4:17 - 4:22Mais le biais algorithmique peut aussi
mener à des pratiques discriminatoires. -
4:23 - 4:25Aux États-Unis,
-
4:25 - 4:29la police commence à utiliser
des logiciels de reconnaissance faciale -
4:29 - 4:31dans son arsenal contre le crime.
-
4:31 - 4:33Georgetown Law a publié un rapport
-
4:33 - 4:40montrant qu'un adulte sur deux aux
États-Unis - 117 millions de personnes-- -
4:40 - 4:44ont leur visage dans un système de
reconnaissance faciale. -
4:44 - 4:48La police peut en ce moment consulter
ces systèmes non régulés, -
4:48 - 4:53en utilisant des algorithmes
dont la fiabilité n'a pas été testée. -
4:53 - 4:57Mais on sait que la reconnaissance
faciale a des failles, -
4:57 - 5:01et que correctement étiqueter
un visage reste un défi. -
5:01 - 5:03Vous l'avez sûrement vu sur Facebook.
-
5:03 - 5:06Avec mes amis, on rit souvent
quand on voit d'autres personnes -
5:06 - 5:08mal identifiées dans nos photos.
-
5:08 - 5:14Mais mal identifier un suspect comme étant
un criminel n'est pas drôle, -
5:14 - 5:17et porter atteinte aux libertés civiles
non plus. -
5:17 - 5:20Le machine learning est utilisé
pour la reconnaissance faciale, -
5:20 - 5:24mais s'utilise dans d'autres
domaines que la vision informatique. -
5:25 - 5:29Dans son livre « Weapons
of Math Destruction », -
5:29 - 5:36la data scientist Cathy O'Neil
parle des risques de ces nouvelles armes, -
5:36 - 5:40des algorithmes répandus,
mystérieux et destructeurs -
5:40 - 5:43qui sont de plus en plus utilisés
dans des prises de décision -
5:43 - 5:46qui ont un impact sur nos vies.
-
5:46 - 5:48Qui est embauché ou renvoyé ?
-
5:48 - 5:50Est-ce que vous aurez ce prêt ?
Une assurance ? -
5:50 - 5:54Serez-vous admis dans cette université
que vous voulez vraiment ? -
5:54 - 5:57Est-ce que vous et moi payons
le même prix pour le même produit -
5:57 - 6:00acheté sur la même plateforme ?
-
6:00 - 6:04Les autorités policières commencent
à utiliser le machine learning -
6:04 - 6:06dans le cadre de la prévention policière.
-
6:06 - 6:10Certains juges utilisent des scores
générés par des machines -
6:10 - 6:14pour déterminer combien de temps
un individu passera derrière les barreaux. -
6:14 - 6:16Nous devons donc réfléchir
à ces décisions. -
6:16 - 6:18Sont-elles justes ?
-
6:18 - 6:21Et nous avons vu que
le biais algorithmique -
6:21 - 6:24ne mène pas forcément
à des décisions justes. -
6:24 - 6:26Que pouvons-nous faire ?
-
6:26 - 6:30Nous pouvons commencer à penser
à une manière de coder plus inclusivement -
6:30 - 6:33et à utiliser des pratiques
de code plus inclusives. -
6:33 - 6:35Tout commence avec les gens.
-
6:36 - 6:37Qui code a une importance.
-
6:38 - 6:42Créons-nous des équipes
composées d'individus variés -
6:42 - 6:44qui puissent vérifier mutuellement
leurs travaux ? -
6:44 - 6:48D'un point de vue technique,
comment on code a de l'importance. -
6:48 - 6:51Ajoutons-nous la justice à l'équation
quand nous développons des systèmes ? -
6:51 - 6:54Finalement, pourquoi
on code a une importance. -
6:55 - 7:00Nous avons utilisé des outils numériques
pour générer d'immenses richesses. -
7:00 - 7:04Nous avons maintenant l'opportunité
de créer encore plus d'égalité -
7:04 - 7:07si nous faisons du changement
social une priorité. -
7:07 - 7:09et pas une préoccupation secondaire.
-
7:10 - 7:14Ceci seront les trois piliers
du mouvement « incoding ». -
7:14 - 7:16Qui code a de l'importance,
-
7:16 - 7:18la manière dont on code aussi
-
7:18 - 7:20et pourquoi on code également.
-
7:20 - 7:23Pour aller vers l'incoding,
nous pouvons commencer à réfléchir -
7:23 - 7:26à comment construire des outils
pouvant identifier ce biais -
7:26 - 7:29via la collecte de témoignages
comme celui que j'ai partagé, -
7:29 - 7:32mais qui pourraient aussi tester
des logiciels existants. -
7:32 - 7:36Nous pouvons commencer à créer
des jeux de tests plus complets. -
7:36 - 7:39Imaginez une campagne
« Selfies pour l'inclusion », -
7:39 - 7:42où vous et moi pourrions aider
les développeurs à tester et créer -
7:42 - 7:45ces jeux de tests plus variés.
-
7:45 - 7:48Nous pouvons commencer à penser
plus consciencieusement -
7:48 - 7:53à l'impact social
des technologies que nous développons. -
7:53 - 7:56Pour commencer le mouvement incoding,
-
7:56 - 7:59j'ai lancé l'Algorithmic Justice League,
-
7:59 - 8:05où n'importe qui se souciant du problème
peut aider à combattre le regard codé. -
8:05 - 8:08Sur codedgaze.com, vous pouvez
dénoncer des biais, -
8:08 - 8:10demander des tests, être testeur vous-même
-
8:10 - 8:13et rejoindre la conversation,
-
8:13 - 8:15#codedgaze.
-
8:17 - 8:19Donc je vous invite à me rejoindre
-
8:19 - 8:23pour créer un monde où la technologie
marche pour nous tous, -
8:23 - 8:25pas seulement pour certains,
-
8:25 - 8:29un monde où l'inclusion
et le changement social ont de la valeur. -
8:29 - 8:31Merci.
-
8:31 - 8:36(Applaudissements)
-
8:41 - 8:44Mais j'ai une question :
-
8:44 - 8:47Me rejoindrez-vous dans ce combat?
-
8:47 - 8:48(Rires)
-
8:48 - 8:49(Applaudissements)
- Title:
- Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet
- Description:
-
Cette présentation a été faite lors d'un événement TEDx local, produit indépendamment des conférences TED.
Joy Buolamwini est une développeur brillante, mais elle a un problème : la reconnaissance faciale ne reconnaît pas toujours son visage, sauf si elle porte un masque blanc. Ceci fait partie d'un ensemble au sein duquel le privilège racial s'exerce de manière subtile et empêche certains de complètement prendre part à certaines opportunités. Donc Joy a essayé de faire quelque chose - elle a commencé à coder des programmes plus inclusifs. Elle a initié une révolution, et elle vous attend pour que vous veniez !
Joy Buolamwini est la fondatrice de Code4Rights et doctorante chercheuse au sein du groupe Civic Media, au Media Lab du MIT. Joy est une Rhodes Scholar, une Fulbright Fellow, une Astronaut Scholar, une Google Anita Borg Scholar, et une consultante technique du Carter Center, reconnue comme étant une volontaire distinguée. En tant que Chef technologique pour Techturized Inc, une compagnie technologique de soins capillaires, et de Swift Tech Solutions, une entreprise de conseils dans le domaine de la santé, Joy a acquis des compétences techniques en développant des logiciels pour des communautés délaissées aux États-Unis, en Éthiopie, au Mali, au Nigeria et au Niger. Pendant sa Fulbright Fellowship en Zambie, elle a essayé de trouver la manière de donner plus de pouvoir aux citoyens engagés, et de leur donner les capacités de créer leurs propres technologies à travers la Zamrize Initiative.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:02
eric vautier approved French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
eric vautier accepted French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
eric vautier edited French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Marie P edited French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Marie P edited French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Marie P edited French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Marie P edited French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Marie P edited French subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet |