Mon combat contre les algorithmes biaisés
-
0:01 - 0:04Bonjour, je suis Joy, une poète du code
-
0:04 - 0:09en mission pour arrêter
une force invisible qui prend de l'ampleur -
0:09 - 0:12une force que j'appelle
« le regard codé », -
0:12 - 0:15mon terme pour le biais algorithmique.
-
0:15 - 0:20Le biais algorithmique, comme le biais
cognitif, crée de l'injustice. -
0:20 - 0:26Mais les algorithmes, comme les virus,
peuvent massivement générer un biais -
0:26 - 0:27et ce, très rapidement.
-
0:28 - 0:32Le biais algorithmique peut aussi
créer des sentiments d'exclusion -
0:32 - 0:34et mener à des pratiques discriminatoires.
-
0:35 - 0:37Laissez-moi vous montrer
ce que je veux dire. -
0:37 - 0:40(Video) Joy Boulamwini : Salut
webcam. J'ai un visage. -
0:40 - 0:42Est-ce que tu peux le voir?
-
0:42 - 0:44Et sans lunettes ?
-
0:44 - 0:46Tu peux voir son visage à elle.
-
0:46 - 0:48Et le mien ?
-
0:52 - 0:56J'ai un masque. Est-ce que tu peux
voir mon masque ? -
0:56 - 0:59Joy Boulamwini : Ça, comment
est-ce arrivé ? -
0:59 - 1:02Pourquoi est-ce que je me retrouve
assise devant un ordinateur -
1:02 - 1:03portant un masque blanc
-
1:03 - 1:07pour essayer d'être détectée
par une webcam premier prix ? -
1:07 - 1:09Quand je ne me bats pas
contre le regard codé -
1:09 - 1:11en tant que poète du code,
-
1:11 - 1:14Je suis doctorante au Media Lab du MIT
-
1:14 - 1:19et j'ai l'opportunité de plancher
sur plein de projets fantaisistes -
1:19 - 1:21dont le Miroir Aspire
-
1:21 - 1:26que j'ai construit pour pouvoir projeter
des masques digitaux sur mon reflet. -
1:26 - 1:29Comme ça le matin, pour
me sentir plus forte, -
1:29 - 1:30je pouvais projeter un lion.
-
1:30 - 1:34Si j'avais besoin d'encouragements,
je pouvais choisir une citation. -
1:34 - 1:37J'ai donc utilisé un logiciel
de reconnaissance faciale -
1:37 - 1:38pour construire le système,
-
1:38 - 1:43mais j'ai réalisé que je ne pouvais pas
le tester à moins de porter un masque. -
1:44 - 1:49Malheureusement, j'avais déjà
rencontré ce problème. -
1:49 - 1:53Quand j'étais étudiante
en informatique à Georgia Tech, -
1:53 - 1:55je travaillais sur les robots sociaux
-
1:55 - 1:59et l'un de mes devoirs était de programmer
un robot pour qu'il joue à « Caché », -
1:59 - 2:01un jeu qui se joue à tour de rôle
-
2:01 - 2:05dans lequel chacun couvre son visage,
puis le découvre en disant « Coucou ! » -
2:05 - 2:09Le problème, c'est que ce jeu ne peut
pas marcher si je ne peux pas vous voir -
2:09 - 2:12et mon robot ne pouvait pas me voir.
-
2:12 - 2:16Mais j'ai emprunté le visage de ma
colocataire pour finir le projet, -
2:16 - 2:17j'ai rendu le devoir,
-
2:17 - 2:21et je me suis dit que
quelqu'un d'autre résoudrait le problème. -
2:22 - 2:24Peu de temps après,
-
2:24 - 2:28j'étais à Hong Kong
pour une compétition d'entrepreneuriat. -
2:28 - 2:31Les organisateurs ont décidé
d'emmener les participants -
2:31 - 2:33faire le tour des start-up locales.
-
2:33 - 2:38L'une d'elles avait un robot social, ils
ont décidé de faire une démonstration. -
2:38 - 2:41Ça a marché avec tout le monde
jusqu'à ce que vienne mon tour, -
2:41 - 2:43et vous pouvez sans doute deviner.
-
2:43 - 2:46Le robot ne pouvait pas
détecter mon visage. -
2:46 - 2:49J'ai demandé aux développeurs
ce qu'il se passait, -
2:49 - 2:54et en fait nous avions utilisé le même
outil de reconnaissance faciale. -
2:54 - 2:56À l'autre bout du monde,
-
2:56 - 3:00j'avais appris que le biais algorithmique
peut voyager aussi rapidement -
3:00 - 3:03qu'un téléchargement de fichiers.
-
3:04 - 3:07Qu'est-ce qui se passe ?
Pourquoi mon visage n'est pas détecté ? -
3:07 - 3:10Pour répondre, il faut comprendre comment
on donne la vue aux machines. -
3:10 - 3:14La vision informatique utilise
des techniques de machine learning -
3:14 - 3:16pour reconnaître des visages.
-
3:16 - 3:19Pour que ça marche, vous créez un ensemble
de formation avec des exemples. -
3:19 - 3:22Ceci est un visage. Ceci est un visage.
Mais pas ça. -
3:22 - 3:27Au fur et à mesure, l'ordinateur apprend
comment reconnaître d'autres visages. -
3:27 - 3:31Mais si les jeux de tests
ne sont pas très variés, -
3:31 - 3:34n'importe quel visage qui dévie trop
de la norme établie -
3:34 - 3:36sera plus compliqué à détecter,
-
3:36 - 3:38et c'était ce qui se passait avec moi.
-
3:38 - 3:40Mais pas d'angoisse --
il y a de bonnes nouvelles. -
3:40 - 3:43Les jeux de tests
n'apparaissent pas par magie. -
3:43 - 3:45On peut les créer nous-mêmes.
-
3:45 - 3:49Il y a la possibilité de créer
des jeux de tests plus variés -
3:49 - 3:53qui offrent un portrait
plus riche de l'humanité. -
3:53 - 3:55Vous avez vu dans mes exemples
-
3:55 - 3:57que c'est via les robots sociaux
-
3:57 - 4:02que je me suis rendu compte de l'existence
du biais algorithmique. -
4:02 - 4:06Mais le biais algorithmique peut aussi
mener à des pratiques discriminatoires. -
4:07 - 4:09Aux États-Unis,
-
4:09 - 4:13la police commence à utiliser
des logiciels de reconnaissance faciale -
4:13 - 4:16dans son arsenal contre le crime.
-
4:16 - 4:18Georgetown Law a publié un rapport
-
4:18 - 4:24montrant qu'un adulte sur deux aux
États-Unis - 117 millions de personnes-- -
4:24 - 4:28ont leur visage dans un système de
reconnaissance faciale. -
4:28 - 4:33La police peut en ce moment consulter
ces systèmes non régulés, -
4:33 - 4:37en utilisant des algorithmes
dont la fiabilité n'a pas été testée. -
4:37 - 4:41Mais on sait que la reconnaissance
faciale a des failles, -
4:41 - 4:45et que correctement étiqueter
un visage reste un défi. -
4:45 - 4:47Vous l'avez sûrement vu sur Facebook.
-
4:47 - 4:50Avec mes amis, on rit souvent
quand on voit d'autres personnes -
4:50 - 4:52mal identifiées dans nos photos.
-
4:52 - 4:58Mais mal identifier un suspect comme étant
un criminel n'est pas drôle, -
4:58 - 5:01et porter atteinte aux libertés civiles
non plus. -
5:01 - 5:04Le machine learning est utilisé
pour la reconnaissance faciale, -
5:04 - 5:08mais s'utilise dans d'autres
domaines que la vision informatique. -
5:09 - 5:13Dans son livre « Weapons
of Math Destruction », -
5:13 - 5:20la data scientist Cathy O'Neil
parle des risques de ces nouvelles armes, -
5:20 - 5:24des algorithmes répandus,
mystérieux et destructeurs -
5:24 - 5:27qui sont de plus en plus utilisés
dans des prises de décision -
5:27 - 5:31qui ont un impact sur nos vies.
-
5:31 - 5:32Qui est embauché ou renvoyé ?
-
5:32 - 5:35Aurez-vous ce prêt ?
Une assurance ? -
5:35 - 5:38Serez-vous admis dans cette université
que vous voulez vraiment ? -
5:38 - 5:42Est-ce que vous et moi payons
le même prix pour le même produit -
5:42 - 5:44acheté sur la même plateforme ?
-
5:44 - 5:48Les autorités policières commencent
à utiliser le machine learning -
5:48 - 5:50dans le cadre de la prévention policière.
-
5:50 - 5:54Certains juges utilisent des scores
générés par des machines -
5:54 - 5:58pour déterminer combien de temps
un individu passera derrière les barreaux. -
5:58 - 6:01Nous devons donc réfléchir
à ces décisions. -
6:01 - 6:02Sont-elles justes ?
-
6:02 - 6:05Et nous avons vu que
le biais algorithmique -
6:05 - 6:08ne mène pas forcément
à des décisions justes. -
6:08 - 6:10Que pouvons-nous faire ?
-
6:10 - 6:14Nous pouvons commencer à penser
à une manière de coder plus inclusivement -
6:14 - 6:17et à utiliser des pratiques
de code plus inclusives. -
6:17 - 6:19Tout commence avec les gens.
-
6:20 - 6:22Qui code a une importance.
-
6:22 - 6:26Créons-nous des équipes
composées d'individus variés -
6:26 - 6:28qui puissent vérifier mutuellement
leurs travaux ? -
6:28 - 6:32D'un point de vue technique,
comment on code a de l'importance. -
6:32 - 6:35Ajoutons-nous la justice à l'équation
quand nous développons des systèmes ? -
6:36 - 6:38Finalement, pourquoi
on code a une importance. -
6:39 - 6:44Nous avons utilisé des outils numériques
pour générer d'immenses richesses. -
6:44 - 6:48Nous avons maintenant l'opportunité
de créer encore plus d'égalité -
6:48 - 6:51si nous faisons du changement
social une priorité. -
6:51 - 6:53et pas une préoccupation secondaire.
-
6:54 - 6:59Ceci seront les trois piliers
du mouvement « incoding ». -
6:59 - 7:00Qui code a de l'importance,
-
7:00 - 7:02la manière dont on code aussi
-
7:02 - 7:04et pourquoi on code également.
-
7:04 - 7:07Pour aller vers l'incoding,
nous pouvons commencer à réfléchir -
7:07 - 7:10à comment construire des outils
pouvant identifier ce biais -
7:10 - 7:13via la collecte de témoignages
comme celui que j'ai partagé, -
7:13 - 7:16mais qui pourraient aussi tester
des logiciels existants. -
7:16 - 7:20Nous pouvons commencer à créer
des jeux de tests plus complets. -
7:20 - 7:23Imaginez une campagne
« Selfies pour l'inclusion », -
7:23 - 7:27où vous et moi pourrions aider
les développeurs à tester et créer -
7:27 - 7:29ces jeux de tests plus variés.
-
7:29 - 7:32Nous pouvons commencer à penser
plus consciencieusement -
7:32 - 7:38à l'impact social
des technologies que nous développons. -
7:38 - 7:40Pour commencer le mouvement incoding,
-
7:40 - 7:43J'ai lancé l'Algorithmic Justice League,
-
7:43 - 7:49où n'importe qui se souciant du problème
peut aider à combattre le regard codé. -
7:49 - 7:52Sur codedgaze.com, vous pouvez
dénoncer des biais, -
7:52 - 7:55demander des tests, être testeur vous-même
-
7:55 - 7:57et rejoindre la conversation,
-
7:57 - 8:00#codedgaze.
-
8:01 - 8:03Donc je vous invite à me rejoindre
-
8:03 - 8:07pour créer un monde où la technologie
marche pour nous tous, -
8:07 - 8:09pas seulement pour certains,
-
8:09 - 8:14un monde où l'inclusion
et le changement social ont de la valeur. -
8:14 - 8:15Merci.
-
8:15 - 8:19(Applaudissements)
-
8:21 - 8:24Mais j'ai une question :
-
8:24 - 8:26Me rejoindrez-vous dans ce combat?
-
8:26 - 8:27(Rires)
-
8:27 - 8:31(Applaudissements)
- Title:
- Mon combat contre les algorithmes biaisés
- Speaker:
- Joy Buolamwini
- Description:
-
Joy Buolamwini, doctorante au MIT, travaillait avec des logiciels de reconnaissances faciale quand elle a remarqué un problème: le logiciel ne reconnaissait pas son visage -- parce que ceux qui avaient codé l'algorithme ne lui avait pas appris à identifier une grande variété de couleurs de peau et de structures faciales. Elle s'est donné pour mission de combattre le biais algorithmique dans le machine learning, un phénomène qu'elle nomme le "regard codé". Cette conférence fait comprendre l'importance de la responsabilité dans le développement, sachant que les algorithmes prennent de plus en plus d'importance dans nos vies.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
eric vautier edited French subtitles for How I'm fighting bias in algorithms | ||
eric vautier accepted French subtitles for How I'm fighting bias in algorithms | ||
eric vautier edited French subtitles for How I'm fighting bias in algorithms | ||
eric vautier edited French subtitles for How I'm fighting bias in algorithms | ||
Marie P edited French subtitles for How I'm fighting bias in algorithms | ||
Marie P edited French subtitles for How I'm fighting bias in algorithms | ||
Marie P edited French subtitles for How I'm fighting bias in algorithms |