< Return to Video

Mon combat contre les algorithmes biaisés

  • 0:01 - 0:04
    Bonjour, je suis Joy, une poète du code
  • 0:04 - 0:09
    en mission pour arrêter
    une force invisible qui prend de l'ampleur
  • 0:09 - 0:12
    une force que j'appelle
    « le regard codé »,
  • 0:12 - 0:15
    mon terme pour le biais algorithmique.
  • 0:15 - 0:20
    Le biais algorithmique, comme le biais
    cognitif, crée de l'injustice.
  • 0:20 - 0:26
    Mais les algorithmes, comme les virus,
    peuvent massivement générer un biais
  • 0:26 - 0:27
    et ce, très rapidement.
  • 0:28 - 0:32
    Le biais algorithmique peut aussi
    créer des sentiments d'exclusion
  • 0:32 - 0:34
    et mener à des pratiques discriminatoires.
  • 0:35 - 0:37
    Laissez-moi vous montrer
    ce que je veux dire.
  • 0:37 - 0:40
    (Video) Joy Boulamwini : Salut
    webcam. J'ai un visage.
  • 0:40 - 0:42
    Est-ce que tu peux le voir?
  • 0:42 - 0:44
    Et sans lunettes ?
  • 0:44 - 0:46
    Tu peux voir son visage à elle.
  • 0:46 - 0:48
    Et le mien ?
  • 0:52 - 0:56
    J'ai un masque. Est-ce que tu peux
    voir mon masque ?
  • 0:56 - 0:59
    Joy Boulamwini : Ça, comment
    est-ce arrivé ?
  • 0:59 - 1:02
    Pourquoi est-ce que je me retrouve
    assise devant un ordinateur
  • 1:02 - 1:03
    portant un masque blanc
  • 1:03 - 1:07
    pour essayer d'être détectée
    par une webcam premier prix ?
  • 1:07 - 1:09
    Quand je ne me bats pas
    contre le regard codé
  • 1:09 - 1:11
    en tant que poète du code,
  • 1:11 - 1:14
    Je suis doctorante au Media Lab du MIT
  • 1:14 - 1:19
    et j'ai l'opportunité de plancher
    sur plein de projets fantaisistes
  • 1:19 - 1:21
    dont le Miroir Aspire
  • 1:21 - 1:26
    que j'ai construit pour pouvoir projeter
    des masques digitaux sur mon reflet.
  • 1:26 - 1:29
    Comme ça le matin, pour
    me sentir plus forte,
  • 1:29 - 1:30
    je pouvais projeter un lion.
  • 1:30 - 1:34
    Si j'avais besoin d'encouragements,
    je pouvais choisir une citation.
  • 1:34 - 1:37
    J'ai donc utilisé un logiciel
    de reconnaissance faciale
  • 1:37 - 1:38
    pour construire le système,
  • 1:38 - 1:43
    mais j'ai réalisé que je ne pouvais pas
    le tester à moins de porter un masque.
  • 1:44 - 1:49
    Malheureusement, j'avais déjà
    rencontré ce problème.
  • 1:49 - 1:53
    Quand j'étais étudiante
    en informatique à Georgia Tech,
  • 1:53 - 1:55
    je travaillais sur les robots sociaux
  • 1:55 - 1:59
    et l'un de mes devoirs était de programmer
    un robot pour qu'il joue à « Caché »,
  • 1:59 - 2:01
    un jeu qui se joue à tour de rôle
  • 2:01 - 2:05
    dans lequel chacun couvre son visage,
    puis le découvre en disant « Coucou ! »
  • 2:05 - 2:09
    Le problème, c'est que ce jeu ne peut
    pas marcher si je ne peux pas vous voir
  • 2:09 - 2:12
    et mon robot ne pouvait pas me voir.
  • 2:12 - 2:16
    Mais j'ai emprunté le visage de ma
    colocataire pour finir le projet,
  • 2:16 - 2:17
    j'ai rendu le devoir,
  • 2:17 - 2:21
    et je me suis dit que
    quelqu'un d'autre résoudrait le problème.
  • 2:22 - 2:24
    Peu de temps après,
  • 2:24 - 2:28
    j'étais à Hong Kong
    pour une compétition d'entrepreneuriat.
  • 2:28 - 2:31
    Les organisateurs ont décidé
    d'emmener les participants
  • 2:31 - 2:33
    faire le tour des start-up locales.
  • 2:33 - 2:38
    L'une d'elles avait un robot social, ils
    ont décidé de faire une démonstration.
  • 2:38 - 2:41
    Ça a marché avec tout le monde
    jusqu'à ce que vienne mon tour,
  • 2:41 - 2:43
    et vous pouvez sans doute deviner.
  • 2:43 - 2:46
    Le robot ne pouvait pas
    détecter mon visage.
  • 2:46 - 2:49
    J'ai demandé aux développeurs
    ce qu'il se passait,
  • 2:49 - 2:54
    et en fait nous avions utilisé le même
    outil de reconnaissance faciale.
  • 2:54 - 2:56
    À l'autre bout du monde,
  • 2:56 - 3:00
    j'avais appris que le biais algorithmique
    peut voyager aussi rapidement
  • 3:00 - 3:03
    qu'un téléchargement de fichiers.
  • 3:04 - 3:07
    Qu'est-ce qui se passe ?
    Pourquoi mon visage n'est pas détecté ?
  • 3:07 - 3:10
    Pour répondre, il faut comprendre comment
    on donne la vue aux machines.
  • 3:10 - 3:14
    La vision informatique utilise
    des techniques de machine learning
  • 3:14 - 3:16
    pour reconnaître des visages.
  • 3:16 - 3:19
    Pour que ça marche, vous créez un ensemble
    de formation avec des exemples.
  • 3:19 - 3:22
    Ceci est un visage. Ceci est un visage.
    Mais pas ça.
  • 3:22 - 3:27
    Au fur et à mesure, l'ordinateur apprend
    comment reconnaître d'autres visages.
  • 3:27 - 3:31
    Mais si les jeux de tests
    ne sont pas très variés,
  • 3:31 - 3:34
    n'importe quel visage qui dévie trop
    de la norme établie
  • 3:34 - 3:36
    sera plus compliqué à détecter,
  • 3:36 - 3:38
    et c'était ce qui se passait avec moi.
  • 3:38 - 3:40
    Mais pas d'angoisse --
    il y a de bonnes nouvelles.
  • 3:40 - 3:43
    Les jeux de tests
    n'apparaissent pas par magie.
  • 3:43 - 3:45
    On peut les créer nous-mêmes.
  • 3:45 - 3:49
    Il y a la possibilité de créer
    des jeux de tests plus variés
  • 3:49 - 3:53
    qui offrent un portrait
    plus riche de l'humanité.
  • 3:53 - 3:55
    Vous avez vu dans mes exemples
  • 3:55 - 3:57
    que c'est via les robots sociaux
  • 3:57 - 4:02
    que je me suis rendu compte de l'existence
    du biais algorithmique.
  • 4:02 - 4:06
    Mais le biais algorithmique peut aussi
    mener à des pratiques discriminatoires.
  • 4:07 - 4:09
    Aux États-Unis,
  • 4:09 - 4:13
    la police commence à utiliser
    des logiciels de reconnaissance faciale
  • 4:13 - 4:16
    dans son arsenal contre le crime.
  • 4:16 - 4:18
    Georgetown Law a publié un rapport
  • 4:18 - 4:24
    montrant qu'un adulte sur deux aux
    États-Unis - 117 millions de personnes--
  • 4:24 - 4:28
    ont leur visage dans un système de
    reconnaissance faciale.
  • 4:28 - 4:33
    La police peut en ce moment consulter
    ces systèmes non régulés,
  • 4:33 - 4:37
    en utilisant des algorithmes
    dont la fiabilité n'a pas été testée.
  • 4:37 - 4:41
    Mais on sait que la reconnaissance
    faciale a des failles,
  • 4:41 - 4:45
    et que correctement étiqueter
    un visage reste un défi.
  • 4:45 - 4:47
    Vous l'avez sûrement vu sur Facebook.
  • 4:47 - 4:50
    Avec mes amis, on rit souvent
    quand on voit d'autres personnes
  • 4:50 - 4:52
    mal identifiées dans nos photos.
  • 4:52 - 4:58
    Mais mal identifier un suspect comme étant
    un criminel n'est pas drôle,
  • 4:58 - 5:01
    et porter atteinte aux libertés civiles
    non plus.
  • 5:01 - 5:04
    Le machine learning est utilisé
    pour la reconnaissance faciale,
  • 5:04 - 5:08
    mais s'utilise dans d'autres
    domaines que la vision informatique.
  • 5:09 - 5:13
    Dans son livre « Weapons
    of Math Destruction »,
  • 5:13 - 5:20
    la data scientist Cathy O'Neil
    parle des risques de ces nouvelles armes,
  • 5:20 - 5:24
    des algorithmes répandus,
    mystérieux et destructeurs
  • 5:24 - 5:27
    qui sont de plus en plus utilisés
    dans des prises de décision
  • 5:27 - 5:31
    qui ont un impact sur nos vies.
  • 5:31 - 5:32
    Qui est embauché ou renvoyé ?
  • 5:32 - 5:35
    Aurez-vous ce prêt ?
    Une assurance ?
  • 5:35 - 5:38
    Serez-vous admis dans cette université
    que vous voulez vraiment ?
  • 5:38 - 5:42
    Est-ce que vous et moi payons
    le même prix pour le même produit
  • 5:42 - 5:44
    acheté sur la même plateforme ?
  • 5:44 - 5:48
    Les autorités policières commencent
    à utiliser le machine learning
  • 5:48 - 5:50
    dans le cadre de la prévention policière.
  • 5:50 - 5:54
    Certains juges utilisent des scores
    générés par des machines
  • 5:54 - 5:58
    pour déterminer combien de temps
    un individu passera derrière les barreaux.
  • 5:58 - 6:01
    Nous devons donc réfléchir
    à ces décisions.
  • 6:01 - 6:02
    Sont-elles justes ?
  • 6:02 - 6:05
    Et nous avons vu que
    le biais algorithmique
  • 6:05 - 6:08
    ne mène pas forcément
    à des décisions justes.
  • 6:08 - 6:10
    Que pouvons-nous faire ?
  • 6:10 - 6:14
    Nous pouvons commencer à penser
    à une manière de coder plus inclusivement
  • 6:14 - 6:17
    et à utiliser des pratiques
    de code plus inclusives.
  • 6:17 - 6:19
    Tout commence avec les gens.
  • 6:20 - 6:22
    Qui code a une importance.
  • 6:22 - 6:26
    Créons-nous des équipes
    composées d'individus variés
  • 6:26 - 6:28
    qui puissent vérifier mutuellement
    leurs travaux ?
  • 6:28 - 6:32
    D'un point de vue technique,
    comment on code a de l'importance.
  • 6:32 - 6:35
    Ajoutons-nous la justice à l'équation
    quand nous développons des systèmes ?
  • 6:36 - 6:38
    Finalement, pourquoi
    on code a une importance.
  • 6:39 - 6:44
    Nous avons utilisé des outils numériques
    pour générer d'immenses richesses.
  • 6:44 - 6:48
    Nous avons maintenant l'opportunité
    de créer encore plus d'égalité
  • 6:48 - 6:51
    si nous faisons du changement
    social une priorité.
  • 6:51 - 6:53
    et pas une préoccupation secondaire.
  • 6:54 - 6:59
    Ceci seront les trois piliers
    du mouvement « incoding ».
  • 6:59 - 7:00
    Qui code a de l'importance,
  • 7:00 - 7:02
    la manière dont on code aussi
  • 7:02 - 7:04
    et pourquoi on code également.
  • 7:04 - 7:07
    Pour aller vers l'incoding,
    nous pouvons commencer à réfléchir
  • 7:07 - 7:10
    à comment construire des outils
    pouvant identifier ce biais
  • 7:10 - 7:13
    via la collecte de témoignages
    comme celui que j'ai partagé,
  • 7:13 - 7:16
    mais qui pourraient aussi tester
    des logiciels existants.
  • 7:16 - 7:20
    Nous pouvons commencer à créer
    des jeux de tests plus complets.
  • 7:20 - 7:23
    Imaginez une campagne
    « Selfies pour l'inclusion »,
  • 7:23 - 7:27
    où vous et moi pourrions aider
    les développeurs à tester et créer
  • 7:27 - 7:29
    ces jeux de tests plus variés.
  • 7:29 - 7:32
    Nous pouvons commencer à penser
    plus consciencieusement
  • 7:32 - 7:38
    à l'impact social
    des technologies que nous développons.
  • 7:38 - 7:40
    Pour commencer le mouvement incoding,
  • 7:40 - 7:43
    J'ai lancé l'Algorithmic Justice League,
  • 7:43 - 7:49
    où n'importe qui se souciant du problème
    peut aider à combattre le regard codé.
  • 7:49 - 7:52
    Sur codedgaze.com, vous pouvez
    dénoncer des biais,
  • 7:52 - 7:55
    demander des tests, être testeur vous-même
  • 7:55 - 7:57
    et rejoindre la conversation,
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Donc je vous invite à me rejoindre
  • 8:03 - 8:07
    pour créer un monde où la technologie
    marche pour nous tous,
  • 8:07 - 8:09
    pas seulement pour certains,
  • 8:09 - 8:14
    un monde où l'inclusion
    et le changement social ont de la valeur.
  • 8:14 - 8:15
    Merci.
  • 8:15 - 8:19
    (Applaudissements)
  • 8:21 - 8:24
    Mais j'ai une question :
  • 8:24 - 8:26
    Me rejoindrez-vous dans ce combat?
  • 8:26 - 8:27
    (Rires)
  • 8:27 - 8:31
    (Applaudissements)
Title:
Mon combat contre les algorithmes biaisés
Speaker:
Joy Buolamwini
Description:

Joy Buolamwini, doctorante au MIT, travaillait avec des logiciels de reconnaissances faciale quand elle a remarqué un problème: le logiciel ne reconnaissait pas son visage -- parce que ceux qui avaient codé l'algorithme ne lui avait pas appris à identifier une grande variété de couleurs de peau et de structures faciales. Elle s'est donné pour mission de combattre le biais algorithmique dans le machine learning, un phénomène qu'elle nomme le "regard codé". Cette conférence fait comprendre l'importance de la responsabilité dans le développement, sachant que les algorithmes prennent de plus en plus d'importance dans nos vies.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

French subtitles

Revisions Compare revisions