Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours
-
0:06 - 0:08Vous venez d'être arrêté par la police.
-
0:10 - 0:11Vous étiez en voyage aux États-Unis.
-
0:13 - 0:16Au bord d'une petite route, on vous
a arrêté, on vous a jeté en prison, -
0:16 - 0:18et vous serez présenté à un juge.
-
0:18 - 0:22On vous accuse d'un délit que, bien sûr,
vous pensez que vous n'avez pas commis. -
0:22 - 0:23Et là on vous explique que
-
0:23 - 0:25le juge va d’abord décider
-
0:25 - 0:28si on vous libère sous caution
en attendant le jugement, -
0:28 - 0:30peut-être dans plusieurs semaines,
-
0:30 - 0:33ou si on vous garde au frais,
ce qui serait peut-être bien ce soir, -
0:33 - 0:34pendant quelque temps.
-
0:35 - 0:37Enfin quand même, vous préféreriez sortir.
-
0:38 - 0:40Et voilà qu'on vous dit :
-
0:40 - 0:43« Cette décision de vous
libérer sous caution ou pas, -
0:43 - 0:46elle va être prise par un algorithme. »
-
0:47 - 0:50Techniquement, c'est
par un juge, mais en fait, -
0:50 - 0:52il y a un algorithme
qui va étudier votre profil, -
0:53 - 0:55calculer le risque que vous présentez,
-
0:55 - 0:58qui, en fonction de cela, va faire
une recommandation au juge, -
0:58 - 1:01et, pratiquement toujours,
le juge va suivre la recommandation. -
1:02 - 1:04Qu'est-ce que ça vous inspire ?
-
1:05 - 1:06Ça vous inquiète un peu.
-
1:08 - 1:11En général, si je parle d'algorithmes,
ça jette un froid, -
1:11 - 1:14mais on est très inquiets dès
qu'on nous parle d'algorithmes. -
1:14 - 1:15L'an dernier en France,
-
1:15 - 1:19on a eu deux grands rapports
sur l’IA et les big data, -
1:19 - 1:21par la CNIL et par la Commission Villani.
-
1:21 - 1:23Les deux ont pris le même exemple,
-
1:23 - 1:24celui dont j'ai parlé,
-
1:24 - 1:28un algorithme américain d'aide
à la décision judiciaire, Compas, -
1:28 - 1:31pour expliquer, dans les deux
cas avec la même formule, -
1:31 - 1:34qu'il est très important
que l'homme garde la main, -
1:35 - 1:38qu'on ne laisse pas les algorithmes
décider à notre place. -
1:39 - 1:42Et c'est un sujet important, parce que,
dans tous les domaines de notre vie, -
1:42 - 1:45ils prennent une place
de plus en plus importante. -
1:45 - 1:47Si vous avez passé le bac cette année,
-
1:47 - 1:50c'est un algorithme qui décide
quelles études vous allez faire. -
1:51 - 1:54Et quand vous aurez fini vos études,
que vous chercherez un job, -
1:54 - 1:57vous enverrez des CV : c'est sans
doute un algorithme qui les triera. -
1:58 - 2:02Ensuite peut-être même que l'entretien que
vous passerez, si votre CV a été trié, -
2:02 - 2:04sera analysé en vidéo par un algorithme,
-
2:04 - 2:07ça commence à être
de plus en plus fréquent. -
2:07 - 2:10Puis si vous avez le job,
il faudra une voiture pour y aller. -
2:10 - 2:12Alors il faudra un crédit -
-
2:12 - 2:14c'est un algorithme qui décidera -
-
2:14 - 2:19puis une assurance - un algorithme fixera
le prix de de la prime d'assurance - -
2:19 - 2:22et ainsi de suite jusqu'au jour où
vous serez percuté par une voiture, -
2:22 - 2:26dont l'algorithme aura décidé qu'il
valait mieux vous tuer vous que vous. -
2:26 - 2:28Puisqu'on nous explique
que les voitures autonomes -
2:28 - 2:31vont être pilotées par des algorithmes
qui feront ce genre de calculs. -
2:31 - 2:32Bref,
-
2:32 - 2:38on nous décrit sans cesse un monde où
on va être les victimes des algorithmes, -
2:38 - 2:42un peu comme les passagers du vaisseau
de « 2001, l'Odyssée de l'espace », -
2:42 - 2:45sont sous l'emprise de l'ordinateur,
vous vous rappelez ? -
2:46 - 2:48Je voudrais vous inviter
à reconsidérer cette vision, -
2:49 - 2:53à questionner cette aversion
aux algorithmes que nous avons, -
2:54 - 2:57et peut-être même à changer
d'avis sur les algorithmes. -
2:59 - 3:02Qu'est-ce qu'on reproche aux algorithmes,
dans toutes ces histoires ? -
3:02 - 3:06La 1e chose qu'on leur reproche
très souvent, c'est d'avoir des biais. -
3:06 - 3:08Vous avez entendu parler
des biais algorithmiques. -
3:08 - 3:10Par exemple,
-
3:10 - 3:12le fameux algorithme Compas
dont je vous parlais -
3:12 - 3:15a été étudié par des
journalistes de ProPublica, -
3:15 - 3:18grand organisme de
journalisme d'investigation, -
3:18 - 3:21qui ont démontré que
l'algorithme est raciste -
3:21 - 3:25puisqu'il se trompe plus souvent
au détriment des Noirs que des Blancs, -
3:25 - 3:28et plus souvent en faveur des Blancs
qu'en faveur des Noirs. -
3:28 - 3:30Donc c'est un algorithme qui est biaisé.
-
3:31 - 3:33On vous a peut-être parlé
d'un algorithme de recrutement -
3:33 - 3:35qu'Amazon a dû cesser d'utiliser
-
3:35 - 3:39parce que l'algorithme avait été
entraîné sur des données existantes -
3:39 - 3:42et donc, comme Amazon avait recruté
beaucoup d'hommes dans le passé, -
3:42 - 3:46l'algorithme préférait les profils
d'hommes aux profils de femmes, -
3:46 - 3:47et donc l'algorithme était sexiste.
-
3:48 - 3:52Peut-être avez entendu parler de
ces algorithmes de reconnaissance faciale -
3:52 - 3:55qui sont assez bons
pour reconnaître les blancs -
3:55 - 3:57mais qui sont très mauvais
pour reconnaître les noirs. -
3:57 - 4:00Bref, il y a des algorithmes
qui ont des biais. -
4:00 - 4:02Et soyons clairs, c'est vrai.
-
4:03 - 4:04Ces algorithmes,
-
4:04 - 4:07même si, certains de ces
exemples ont été exagérés, -
4:07 - 4:09ces algorithmes biaisés existent.
-
4:10 - 4:14Rien de plus facile d'ailleurs
que de fabriquer un algorithme biaisé. -
4:14 - 4:16Mais, quand on dit :
« Il existe des algorithmes biaisés, -
4:17 - 4:19donc il faut se méfier
de tous les algorithmes, » -
4:20 - 4:24est-ce qu'on n'est pas en train de
commettre la même erreur de logique -
4:24 - 4:27que les racistes qui
utilisent un stéréotype ? -
4:28 - 4:32On est en train, en fait, de reprocher aux
algorithmes de faire des stéréotypes, -
4:32 - 4:34en utilisant un stéréotype
contre les algorithmes. -
4:34 - 4:36C'est quand même un peu bizarre.
-
4:36 - 4:37La question n'est pas :
-
4:37 - 4:41« Y a-t-il des algorithmes biaisés ? » -
bien sûr qu'il y en a - mais : -
4:41 - 4:44« Est-ce qu'on peut faire des
algorithmes qui ne le soient pas ? » -
4:44 - 4:46ou qui en tout cas le
soient moins que nous. -
4:46 - 4:48Il faut arrêter de se comparer à un idéal
-
4:48 - 4:52et se demander ce que ferait les humains
auxquels on compare ces algorithmes. -
4:53 - 4:55Et là, c'est intéressant.
-
4:55 - 4:58Prenez les juges américains,
puisque c'est d'eux dont on parlait. -
4:58 - 5:01Il y a une étude sur les juges
de l'immigration aux États-Unis -
5:02 - 5:05qui montre qu'il y a des disparités
considérables entre deux juges -
5:05 - 5:07qui ont la même population de demandeurs.
-
5:07 - 5:08Dans un cas extrême,
-
5:09 - 5:10en Floride, dans la même ville,
-
5:10 - 5:12dans le même tribunal,
vous avez deux juges, -
5:12 - 5:15auxquels les demandeurs d'asile
sont affectés aléatoirement, -
5:15 - 5:20Il y en a un qui accorde 4%
des demandes, l'autre 88%. -
5:21 - 5:22Ce n'est pas un biais, ça ?
-
5:22 - 5:24Vous pensez que l'algorithme est pire ?
-
5:25 - 5:28Dans tous les domaines où on regarde le
jugement humain, on trouve ces biais. -
5:28 - 5:32Exemple au bureau des brevets américains ;
vous direz : « Pas très grave. » -
5:32 - 5:34Mais si vous êtes l'inventeur
qui dépose un brevet, -
5:34 - 5:36ça vous embête un peu
-
5:36 - 5:41qu'il y ait des employés qui donnent
deux fois moins de brevets que d'autres. -
5:42 - 5:43Plus embêtant :
-
5:43 - 5:46si vous avez à faire un jour au service
-
5:46 - 5:48qui s'occupe de venir décider
-
5:48 - 5:52si vous êtes un mauvais parent
et si on va vous retirer vos enfants, -
5:52 - 5:54en fonction du travailleur social,
-
5:54 - 5:57vous avez des écarts là aussi
qui vont de un à trois. -
5:58 - 6:01Donc les biais des algorithmes
sont un vrai problème, -
6:01 - 6:04mais enfin, les biais des humains
sont un vrai problème aussi. -
6:04 - 6:07Pour que ils soient
aussi biaisés que les humains, -
6:07 - 6:10il faudrait que les algorithmes soient
vraiment très très très biaisés. -
6:10 - 6:14On a un autre problème, qui est
en fait beaucoup plus important : -
6:14 - 6:18même les humains les plus biaisés
-
6:18 - 6:21ne se trompent pas seulement
dans le sens de leurs biais. -
6:21 - 6:25Le biais, c'est une erreur prévisible,
une erreur qu'on commet pour une raison. -
6:25 - 6:27Mais on peut aussi se tromper sans raison.
-
6:27 - 6:29Prenez le recruteur sexiste,
-
6:29 - 6:32qui va recruter beaucoup
plus d'hommes que de femmes, -
6:32 - 6:33déjà, c'est une erreur,
-
6:33 - 6:36mais vous pensez que parmi les
hommes, il va recruter les bons ? -
6:37 - 6:42S'il n'est pas très malin, il n'y a pas de
raison qu'il recrute les meilleurs hommes. -
6:42 - 6:45Il va se tromper aussi dans ses choix
à l'intérieur d'une catégorie. -
6:45 - 6:51Et cette erreur sans raison qu'on
soit capable d'identifier clairement, -
6:51 - 6:54c'est ce qu'on appelle le bruit,
c'est l'erreur aléatoire. -
6:54 - 6:56Le biais, c'est l'erreur
directionnelle, explicable ; -
6:56 - 7:00le bruit, c'est l'erreur qu'on ne sait
pas expliquer, l'erreur aléatoire. -
7:00 - 7:04L'exemple le plus frappant, pour vous
en donner une représentation tangible, -
7:04 - 7:09c'est quand on prend la même personne en
lui demandant de faire le même jugement, -
7:09 - 7:10à partir des mêmes données,
-
7:11 - 7:12à deux moments différents.
-
7:13 - 7:15Il y a par exemple des
études sur les radiologues. -
7:15 - 7:16On leur montre une radio,
-
7:17 - 7:19qu'en fait ils ont déjà
vue il y a quelques mois. -
7:19 - 7:24Ils en ont vu des centaines depuis, donc
ils ne se souviennent pas de la radio. -
7:24 - 7:26Et dans un nombre non négligeable de cas,
-
7:26 - 7:30leur jugement, leur diagnostic,
va changer entre les deux fois. -
7:30 - 7:33Ou bien prenez un exemple
encore plus étonnant : -
7:34 - 7:37les experts en empreintes digitales.
-
7:38 - 7:39Quand vous leur soumettez
-
7:39 - 7:41l'empreinte relevée sur la scène du crime
-
7:41 - 7:43et l'empreinte prélevée sur le suspect,
-
7:43 - 7:46en lui demandant de tremper
son doigt dans l'encre, -
7:46 - 7:48en leur demandant si ça correspond.
-
7:48 - 7:49Ils vous disent oui ou non.
-
7:50 - 7:52Vous leur montrez les mêmes
empreintes des mois plus tard - -
7:52 - 7:55là aussi, ils en ont vu
des centaines entretemps - -
7:55 - 7:58dans un nombre non négligeable de cas,
statistiquement significatifs, -
7:58 - 8:00leur jugement va changer.
-
8:00 - 8:03Donc ce jugement humain
qu'on croit fiable, -
8:03 - 8:05qu'on croit stable,
-
8:05 - 8:07en fait, il a une grande
composante de bruit, -
8:07 - 8:09il a une grande composante d'aléatoire.
-
8:10 - 8:11Pourquoi c'est important ?
-
8:11 - 8:15Parce que l'algorithme, c'est ça,
sa force : lui, il n'a pas de bruit. -
8:16 - 8:20Si on donne à l'algorithme les mêmes
données, il donne la même réponse. -
8:20 - 8:22Donc il peut avoir des biais,
-
8:22 - 8:24mais il en aura moins que
la plupart des humains, -
8:25 - 8:27et surtout il n'aura pas de bruit,
-
8:27 - 8:30donc fera beaucoup moins
d'erreurs que les humains. -
8:30 - 8:32C'est ce qui explique sa supériorité.
-
8:33 - 8:35Mais je ne vous sens pas convaincus.
(Rires) -
8:36 - 8:37Vous ne voulez toujours pas
-
8:37 - 8:41que ça soit un algorithme qui vous juge
sur le bord de la route en Louisiane. -
8:41 - 8:42Non, vous n'en avez pas envie.
-
8:43 - 8:45Je crois que je sais pourquoi.
-
8:45 - 8:49C'est parce que l'algorithme,
on ne comprend pas ce que c'est. -
8:50 - 8:53C'est opaque, ce n'est pas transparent -
-
8:53 - 8:55le jugement humain non plus d'ailleurs -
-
8:55 - 8:58mais être jugé par un homme
ou par une femme, -
8:58 - 9:00vous savez à peu près
comment ça fonctionne. -
9:00 - 9:01Un algorithme,
-
9:01 - 9:03c'est mystérieux, c'est une boîte noire.
-
9:03 - 9:05En fait,
-
9:05 - 9:07on vous demande d'aimer
une espèce de saucisse -
9:08 - 9:10sans vous dire quels sont ses ingrédients
-
9:10 - 9:12et sans vous montrer l'usine
où elle a été fabriquée. -
9:13 - 9:14Ce n'est pas très appétissant.
-
9:15 - 9:19En fait, on voudrait un algorithme
qui ne ressemble pas une saucisse, -
9:19 - 9:21mais qui ressemble à une
assiette de crudités bio : -
9:23 - 9:26on sait exactement ce qu'on a devant nous,
c'est complètement transparent. -
9:28 - 9:30Mais peut-être que dans
certains cas, c'est possible. -
9:31 - 9:33Je reprends mon exemple
de l'algorithme Compas, -
9:34 - 9:38ce fameux algorithme de
décision judiciaire américain. -
9:38 - 9:41Il est basé sur 137 critères.
-
9:41 - 9:43Alors ça, c'est du big data.
-
9:43 - 9:47On va triturer 137 informations
sur chaque prévenu -
9:47 - 9:49pour calculer un score
de risque de récidive. -
9:49 - 9:53Et évidemment la formule qui va
faire ce calcul est secrète, -
9:53 - 9:55puisque propriété de l'entreprise privée
-
9:55 - 9:56qui met cet algorithme
-
9:56 - 9:59à la disposition des tribunaux
des différents États américains. -
9:59 - 10:01Donc ce n'est pas transparent du tout.
-
10:02 - 10:06Voilà que cinq chercheurs
américains, de Stanford et de NYU, -
10:07 - 10:09se disent : « Et si on essayait un truc ?
-
10:10 - 10:13Si on prenait les deux
critères parmi ces 137, -
10:13 - 10:15les deux paramètres seulement,
-
10:15 - 10:18dont on sait, d'après toutes
les études de criminologie, -
10:18 - 10:20que ce sont les meilleurs
prédicteurs de la récidive. » -
10:21 - 10:22Qu'est-ce que c'est ?
-
10:22 - 10:23L'âge du prévenu
-
10:24 - 10:27et le nombre de condamnations
qu'il a déjà sur son casier judiciaire. -
10:28 - 10:32Qu'est-ce qu'on serait capable de
prévoir comme risque de récidive -
10:32 - 10:34en utilisant simplement
ces deux paramètres -
10:34 - 10:38et en les combinant d'une manière
très simple, de manière linéaire ? -
10:38 - 10:40Eh bien avec ces deux paramètres,
-
10:40 - 10:43ils arrivent à exactement
la même fiabilité de prévision -
10:43 - 10:45que les 137 critères de Compas.
-
10:47 - 10:49Vous avez avec ce small data
-
10:49 - 10:52avec très peu de données,
avec une règle simple, -
10:52 - 10:53la même qualité de prévision
-
10:54 - 10:57que vous aviez avec l'énorme complexité
de la moulinette du big data. -
10:58 - 11:00Et ça, sur le principe,
-
11:00 - 11:04on le sait en fait depuis très longtemps,
depuis une soixantaine d'années. -
11:04 - 11:08Pourquoi on ne le fait pas plus ? Pourquoi
on ne voit pas du small data partout ? -
11:08 - 11:10Pourquoi on nous parle
tout le temps de big data ? -
11:10 - 11:14Parce que c'est juste un exemple,
ça ne marche pas à tous les coups - -
11:14 - 11:15il faudrait chercher.
-
11:16 - 11:17Mais aussi,
-
11:17 - 11:18et surtout je crois, parce que,
-
11:19 - 11:22quand je vous dis que ça atteint
le même score de prévision, -
11:22 - 11:27la même qualité d'exactitude de
score de risque, de quoi on parle ? -
11:27 - 11:29On parle de 65% dans le cas d'espèce,
-
11:29 - 11:33c'est-à-dire qu'on a des algorithmes
qui vont dans 65% des cas -
11:33 - 11:35prévoir qui va récidiver,
qui ne va pas récidiver, -
11:36 - 11:38et qui dans 35% des cas se trompent.
-
11:39 - 11:4165%, ce n'est pas mal,
-
11:41 - 11:44c'est un petit peu mieux que les
juges humains, pas beaucoup mieux, -
11:44 - 11:46mais enfin on espère
qu'on peut faire mieux. -
11:46 - 11:48Ce qu'on attend du big data, c'est que,
-
11:48 - 11:50en changeant ses formules,
en apprenant plus, -
11:50 - 11:56en s'entraînant mieux, en améliorant les
algorithmes, il arrive à 70, à 75, à 80. -
11:56 - 11:58En fait, on rêve qu'il arrive à 100.
-
11:58 - 12:00La promesse du big data,
-
12:00 - 12:04c'est qu'avec ses algorithmes,
il va arriver à une prévision parfaite. -
12:05 - 12:06C'est de ça qu'on rêve.
-
12:07 - 12:09Si on y réfléchit deux secondes,
-
12:09 - 12:12on voit bien que c'est un
rêve complètement irréaliste : -
12:12 - 12:16jamais on n'arrivera à avoir un algorithme
qui prévoira avec 100% d'exactitude, -
12:16 - 12:19ni même, je pense, avec
beaucoup plus de 65%, -
12:19 - 12:24le risque de récidive de vraies personnes
humaines qui ont un libre-arbitre. -
12:24 - 12:29Dans « Minority Report », ce n'était pas
un algorithme qui faisait la prévision, -
12:29 - 12:31c'était une espèce de créature magique.
-
12:31 - 12:34Donc c'est un rêve qui
ne se réalisera pas, -
12:34 - 12:36mais c'est pourtant la quête de ce rêve,
-
12:36 - 12:41le fantasme de la machine omnisciente,
capable de prévoir l'avenir parfaitement, -
12:41 - 12:45qui nous conduit à vouloir des
algorithmes toujours plus compliqués -
12:46 - 12:49au prix d'une complexité et d'une
opacité de plus en plus grandes, -
12:49 - 12:53qui créent cette réaction de rejet
que nous avons face aux algorithmes. -
12:53 - 12:57Le small data, ou les règles simples,
c'est le contre-pied de ce raisonnement, -
12:57 - 13:01c'est de se dire que dans beaucoup de cas,
-
13:01 - 13:03on devrait faire mieux
que le jugement humain -
13:04 - 13:07avec des algorithmes simples,
totalement transparents, -
13:08 - 13:11et évidemment imparfaits -
dont on accepte l'imperfection - -
13:11 - 13:14parce qu'on préfère un petit
peu plus de transparence. -
13:14 - 13:15Et peut-être que là,
-
13:17 - 13:19quand on aura un
algorithme de ce genre-là, -
13:19 - 13:21quand vous serez arrêté
sur la route aux États-Unis -
13:21 - 13:24et qu'on vous dira qu'un
algorithme qui va décider, -
13:24 - 13:25vous vous direz : « Bonne nouvelle ! »
-
13:26 - 13:29Parce que, pour que les
algorithmes soient nos amis, -
13:29 - 13:34pas besoin qu'ils soient parfaits,
juste qu'ils soient meilleurs que nous. -
13:34 - 13:35Merci.
-
13:35 - 13:41(Applaudissements)
- Title:
- Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours
- Description:
-
Diplômé d’HEC Paris et docteur en sciences de gestion, Olivier Sibony est spécialiste de la prise de décision stratégique. Ayant exercé en tant que directeur associé senior au sein de McKinsey pendant 25 ans, il est désormais enseignant à HEC Paris et à la Saïd Business School d'Oxford. Ses recherches se concentrent sur la stratégie comportementale, ou comment appliquer les sciences sociales comportementales à la prise de décision stratégique.
Il est l'auteur de deux livres, « Vous Allez Commettre Une Terrible Erreur » et « Cracked It! », et de nombreux articles, dont « Before you make that Big Decision » et « A Structured Approach to Strategic Decisions » (en collaboration avec Daniel Kahneman, prix Nobel d’économie), qui sont reconnus par la communauté économique comme autant d’avancées innovantes et pertinentes.
Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx
- Video Language:
- French
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 13:47
eric vautier approved French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours | ||
Claire Ghyselen accepted French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours | ||
Claire Ghyselen edited French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours | ||
eric vautier edited French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours | ||
eric vautier edited French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours | ||
Chloé Eveillard edited French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours | ||
Chloé Eveillard edited French subtitles for Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours |