Return to Video

Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours

  • 0:06 - 0:08
    Vous venez d'être arrêté par la police.
  • 0:10 - 0:11
    Vous étiez en voyage aux États-Unis.
  • 0:13 - 0:16
    Au bord d'une petite route, on vous
    a arrêté, on vous a jeté en prison,
  • 0:16 - 0:18
    et vous serez présenté à un juge.
  • 0:18 - 0:22
    On vous accuse d'un délit que, bien sûr,
    vous pensez que vous n'avez pas commis.
  • 0:22 - 0:23
    Et là on vous explique que
  • 0:23 - 0:25
    le juge va d’abord décider
  • 0:25 - 0:28
    si on vous libère sous caution
    en attendant le jugement,
  • 0:28 - 0:30
    peut-être dans plusieurs semaines,
  • 0:30 - 0:33
    ou si on vous garde au frais,
    ce qui serait peut-être bien ce soir,
  • 0:33 - 0:34
    pendant quelque temps.
  • 0:35 - 0:37
    Enfin quand même, vous préféreriez sortir.
  • 0:38 - 0:40
    Et voilà qu'on vous dit :
  • 0:40 - 0:43
    « Cette décision de vous
    libérer sous caution ou pas,
  • 0:43 - 0:46
    elle va être prise par un algorithme. »
  • 0:47 - 0:50
    Techniquement, c'est
    par un juge, mais en fait,
  • 0:50 - 0:52
    il y a un algorithme
    qui va étudier votre profil,
  • 0:53 - 0:55
    calculer le risque que vous présentez,
  • 0:55 - 0:58
    qui, en fonction de cela, va faire
    une recommandation au juge,
  • 0:58 - 1:01
    et, pratiquement toujours,
    le juge va suivre la recommandation.
  • 1:02 - 1:04
    Qu'est-ce que ça vous inspire ?
  • 1:05 - 1:06
    Ça vous inquiète un peu.
  • 1:08 - 1:11
    En général, si je parle d'algorithmes,
    ça jette un froid,
  • 1:11 - 1:14
    mais on est très inquiets dès
    qu'on nous parle d'algorithmes.
  • 1:14 - 1:15
    L'an dernier en France,
  • 1:15 - 1:19
    on a eu deux grands rapports
    sur l’IA et les big data,
  • 1:19 - 1:21
    par la CNIL et par la Commission Villani.
  • 1:21 - 1:23
    Les deux ont pris le même exemple,
  • 1:23 - 1:24
    celui dont j'ai parlé,
  • 1:24 - 1:28
    un algorithme américain d'aide
    à la décision judiciaire, Compas,
  • 1:28 - 1:31
    pour expliquer, dans les deux
    cas avec la même formule,
  • 1:31 - 1:34
    qu'il est très important
    que l'homme garde la main,
  • 1:35 - 1:38
    qu'on ne laisse pas les algorithmes
    décider à notre place.
  • 1:39 - 1:42
    Et c'est un sujet important, parce que,
    dans tous les domaines de notre vie,
  • 1:42 - 1:45
    ils prennent une place
    de plus en plus importante.
  • 1:45 - 1:47
    Si vous avez passé le bac cette année,
  • 1:47 - 1:50
    c'est un algorithme qui décide
    quelles études vous allez faire.
  • 1:51 - 1:54
    Et quand vous aurez fini vos études,
    que vous chercherez un job,
  • 1:54 - 1:57
    vous enverrez des CV : c'est sans
    doute un algorithme qui les triera.
  • 1:58 - 2:02
    Ensuite peut-être même que l'entretien que
    vous passerez, si votre CV a été trié,
  • 2:02 - 2:04
    sera analysé en vidéo par un algorithme,
  • 2:04 - 2:07
    ça commence à être
    de plus en plus fréquent.
  • 2:07 - 2:10
    Puis si vous avez le job,
    il faudra une voiture pour y aller.
  • 2:10 - 2:12
    Alors il faudra un crédit -
  • 2:12 - 2:14
    c'est un algorithme qui décidera -
  • 2:14 - 2:19
    puis une assurance - un algorithme fixera
    le prix de de la prime d'assurance -
  • 2:19 - 2:22
    et ainsi de suite jusqu'au jour où
    vous serez percuté par une voiture,
  • 2:22 - 2:26
    dont l'algorithme aura décidé qu'il
    valait mieux vous tuer vous que vous.
  • 2:26 - 2:28
    Puisqu'on nous explique
    que les voitures autonomes
  • 2:28 - 2:31
    vont être pilotées par des algorithmes
    qui feront ce genre de calculs.
  • 2:31 - 2:32
    Bref,
  • 2:32 - 2:38
    on nous décrit sans cesse un monde où
    on va être les victimes des algorithmes,
  • 2:38 - 2:42
    un peu comme les passagers du vaisseau
    de « 2001, l'Odyssée de l'espace »,
  • 2:42 - 2:45
    sont sous l'emprise de l'ordinateur,
    vous vous rappelez ?
  • 2:46 - 2:48
    Je voudrais vous inviter
    à reconsidérer cette vision,
  • 2:49 - 2:53
    à questionner cette aversion
    aux algorithmes que nous avons,
  • 2:54 - 2:57
    et peut-être même à changer
    d'avis sur les algorithmes.
  • 2:59 - 3:02
    Qu'est-ce qu'on reproche aux algorithmes,
    dans toutes ces histoires ?
  • 3:02 - 3:06
    La 1e chose qu'on leur reproche
    très souvent, c'est d'avoir des biais.
  • 3:06 - 3:08
    Vous avez entendu parler
    des biais algorithmiques.
  • 3:08 - 3:10
    Par exemple,
  • 3:10 - 3:12
    le fameux algorithme Compas
    dont je vous parlais
  • 3:12 - 3:15
    a été étudié par des
    journalistes de ProPublica,
  • 3:15 - 3:18
    grand organisme de
    journalisme d'investigation,
  • 3:18 - 3:21
    qui ont démontré que
    l'algorithme est raciste
  • 3:21 - 3:25
    puisqu'il se trompe plus souvent
    au détriment des Noirs que des Blancs,
  • 3:25 - 3:28
    et plus souvent en faveur des Blancs
    qu'en faveur des Noirs.
  • 3:28 - 3:30
    Donc c'est un algorithme qui est biaisé.
  • 3:31 - 3:33
    On vous a peut-être parlé
    d'un algorithme de recrutement
  • 3:33 - 3:35
    qu'Amazon a dû cesser d'utiliser
  • 3:35 - 3:39
    parce que l'algorithme avait été
    entraîné sur des données existantes
  • 3:39 - 3:42
    et donc, comme Amazon avait recruté
    beaucoup d'hommes dans le passé,
  • 3:42 - 3:46
    l'algorithme préférait les profils
    d'hommes aux profils de femmes,
  • 3:46 - 3:47
    et donc l'algorithme était sexiste.
  • 3:48 - 3:52
    Peut-être avez entendu parler de
    ces algorithmes de reconnaissance faciale
  • 3:52 - 3:55
    qui sont assez bons
    pour reconnaître les blancs
  • 3:55 - 3:57
    mais qui sont très mauvais
    pour reconnaître les noirs.
  • 3:57 - 4:00
    Bref, il y a des algorithmes
    qui ont des biais.
  • 4:00 - 4:02
    Et soyons clairs, c'est vrai.
  • 4:03 - 4:04
    Ces algorithmes,
  • 4:04 - 4:07
    même si, certains de ces
    exemples ont été exagérés,
  • 4:07 - 4:09
    ces algorithmes biaisés existent.
  • 4:10 - 4:14
    Rien de plus facile d'ailleurs
    que de fabriquer un algorithme biaisé.
  • 4:14 - 4:16
    Mais, quand on dit :
    « Il existe des algorithmes biaisés,
  • 4:17 - 4:19
    donc il faut se méfier
    de tous les algorithmes, »
  • 4:20 - 4:24
    est-ce qu'on n'est pas en train de
    commettre la même erreur de logique
  • 4:24 - 4:27
    que les racistes qui
    utilisent un stéréotype ?
  • 4:28 - 4:32
    On est en train, en fait, de reprocher aux
    algorithmes de faire des stéréotypes,
  • 4:32 - 4:34
    en utilisant un stéréotype
    contre les algorithmes.
  • 4:34 - 4:36
    C'est quand même un peu bizarre.
  • 4:36 - 4:37
    La question n'est pas :
  • 4:37 - 4:41
    « Y a-t-il des algorithmes biaisés ? » -
    bien sûr qu'il y en a - mais :
  • 4:41 - 4:44
    « Est-ce qu'on peut faire des
    algorithmes qui ne le soient pas ? »
  • 4:44 - 4:46
    ou qui en tout cas le
    soient moins que nous.
  • 4:46 - 4:48
    Il faut arrêter de se comparer à un idéal
  • 4:48 - 4:52
    et se demander ce que ferait les humains
    auxquels on compare ces algorithmes.
  • 4:53 - 4:55
    Et là, c'est intéressant.
  • 4:55 - 4:58
    Prenez les juges américains,
    puisque c'est d'eux dont on parlait.
  • 4:58 - 5:01
    Il y a une étude sur les juges
    de l'immigration aux États-Unis
  • 5:02 - 5:05
    qui montre qu'il y a des disparités
    considérables entre deux juges
  • 5:05 - 5:07
    qui ont la même population de demandeurs.
  • 5:07 - 5:08
    Dans un cas extrême,
  • 5:09 - 5:10
    en Floride, dans la même ville,
  • 5:10 - 5:12
    dans le même tribunal,
    vous avez deux juges,
  • 5:12 - 5:15
    auxquels les demandeurs d'asile
    sont affectés aléatoirement,
  • 5:15 - 5:20
    Il y en a un qui accorde 4%
    des demandes, l'autre 88%.
  • 5:21 - 5:22
    Ce n'est pas un biais, ça ?
  • 5:22 - 5:24
    Vous pensez que l'algorithme est pire ?
  • 5:25 - 5:28
    Dans tous les domaines où on regarde le
    jugement humain, on trouve ces biais.
  • 5:28 - 5:32
    Exemple au bureau des brevets américains ;
    vous direz : « Pas très grave. »
  • 5:32 - 5:34
    Mais si vous êtes l'inventeur
    qui dépose un brevet,
  • 5:34 - 5:36
    ça vous embête un peu
  • 5:36 - 5:41
    qu'il y ait des employés qui donnent
    deux fois moins de brevets que d'autres.
  • 5:42 - 5:43
    Plus embêtant :
  • 5:43 - 5:46
    si vous avez à faire un jour au service
  • 5:46 - 5:48
    qui s'occupe de venir décider
  • 5:48 - 5:52
    si vous êtes un mauvais parent
    et si on va vous retirer vos enfants,
  • 5:52 - 5:54
    en fonction du travailleur social,
  • 5:54 - 5:57
    vous avez des écarts là aussi
    qui vont de un à trois.
  • 5:58 - 6:01
    Donc les biais des algorithmes
    sont un vrai problème,
  • 6:01 - 6:04
    mais enfin, les biais des humains
    sont un vrai problème aussi.
  • 6:04 - 6:07
    Pour que ils soient
    aussi biaisés que les humains,
  • 6:07 - 6:10
    il faudrait que les algorithmes soient
    vraiment très très très biaisés.
  • 6:10 - 6:14
    On a un autre problème, qui est
    en fait beaucoup plus important :
  • 6:14 - 6:18
    même les humains les plus biaisés
  • 6:18 - 6:21
    ne se trompent pas seulement
    dans le sens de leurs biais.
  • 6:21 - 6:25
    Le biais, c'est une erreur prévisible,
    une erreur qu'on commet pour une raison.
  • 6:25 - 6:27
    Mais on peut aussi se tromper sans raison.
  • 6:27 - 6:29
    Prenez le recruteur sexiste,
  • 6:29 - 6:32
    qui va recruter beaucoup
    plus d'hommes que de femmes,
  • 6:32 - 6:33
    déjà, c'est une erreur,
  • 6:33 - 6:36
    mais vous pensez que parmi les
    hommes, il va recruter les bons ?
  • 6:37 - 6:42
    S'il n'est pas très malin, il n'y a pas de
    raison qu'il recrute les meilleurs hommes.
  • 6:42 - 6:45
    Il va se tromper aussi dans ses choix
    à l'intérieur d'une catégorie.
  • 6:45 - 6:51
    Et cette erreur sans raison qu'on
    soit capable d'identifier clairement,
  • 6:51 - 6:54
    c'est ce qu'on appelle le bruit,
    c'est l'erreur aléatoire.
  • 6:54 - 6:56
    Le biais, c'est l'erreur
    directionnelle, explicable ;
  • 6:56 - 7:00
    le bruit, c'est l'erreur qu'on ne sait
    pas expliquer, l'erreur aléatoire.
  • 7:00 - 7:04
    L'exemple le plus frappant, pour vous
    en donner une représentation tangible,
  • 7:04 - 7:09
    c'est quand on prend la même personne en
    lui demandant de faire le même jugement,
  • 7:09 - 7:10
    à partir des mêmes données,
  • 7:11 - 7:12
    à deux moments différents.
  • 7:13 - 7:15
    Il y a par exemple des
    études sur les radiologues.
  • 7:15 - 7:16
    On leur montre une radio,
  • 7:17 - 7:19
    qu'en fait ils ont déjà
    vue il y a quelques mois.
  • 7:19 - 7:24
    Ils en ont vu des centaines depuis, donc
    ils ne se souviennent pas de la radio.
  • 7:24 - 7:26
    Et dans un nombre non négligeable de cas,
  • 7:26 - 7:30
    leur jugement, leur diagnostic,
    va changer entre les deux fois.
  • 7:30 - 7:33
    Ou bien prenez un exemple
    encore plus étonnant :
  • 7:34 - 7:37
    les experts en empreintes digitales.
  • 7:38 - 7:39
    Quand vous leur soumettez
  • 7:39 - 7:41
    l'empreinte relevée sur la scène du crime
  • 7:41 - 7:43
    et l'empreinte prélevée sur le suspect,
  • 7:43 - 7:46
    en lui demandant de tremper
    son doigt dans l'encre,
  • 7:46 - 7:48
    en leur demandant si ça correspond.
  • 7:48 - 7:49
    Ils vous disent oui ou non.
  • 7:50 - 7:52
    Vous leur montrez les mêmes
    empreintes des mois plus tard -
  • 7:52 - 7:55
    là aussi, ils en ont vu
    des centaines entretemps -
  • 7:55 - 7:58
    dans un nombre non négligeable de cas,
    statistiquement significatifs,
  • 7:58 - 8:00
    leur jugement va changer.
  • 8:00 - 8:03
    Donc ce jugement humain
    qu'on croit fiable,
  • 8:03 - 8:05
    qu'on croit stable,
  • 8:05 - 8:07
    en fait, il a une grande
    composante de bruit,
  • 8:07 - 8:09
    il a une grande composante d'aléatoire.
  • 8:10 - 8:11
    Pourquoi c'est important ?
  • 8:11 - 8:15
    Parce que l'algorithme, c'est ça,
    sa force : lui, il n'a pas de bruit.
  • 8:16 - 8:20
    Si on donne à l'algorithme les mêmes
    données, il donne la même réponse.
  • 8:20 - 8:22
    Donc il peut avoir des biais,
  • 8:22 - 8:24
    mais il en aura moins que
    la plupart des humains,
  • 8:25 - 8:27
    et surtout il n'aura pas de bruit,
  • 8:27 - 8:30
    donc fera beaucoup moins
    d'erreurs que les humains.
  • 8:30 - 8:32
    C'est ce qui explique sa supériorité.
  • 8:33 - 8:35
    Mais je ne vous sens pas convaincus.
    (Rires)
  • 8:36 - 8:37
    Vous ne voulez toujours pas
  • 8:37 - 8:41
    que ça soit un algorithme qui vous juge
    sur le bord de la route en Louisiane.
  • 8:41 - 8:42
    Non, vous n'en avez pas envie.
  • 8:43 - 8:45
    Je crois que je sais pourquoi.
  • 8:45 - 8:49
    C'est parce que l'algorithme,
    on ne comprend pas ce que c'est.
  • 8:50 - 8:53
    C'est opaque, ce n'est pas transparent -
  • 8:53 - 8:55
    le jugement humain non plus d'ailleurs -
  • 8:55 - 8:58
    mais être jugé par un homme
    ou par une femme,
  • 8:58 - 9:00
    vous savez à peu près
    comment ça fonctionne.
  • 9:00 - 9:01
    Un algorithme,
  • 9:01 - 9:03
    c'est mystérieux, c'est une boîte noire.
  • 9:03 - 9:05
    En fait,
  • 9:05 - 9:07
    on vous demande d'aimer
    une espèce de saucisse
  • 9:08 - 9:10
    sans vous dire quels sont ses ingrédients
  • 9:10 - 9:12
    et sans vous montrer l'usine
    où elle a été fabriquée.
  • 9:13 - 9:14
    Ce n'est pas très appétissant.
  • 9:15 - 9:19
    En fait, on voudrait un algorithme
    qui ne ressemble pas une saucisse,
  • 9:19 - 9:21
    mais qui ressemble à une
    assiette de crudités bio :
  • 9:23 - 9:26
    on sait exactement ce qu'on a devant nous,
    c'est complètement transparent.
  • 9:28 - 9:30
    Mais peut-être que dans
    certains cas, c'est possible.
  • 9:31 - 9:33
    Je reprends mon exemple
    de l'algorithme Compas,
  • 9:34 - 9:38
    ce fameux algorithme de
    décision judiciaire américain.
  • 9:38 - 9:41
    Il est basé sur 137 critères.
  • 9:41 - 9:43
    Alors ça, c'est du big data.
  • 9:43 - 9:47
    On va triturer 137 informations
    sur chaque prévenu
  • 9:47 - 9:49
    pour calculer un score
    de risque de récidive.
  • 9:49 - 9:53
    Et évidemment la formule qui va
    faire ce calcul est secrète,
  • 9:53 - 9:55
    puisque propriété de l'entreprise privée
  • 9:55 - 9:56
    qui met cet algorithme
  • 9:56 - 9:59
    à la disposition des tribunaux
    des différents États américains.
  • 9:59 - 10:01
    Donc ce n'est pas transparent du tout.
  • 10:02 - 10:06
    Voilà que cinq chercheurs
    américains, de Stanford et de NYU,
  • 10:07 - 10:09
    se disent : « Et si on essayait un truc ?
  • 10:10 - 10:13
    Si on prenait les deux
    critères parmi ces 137,
  • 10:13 - 10:15
    les deux paramètres seulement,
  • 10:15 - 10:18
    dont on sait, d'après toutes
    les études de criminologie,
  • 10:18 - 10:20
    que ce sont les meilleurs
    prédicteurs de la récidive. »
  • 10:21 - 10:22
    Qu'est-ce que c'est ?
  • 10:22 - 10:23
    L'âge du prévenu
  • 10:24 - 10:27
    et le nombre de condamnations
    qu'il a déjà sur son casier judiciaire.
  • 10:28 - 10:32
    Qu'est-ce qu'on serait capable de
    prévoir comme risque de récidive
  • 10:32 - 10:34
    en utilisant simplement
    ces deux paramètres
  • 10:34 - 10:38
    et en les combinant d'une manière
    très simple, de manière linéaire ?
  • 10:38 - 10:40
    Eh bien avec ces deux paramètres,
  • 10:40 - 10:43
    ils arrivent à exactement
    la même fiabilité de prévision
  • 10:43 - 10:45
    que les 137 critères de Compas.
  • 10:47 - 10:49
    Vous avez avec ce small data
  • 10:49 - 10:52
    avec très peu de données,
    avec une règle simple,
  • 10:52 - 10:53
    la même qualité de prévision
  • 10:54 - 10:57
    que vous aviez avec l'énorme complexité
    de la moulinette du big data.
  • 10:58 - 11:00
    Et ça, sur le principe,
  • 11:00 - 11:04
    on le sait en fait depuis très longtemps,
    depuis une soixantaine d'années.
  • 11:04 - 11:08
    Pourquoi on ne le fait pas plus ? Pourquoi
    on ne voit pas du small data partout ?
  • 11:08 - 11:10
    Pourquoi on nous parle
    tout le temps de big data ?
  • 11:10 - 11:14
    Parce que c'est juste un exemple,
    ça ne marche pas à tous les coups -
  • 11:14 - 11:15
    il faudrait chercher.
  • 11:16 - 11:17
    Mais aussi,
  • 11:17 - 11:18
    et surtout je crois, parce que,
  • 11:19 - 11:22
    quand je vous dis que ça atteint
    le même score de prévision,
  • 11:22 - 11:27
    la même qualité d'exactitude de
    score de risque, de quoi on parle ?
  • 11:27 - 11:29
    On parle de 65% dans le cas d'espèce,
  • 11:29 - 11:33
    c'est-à-dire qu'on a des algorithmes
    qui vont dans 65% des cas
  • 11:33 - 11:35
    prévoir qui va récidiver,
    qui ne va pas récidiver,
  • 11:36 - 11:38
    et qui dans 35% des cas se trompent.
  • 11:39 - 11:41
    65%, ce n'est pas mal,
  • 11:41 - 11:44
    c'est un petit peu mieux que les
    juges humains, pas beaucoup mieux,
  • 11:44 - 11:46
    mais enfin on espère
    qu'on peut faire mieux.
  • 11:46 - 11:48
    Ce qu'on attend du big data, c'est que,
  • 11:48 - 11:50
    en changeant ses formules,
    en apprenant plus,
  • 11:50 - 11:56
    en s'entraînant mieux, en améliorant les
    algorithmes, il arrive à 70, à 75, à 80.
  • 11:56 - 11:58
    En fait, on rêve qu'il arrive à 100.
  • 11:58 - 12:00
    La promesse du big data,
  • 12:00 - 12:04
    c'est qu'avec ses algorithmes,
    il va arriver à une prévision parfaite.
  • 12:05 - 12:06
    C'est de ça qu'on rêve.
  • 12:07 - 12:09
    Si on y réfléchit deux secondes,
  • 12:09 - 12:12
    on voit bien que c'est un
    rêve complètement irréaliste :
  • 12:12 - 12:16
    jamais on n'arrivera à avoir un algorithme
    qui prévoira avec 100% d'exactitude,
  • 12:16 - 12:19
    ni même, je pense, avec
    beaucoup plus de 65%,
  • 12:19 - 12:24
    le risque de récidive de vraies personnes
    humaines qui ont un libre-arbitre.
  • 12:24 - 12:29
    Dans « Minority Report », ce n'était pas
    un algorithme qui faisait la prévision,
  • 12:29 - 12:31
    c'était une espèce de créature magique.
  • 12:31 - 12:34
    Donc c'est un rêve qui
    ne se réalisera pas,
  • 12:34 - 12:36
    mais c'est pourtant la quête de ce rêve,
  • 12:36 - 12:41
    le fantasme de la machine omnisciente,
    capable de prévoir l'avenir parfaitement,
  • 12:41 - 12:45
    qui nous conduit à vouloir des
    algorithmes toujours plus compliqués
  • 12:46 - 12:49
    au prix d'une complexité et d'une
    opacité de plus en plus grandes,
  • 12:49 - 12:53
    qui créent cette réaction de rejet
    que nous avons face aux algorithmes.
  • 12:53 - 12:57
    Le small data, ou les règles simples,
    c'est le contre-pied de ce raisonnement,
  • 12:57 - 13:01
    c'est de se dire que dans beaucoup de cas,
  • 13:01 - 13:03
    on devrait faire mieux
    que le jugement humain
  • 13:04 - 13:07
    avec des algorithmes simples,
    totalement transparents,
  • 13:08 - 13:11
    et évidemment imparfaits -
    dont on accepte l'imperfection -
  • 13:11 - 13:14
    parce qu'on préfère un petit
    peu plus de transparence.
  • 13:14 - 13:15
    Et peut-être que là,
  • 13:17 - 13:19
    quand on aura un
    algorithme de ce genre-là,
  • 13:19 - 13:21
    quand vous serez arrêté
    sur la route aux États-Unis
  • 13:21 - 13:24
    et qu'on vous dira qu'un
    algorithme qui va décider,
  • 13:24 - 13:25
    vous vous direz : « Bonne nouvelle ! »
  • 13:26 - 13:29
    Parce que, pour que les
    algorithmes soient nos amis,
  • 13:29 - 13:34
    pas besoin qu'ils soient parfaits,
    juste qu'ils soient meilleurs que nous.
  • 13:34 - 13:35
    Merci.
  • 13:35 - 13:41
    (Applaudissements)
Title:
Et si les algorithmes méritaient notre confiance ? | Olivier Sibony | TEDxTours
Description:

Diplômé d’HEC Paris et docteur en sciences de gestion, Olivier Sibony est spécialiste de la prise de décision stratégique. Ayant exercé en tant que directeur associé senior au sein de McKinsey pendant 25 ans, il est désormais enseignant à HEC Paris et à la Saïd Business School d'Oxford. Ses recherches se concentrent sur la stratégie comportementale, ou comment appliquer les sciences sociales comportementales à la prise de décision stratégique.

Il est l'auteur de deux livres, « Vous Allez Commettre Une Terrible Erreur » et « Cracked It! », et de nombreux articles, dont « Before you make that Big Decision » et « A Structured Approach to Strategic Decisions » (en collaboration avec Daniel Kahneman, prix Nobel d’économie), qui sont reconnus par la communauté économique comme autant d’avancées innovantes et pertinentes.

Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx

more » « less
Video Language:
French
Team:
closed TED
Project:
TEDxTalks
Duration:
13:47

French subtitles

Revisions