< Return to Video

La vraie raison d'avoir peur de l'Intelligence Artificielle | Peter Haas | TEDxDirigo

  • 0:13 - 0:17
    Le soulèvement des machines !
  • 0:18 - 0:23
    Qui ici a peur des robots tueurs ?
  • 0:23 - 0:25
    (Rires)
  • 0:26 - 0:27
    Moi !
  • 0:28 - 0:32
    Je travaillais dans les UAV -
    véhicules aériens sans pilote -
  • 0:32 - 0:37
    et la seule chose à laquelle je pensais
    en voyant ces choses, c'est qu'un jour,
  • 0:37 - 0:41
    quelqu'un va attacher
    une mitraillette à ces engins,
  • 0:41 - 0:44
    et qu'ils me traqueront en meute.
  • 0:45 - 0:48
    Je travaille en robotique
    à la Brown University
  • 0:48 - 0:51
    et j'ai peur des robots.
  • 0:51 - 0:53
    En fait, j'en suis terrifié,
  • 0:54 - 0:56
    mais pouvez-vous m'en vouloir ?
  • 0:56 - 1:00
    Depuis que je suis enfant,
    je n'ai vu que des films
  • 1:00 - 1:03
    qui décrivent la montée
    de l'Intelligence Artificielle
  • 1:03 - 1:06
    et notre inévitable conflit avec elle -
  • 1:06 - 1:11
    2001 l'Odyssée de l'espace,
    Terminator, Matrix -
  • 1:12 - 1:16
    et les histoires qu'ils racontent
    sont plutôt effrayantes :
  • 1:16 - 1:21
    des bandes d'humains voyous
    fuyant des machines super intelligentes.
  • 1:22 - 1:24
    Cela me fait peur.
  • 1:24 - 1:27
    Il semblerait que cela
    vous effraie également.
  • 1:27 - 1:31
    Je sais que cela fait peur à Elon Musk.
  • 1:31 - 1:33
    Mais vous savez, nous avons
    un peu de temps
  • 1:33 - 1:35
    avant que les robots ne se rebellent.
  • 1:35 - 1:39
    Des robots comme le PR2
    dont j'ai eu l'initiative,
  • 1:39 - 1:42
    ils ne peuvent même pas ouvrir
    une porte pour l'instant.
  • 1:42 - 1:47
    Donc, dans mon esprit, cette discussion
    sur les robots super intelligents
  • 1:47 - 1:49
    n'est qu'une distraction
    pour nous détourner
  • 1:49 - 1:52
    de quelque chose
    de beaucoup plus insidieux
  • 1:52 - 1:56
    qui se passe avec les systèmes
    d'IA dans tout le pays.
  • 1:57 - 2:00
    Vous voyez, en ce moment,
    il y a des gens -
  • 2:00 - 2:04
    des médecins, des juges, des comptables -
  • 2:04 - 2:08
    qui obtiennent des informations
    d'un système d'IA
  • 2:08 - 2:13
    et qui les traitent comme s'il s'agissait
    d'informations d'un collègue de confiance.
  • 2:14 - 2:17
    C'est cette confiance qui me dérange,
  • 2:17 - 2:20
    non à cause de la fréquence
    à laquelle l'IA se trompe.
  • 2:20 - 2:24
    Les chercheurs en IA sont fiers
    de l'exactitude des résultats.
  • 2:25 - 2:30
    C'est à quel point elle se trompe quand
    elle commet une erreur qui m'inquiète.
  • 2:30 - 2:34
    Ces systèmes n'échouent pas gracieusement.
  • 2:34 - 2:37
    Alors, regardons à quoi cela ressemble.
  • 2:37 - 2:40
    Ceci est un chien qui a été mal identifié
  • 2:40 - 2:43
    comme étant un loup
    par un algorithme d'IA.
  • 2:43 - 2:45
    Les chercheurs ont voulu savoir :
  • 2:45 - 2:50
    pourquoi ce husky en particulier a-t-il
    été identifié à tort comme un loup ?
  • 2:50 - 2:53
    Ils ont donc réécrit l’algorithme
    pour que celui-ci explicite
  • 2:53 - 2:56
    les parties de l’image à laquelle
    il prêtait attention.
  • 2:56 - 2:59
    Lorsque l’algorithme d’IA
    a pris sa décision.
  • 2:59 - 3:03
    Sur cette image, à quoi pensez-vous
    qu'il ait prêté attention ?
  • 3:03 - 3:05
    À quoi feriez-vous attention ?
  • 3:05 - 3:11
    Peut-être les yeux,
    peut-être les oreilles, le museau...
  • 3:13 - 3:17
    Voici à quoi il a prêté attention :
  • 3:17 - 3:21
    principalement la neige
    et l'arrière-plan de l'image.
  • 3:21 - 3:26
    Il y avait un biais dans le jeu de données
    alimentant cet algorithme.
  • 3:26 - 3:31
    La plupart des images de loups
    étaient dans la neige,
  • 3:31 - 3:35
    l'algorithme d'IA a donc confondu
    la présence ou l'absence de neige
  • 3:35 - 3:38
    avec la présence ou à l'absence d'un loup.
  • 3:40 - 3:42
    La chose effrayante ici
  • 3:42 - 3:46
    est que les chercheurs n’avaient
    aucune idée de ce qu'il se passait,
  • 3:46 - 3:50
    avant de réécrire l’algorithme
    pour qu'il explicite ses choix.
  • 3:51 - 3:53
    Et c'est le problème
    avec les algorithmes d'IA,
  • 3:53 - 3:55
    l'apprentissage profond et automatique.
  • 3:55 - 3:59
    Même les développeurs
    qui travaillent sur ce genre de choses
  • 3:59 - 4:02
    n'ont aucune idée de ce qu'ils font.
  • 4:03 - 4:08
    Cela pourrait être un excellent exemple
    pour une recherche,
  • 4:08 - 4:10
    mais qu'est-ce que cela signifie
    dans le monde réel ?
  • 4:11 - 4:16
    L'algorithme de jugement criminel COMPAS
    est utilisé dans 13 États d'Amérique
  • 4:16 - 4:18
    pour déterminer la récidive criminelle
  • 4:18 - 4:23
    ou le risque de commettre
    un crime à nouveau après votre libération.
  • 4:23 - 4:27
    ProPublica a constaté
    que si vous êtes afro-américain,
  • 4:27 - 4:29
    COMPAS avait 77% plus de chances
  • 4:29 - 4:32
    de vous qualifier de délinquant
    potentiellement violent
  • 4:32 - 4:34
    que si vous étiez caucasien.
  • 4:35 - 4:39
    Ceci est un système réel, utilisé
    dans le monde réel par de vrais juges,
  • 4:39 - 4:43
    pour prendre des décisions
    sur la vie de vraies personnes.
  • 4:44 - 4:50
    Pourquoi les juges lui feraient-ils
    confiance s'il semble être biaisé ?
  • 4:50 - 4:52
    La raison pour laquelle
    ils utilisent COMPAS,
  • 4:52 - 4:56
    c'est parce qu’il s’agit
    d’un modèle d’efficacité.
  • 4:56 - 5:00
    COMPAS leur permet de traiter
    des dossiers beaucoup plus rapidement
  • 5:00 - 5:04
    dans un système de justice surchargé.
  • 5:05 - 5:07
    Pourquoi mettraient-ils en doute
    leur propre logiciel ?
  • 5:07 - 5:11
    Il a été acheté par l'État, approuvé
    par leurs services informatiques.
  • 5:11 - 5:13
    Pourquoi le remettraient-ils en cause ?
  • 5:13 - 5:17
    Les personnes condamnées par COMPAS
    l'ont remis en question,
  • 5:17 - 5:19
    et le procès devrait tous nous refroidir.
  • 5:19 - 5:22
    La Cour suprême
    de l'État du Wisconsin a statué
  • 5:22 - 5:26
    que COMPAS ne refuserait pas à un accusé
    une procédure régulière
  • 5:26 - 5:29
    à condition qu'il ait été utilisé
    « correctement ».
  • 5:29 - 5:31
    Dans le même temps, ils ont statué
  • 5:31 - 5:35
    que l'accusé ne pouvait pas inspecter
    le code source de COMPAS.
  • 5:36 - 5:38
    Il doit être utilisé correctement
  • 5:38 - 5:40
    mais vous ne pouvez pas
    inspecter le code source ?
  • 5:40 - 5:43
    C’est un ensemble
    de décisions troublantes,
  • 5:43 - 5:47
    qui s’appliquent à quiconque
    encourant une condamnation pénale.
  • 5:47 - 5:48
    Cela vous est peut-être égal
  • 5:48 - 5:51
    parce que vous n'êtes pas
    poursuivi en justice,
  • 5:51 - 5:55
    mais si je vous disais que des algorithmes
    opaques d'IA comme celui-ci
  • 5:55 - 6:00
    sont utilisés pour décider si vous pouvez
    obtenir ou non un prêt pour votre maison,
  • 6:00 - 6:03
    si vous pouvez obtenir
    un entretien d'embauche,
  • 6:03 - 6:06
    si vous pouvez bénéficier
    d'une assurance maladie,
  • 6:06 - 6:10
    et qu'ils conduisent même des voitures
    et des camions sur l'autoroute.
  • 6:11 - 6:15
    Souhaiteriez-vous que le public
    soit en mesure d'inspecter l'algorithme
  • 6:15 - 6:18
    qui tente de faire la distinction
    entre un panier et un landau
  • 6:18 - 6:21
    dans un camion autonome,
  • 6:21 - 6:23
    de la même manière
    que l'algorithme chien/loup
  • 6:23 - 6:26
    essayait de faire la différence
    entre un chien et un loup ?
  • 6:26 - 6:29
    Êtes-vous potentiellement
    un chien métaphorique
  • 6:29 - 6:31
    qui a été mal identifié comme un loup
  • 6:31 - 6:34
    par l'algorithme d'IA de quelqu'un ?
  • 6:35 - 6:39
    Compte tenu de la complexité
    des personnes, c'est possible.
  • 6:39 - 6:42
    Y a-t-il quelque chose
    que vous puissiez faire maintenant ?
  • 6:42 - 6:45
    Probablement pas,
  • 6:45 - 6:47
    et c'est ce sur quoi
    nous devons nous concentrer.
  • 6:47 - 6:51
    Nous devons exiger
    des normes de responsabilité,
  • 6:51 - 6:55
    de transparence et des recours
    concernant les systèmes d'IA.
  • 6:56 - 7:00
    L'ISO, l'Organisation internationale
    de normalisation,
  • 7:00 - 7:02
    vient de former un comité
    pour prendre des décisions
  • 7:02 - 7:05
    sur ce qui doit être fait
    concernant les normes sur l'IA.
  • 7:05 - 7:09
    Il leur faut environ cinq ans
    pour élaborer une norme.
  • 7:09 - 7:13
    Ces systèmes sont utilisés en ce moment,
  • 7:14 - 7:16
    pas seulement pour estimer
    l'octroi de prêts,
  • 7:16 - 7:20
    mais ils sont utilisés dans
    des véhicules, comme je l'expliquais.
  • 7:21 - 7:23
    Ils sont utilisés dans des domaines
  • 7:23 - 7:25
    tels que le régulateur de vitesse
    adaptatif coopératif.
  • 7:25 - 7:28
    C'est drôle qu'ils appellent cela
    « régulateur de vitesse »
  • 7:28 - 7:31
    parce que le type de contrôleur utilisé
    dans le régulateur de vitesse,
  • 7:31 - 7:33
    un contrôleur PID,
  • 7:33 - 7:36
    a été utilisé pendant 30 ans
    dans des usines chimiques
  • 7:36 - 7:39
    avant d’être transféré sur des voitures.
  • 7:39 - 7:41
    Le type de contrôleur utilisé
  • 7:41 - 7:45
    pour conduire une voiture autonome
    et l'apprentissage automatique,
  • 7:45 - 7:49
    n'est utilisé en recherche
    que depuis 2007.
  • 7:50 - 7:52
    Ce sont des nouvelles technologies.
  • 7:52 - 7:56
    Nous devons exiger des normes
    et nous devons exiger une réglementation
  • 7:56 - 8:00
    pour éviter de se retrouver avec
    n'importe quoi sur le marché.
  • 8:01 - 8:05
    Et nous devons également avoir
    un peu de scepticisme.
  • 8:06 - 8:08
    Les expériences appelées Authority,
  • 8:08 - 8:11
    faites par Stanley Milgram
    après la Seconde Guerre mondiale,
  • 8:11 - 8:16
    ont montré qu'une personne moyenne suivra
    les ordres d'une personne d'autorité
  • 8:16 - 8:20
    même si cela signifie
    torturer son concitoyen.
  • 8:20 - 8:23
    Dans cette expérience,
  • 8:23 - 8:27
    des Américains lambda
    pensent électrocuter des acteurs,
  • 8:28 - 8:31
    ignorant leurs gémissements,
  • 8:32 - 8:35
    ignorant leurs cris de douleur,
  • 8:36 - 8:41
    allant même jusqu'à l'électrocution
    et une mort simulée,
  • 8:42 - 8:44
    tout cela parce que quelqu'un
  • 8:44 - 8:48
    sans qualifications,
    dans une blouse de laboratoire,
  • 8:48 - 8:51
    disait une variante de la phrase :
  • 8:51 - 8:54
    « L'expérience doit continuer. »
  • 8:57 - 9:03
    Dans l'IA, nous avons
    la figure d'autorité ultime de Milgram.
  • 9:04 - 9:08
    Nous avons un système impartial
    qui ne peut pas réfléchir,
  • 9:09 - 9:13
    qui ne peut pas prendre d'autre décision,
  • 9:13 - 9:15
    qui n'autorise aucun recours,
  • 9:15 - 9:20
    qui dira toujours « Le système »
    ou « Le processus doit continuer. »
  • 9:23 - 9:26
    Maintenant, je vais vous raconter
    une histoire.
  • 9:26 - 9:30
    Il s’agit d’un voyage en voiture
    que j’ai fait à travers le pays.
  • 9:31 - 9:35
    J'allais à Salt Lake City
    et il commença à pleuvoir.
  • 9:35 - 9:40
    En montant dans les montagnes,
    cette pluie s'est transformée en neige,
  • 9:40 - 9:43
    et très vite, cette neige
    a tout recouvert.
  • 9:43 - 9:46
    Je ne voyais même plus les feux arrière
    de la voiture devant moi.
  • 9:46 - 9:48
    J'ai commencé à déraper.
  • 9:48 - 9:51
    J'ai fait un 360 dans un sens,
    puis dans l'autre.
  • 9:51 - 9:53
    J'ai fait une sortie de route.
  • 9:53 - 9:55
    La boue recouvrait mes vitres,
    je ne voyais plus rien.
  • 9:55 - 9:59
    J'étais terrifié à l'idée
    qu'une voiture me percute.
  • 10:00 - 10:04
    Je vous raconte cette histoire
    pour vous faire réfléchir
  • 10:04 - 10:07
    comment quelque chose d'insignifiant
    et d'apparence banale
  • 10:07 - 10:10
    comme un peu de précipitation,
  • 10:10 - 10:15
    peut facilement devenir
    quelque chose de très dangereux.
  • 10:15 - 10:20
    Nous conduisons sous la pluie avec l'IA,
    en ce moment,
  • 10:20 - 10:23
    et cette pluie se transformera en neige,
  • 10:24 - 10:27
    et cette neige pourrait
    devenir un blizzard.
  • 10:28 - 10:31
    Nous devons faire une pause,
  • 10:31 - 10:33
    vérifier les conditions,
  • 10:33 - 10:36
    mettre en place des normes de sécurité,
  • 10:36 - 10:41
    et nous demander
    jusqu'où nous voulons aller,
  • 10:42 - 10:46
    car les motivations économiques
    de l'IA et de l'automatisation
  • 10:46 - 10:48
    pour remplacer le travail humain
  • 10:48 - 10:51
    seront au-delà de tout
    ce que nous avons vu
  • 10:51 - 10:54
    depuis la révolution industrielle.
  • 10:54 - 10:58
    Les exigences de salaire humain
    ne peuvent pas rivaliser
  • 10:58 - 11:02
    avec le coût de base de l'électricité.
  • 11:02 - 11:08
    Les IA et les robots remplaceront
    les cuisiniers dans les fast-foods
  • 11:08 - 11:10
    et les radiologues dans les hôpitaux.
  • 11:11 - 11:14
    Un jour, l'IA diagnostiquera votre cancer,
  • 11:14 - 11:17
    et un robot effectuera l'opération.
  • 11:18 - 11:22
    Seul un scepticisme sain
    vis-à-vis de ces systèmes
  • 11:22 - 11:26
    aidera à tenir les gens informés.
  • 11:26 - 11:28
    Et je suis confiant,
  • 11:28 - 11:31
    si nous pouvons tenir les gens informés,
  • 11:31 - 11:35
    si nous pouvons construire
    des systèmes d'IA transparents
  • 11:35 - 11:36
    comme l'exemple du chien et du loup
  • 11:36 - 11:40
    où l'IA a expliqué aux ingénieurs
    ce qu'elle faisait,
  • 11:40 - 11:43
    et ces derniers ont pu le vérifier,
  • 11:43 - 11:48
    nous pouvons créer de nouveaux emplois
    pour des personnes s’associant à l'IA.
  • 11:49 - 11:51
    Si nous travaillons ensemble avec l'IA,
  • 11:51 - 11:53
    nous serons probablement
    capables de résoudre
  • 11:53 - 11:56
    certains de nos plus grands défis.
  • 11:57 - 12:01
    Mais pour faire cela,
    nous devons diriger et non suivre.
  • 12:02 - 12:05
    Nous devons choisir
    de ne pas ressembler à des robots,
  • 12:05 - 12:10
    et nous devons construire des robots
    qui soient plus humains,
  • 12:11 - 12:13
    parce que finalement,
  • 12:13 - 12:16
    la seule chose que nous devons craindre,
  • 12:16 - 12:19
    ce ne sont pas les robots tueurs,
  • 12:19 - 12:22
    c'est notre propre paresse intellectuelle.
  • 12:22 - 12:25
    La seule chose que nous devons craindre,
  • 12:25 - 12:27
    c'est nous-mêmes.
  • 12:27 - 12:28
    Merci.
  • 12:28 - 12:30
    (Applaudissements)
Title:
La vraie raison d'avoir peur de l'Intelligence Artificielle | Peter Haas | TEDxDirigo
Description:

Peter Haas, chercheur en robotique, nous invite dans son monde afin de comprendre où résident les menaces des robots et de l'intelligence artificielle. Avant que nous arrivions aux robots tueurs de la science-fiction, à l’internet des objets ou même au transhumanisme, il y a quelque chose devant nous que nous devons affronter. Et c'est nous-mêmes.

Peter est le directeur associé de la Brown University Centered Robotics Initiative. Il a été cofondateur et directeur de l'exploitation de XactSense, un fabricant d'UAV travaillant sur la cartographie LIDAR et la navigation autonome. Avant de rejoindre XactSense, Peter avait fondé AIDG, un accélérateur de petites entreprises informatiques dans les marchés émergents. Peter a reçu à la fois des bourses TED et Echoing Green. Il a été conférencier à TED Global, à la Banque mondiale, à l'Université de Harvard et à d'autres occasions. Il détient une licence en philosophie, obtenue à Yale.

Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
12:38

French subtitles

Revisions