< Return to Video

Ne craignez pas une IA super-intelligente

  • 0:01 - 0:05
    Quand j'étais enfant,
    j'étais l'exemple parfait de l'intello.
  • 0:05 - 0:07
    Certains d'entre vous
    devaient l'être aussi.
  • 0:08 - 0:09
    (Rires)
  • 0:09 - 0:12
    Et vous, monsieur, qui avez ri
    le plus fort, devez encore l'être.
  • 0:12 - 0:14
    (Rires)
  • 0:14 - 0:18
    J'ai grandi dans une petite ville
    des plaines poussiéreuses du Texas,
  • 0:18 - 0:21
    fils d'un shérif
    qui était fils de pasteur.
  • 0:21 - 0:23
    Hors de question de m'attirer des ennuis.
  • 0:24 - 0:27
    J'ai donc commencé à lire
    des livres de calcul pour le plaisir.
  • 0:27 - 0:29
    (Rires)
  • 0:29 - 0:31
    Vous aussi.
  • 0:31 - 0:34
    Cela m'a mené à créer un laser,
    un ordinateur et des micro fusées
  • 0:34 - 0:37
    et à faire du carburant
    pour les fusées dans ma chambre.
  • 0:38 - 0:42
    En termes scientifiques,
  • 0:42 - 0:45
    cela s'appelle une très mauvaise idée.
  • 0:45 - 0:46
    (Rires)
  • 0:46 - 0:48
    A peu près au même moment,
  • 0:48 - 0:52
    « 2001 : l'odyssée de l'espace »
    de Stanley Kubrick est sorti
  • 0:52 - 0:54
    et cela a changé ma vie.
  • 0:54 - 0:56
    J'aimais tout dans ce film,
  • 0:56 - 0:59
    en particulier HAL 9000.
  • 0:59 - 1:01
    HAL était un ordinateur sensible
  • 1:01 - 1:03
    conçu pour guider Discovery,
    le vaisseau spatial,
  • 1:03 - 1:06
    de la Terre à Jupiter.
  • 1:06 - 1:08
    HAL était aussi un personnage imparfait
  • 1:08 - 1:10
    puisqu'à la fin, il choisissait
  • 1:10 - 1:13
    la valeur de la mission
    plutôt que la vie humaine.
  • 1:13 - 1:15
    HAL était un personnage de fiction
  • 1:15 - 1:18
    mais il s'adresse malgré tout à nos peurs,
  • 1:18 - 1:20
    nos peurs d'être assujettis
  • 1:20 - 1:23
    par une intelligence artificielle
    sans émotions
  • 1:23 - 1:25
    qui est indifférente à notre humanité.
  • 1:26 - 1:28
    Je crois que de telles peurs
    sont infondées.
  • 1:28 - 1:31
    En fait, nous vivons un moment remarquable
  • 1:31 - 1:33
    dans l'histoire de l'humanité
  • 1:33 - 1:38
    où, guidés par notre refus d'accepter
    les limites de nos corps et esprit,
  • 1:38 - 1:39
    nous construisons des machines
  • 1:39 - 1:43
    d'une complexité et d'une grâce
    exquises et magnifiques
  • 1:43 - 1:45
    qui étendront l'expérience humaine
  • 1:45 - 1:47
    bien au-delà de notre imagination.
  • 1:48 - 1:50
    Après une carrière qui m'a mené
    de l'Air Force Academy
  • 1:50 - 1:52
    au Space Command aujourd'hui,
  • 1:52 - 1:54
    je suis devenu ingénieur de systèmes
  • 1:54 - 1:57
    et j'ai récemment participé
    à un problème d'ingénierie
  • 1:57 - 1:59
    associé à la mission sur Mars de la NASA.
  • 1:59 - 2:02
    Pour les vols dans l'espace
    jusqu'à la Lune,
  • 2:02 - 2:05
    nous comptons sur le centre
    de contrôle de mission de Houston
  • 2:05 - 2:07
    pour surveiller tous les aspects du vol.
  • 2:07 - 2:11
    Cependant, Mars est à une distance
    200 fois plus importante
  • 2:11 - 2:14
    et le résultat est
    qu'il faut en moyenne 13 minutes
  • 2:14 - 2:17
    pour qu'un signal voyage
    de la Terre jusqu'à Mars.
  • 2:17 - 2:20
    S'il y a un problème,
    c'est beaucoup trop long.
  • 2:21 - 2:23
    Une solution d'ingénierie raisonnable
  • 2:23 - 2:26
    nous a poussés à placer
    le centre de contrôle de mission
  • 2:26 - 2:29
    entre les murs de l'engin spatial Orion.
  • 2:29 - 2:32
    Une autre idée fascinante
    dans le profil de la mission
  • 2:32 - 2:35
    place les robots humanoïdes
    sur la surface de Mars
  • 2:35 - 2:37
    avant l'arrivée des humains,
  • 2:37 - 2:38
    pour construire des infrastructures
  • 2:38 - 2:42
    puis servir de membres collaboratifs
    à l'équipe scientifique.
  • 2:43 - 2:46
    En observant cela
    d'un point de vue d'ingénieur,
  • 2:46 - 2:49
    il m'est clairement apparu
    que je devais concevoir
  • 2:49 - 2:52
    une intelligence artificielle
    intelligente, collaborative
  • 2:52 - 2:54
    et socialement intelligente.
  • 2:54 - 2:58
    En d'autres mots, je devais créer
    quelque chose ressemblant à HAL
  • 2:58 - 3:01
    mais sans tendances meurtrières.
  • 3:01 - 3:02
    (Rires)
  • 3:03 - 3:05
    Marquons un instant de pause.
  • 3:05 - 3:09
    Est-il réellement possible de créer
    une telle intelligence artificielle ?
  • 3:09 - 3:10
    C'est possible.
  • 3:10 - 3:11
    De bien des façons,
  • 3:11 - 3:13
    c'est un problème d'ingénierie complexe
  • 3:13 - 3:15
    avec un peu d'IA,
  • 3:15 - 3:20
    non pas un problème inextricable d'AI
    qui nécessite de l'ingénierie.
  • 3:20 - 3:22
    Pour paraphraser Alan Turing,
  • 3:22 - 3:25
    créer une machine sensible
    ne m'intéresse pas.
  • 3:25 - 3:26
    Je ne crée pas HAL.
  • 3:26 - 3:29
    Tout ce que je veux
    c'est un cerveau simple,
  • 3:29 - 3:32
    quelque chose qui offre
    l'illusion de l'intelligence.
  • 3:33 - 3:36
    L'art et la science de l'informatique
    ont beaucoup progressé
  • 3:36 - 3:38
    depuis que HAL était au cinéma.
  • 3:38 - 3:41
    J'imagine que si son inventeur,
    Dr Chandra était présent aujourd'hui,
  • 3:41 - 3:43
    il aurait beaucoup
    de questions à nous poser.
  • 3:43 - 3:45
    Est-il vraiment possible pour nous
  • 3:45 - 3:49
    de prendre un système de millions
    et millions d'appareils,
  • 3:49 - 3:51
    lire leurs flux de données,
  • 3:51 - 3:53
    prévoir leurs défaillances et agir avant ?
  • 3:53 - 3:54
    Oui.
  • 3:54 - 3:58
    Et créer des systèmes parlant
    avec les humains dans leur langue ?
  • 3:58 - 3:59
    Oui.
  • 3:59 - 4:02
    Et créer des systèmes reconnaissant
    les objets et les émotions,
  • 4:02 - 4:05
    étant eux-mêmes émotifs,
    jouant à des jeux, lisant sur les lèvres ?
  • 4:05 - 4:06
    Oui.
  • 4:07 - 4:09
    Et créer des systèmes
    établissant des objectifs,
  • 4:09 - 4:12
    mettant des plans en œuvre
    et apprenant au passage ?
  • 4:12 - 4:14
    Oui.
  • 4:14 - 4:17
    Et créer des systèmes
    qui ont une théorie de l'esprit ?
  • 4:17 - 4:18
    Nous apprenons à le faire.
  • 4:18 - 4:22
    Et créer des systèmes ayant
    des principes éthiques et moraux ?
  • 4:22 - 4:25
    Nous devons apprendre à le faire.
  • 4:25 - 4:27
    Acceptons un instant
  • 4:27 - 4:30
    qu'il soit possible de créer
    une telle intelligence artificielle
  • 4:30 - 4:32
    pour ce genre de missions et d'autres.
  • 4:32 - 4:34
    La question suivante
    qu'il faut se poser est :
  • 4:34 - 4:36
    devrions-nous la craindre ?
  • 4:36 - 4:38
    Toute nouvelle technologie
  • 4:38 - 4:41
    entraîne de l'inquiétude.
  • 4:41 - 4:42
    Au début des voitures,
  • 4:43 - 4:47
    les gens se lamentaient que nous voyions
    la destruction de la famille.
  • 4:47 - 4:49
    A l'arrivée des téléphones,
  • 4:49 - 4:52
    les gens craignaient
    la fin de toute conversation civile.
  • 4:52 - 4:56
    À un moment donné, les mots écrits
    sont devenus omniprésents,
  • 4:56 - 4:59
    les gens pensaient
    que nous perdrions notre mémoire.
  • 4:59 - 5:01
    Toutes ces choses sont en partie vraies,
  • 5:01 - 5:03
    mais ces technologies
  • 5:03 - 5:07
    ont aussi apporté des choses
    qui ont étendu l'expérience humaine
  • 5:07 - 5:08
    de façon profonde.
  • 5:10 - 5:12
    Allons un peu plus loin.
  • 5:13 - 5:18
    Je n'ai pas peur de la création
    d'une telle IA
  • 5:18 - 5:22
    car elle finira par incarner
    certaines de nos valeurs.
  • 5:22 - 5:23
    Considérez ceci :
  • 5:23 - 5:25
    créer un système cognitif
    est fondamentalement différent
  • 5:25 - 5:29
    de créer un système traditionnel
    plein de logiciels comme auparavant.
  • 5:29 - 5:31
    Nous ne les programmons pas,
    nous leur apprenons.
  • 5:31 - 5:34
    Afin d'apprendre à un système
    à reconnaître des fleurs,
  • 5:34 - 5:37
    je lui montre des milliers
    de fleurs que j'aime.
  • 5:37 - 5:39
    Afin d'apprendre à un système
    à jouer à un jeu --
  • 5:39 - 5:41
    Je le ferais, vous aussi.
  • 5:43 - 5:45
    J'aime les fleurs, allez.
  • 5:45 - 5:48
    Pour apprendre à un système
    à jouer au jeu de Go,
  • 5:48 - 5:50
    je devrais jouer des milliers
    de parties de Go
  • 5:50 - 5:52
    mais au passage, je lui apprends
  • 5:52 - 5:54
    à discerner un bon mouvement d'un mauvais.
  • 5:55 - 5:58
    Si je veux créer une intelligence
    artificielle assistante juridique,
  • 5:58 - 6:00
    je lui apprendrais des corpus de loi
  • 6:00 - 6:03
    mais en même temps, je lie cela
  • 6:03 - 6:06
    à la compassion et la justice
    qui font partie de la loi.
  • 6:07 - 6:10
    En termes scientifiques,
    cela s'appelle des vérités fondamentales
  • 6:10 - 6:12
    et voici ce qui est important :
  • 6:12 - 6:13
    en produisant ces machines,
  • 6:13 - 6:16
    nous leur enseignons
    une partie de nos valeurs.
  • 6:17 - 6:20
    Pour cela, j'ai autant confiance,
    si ce n'est pas plus,
  • 6:20 - 6:23
    en une intelligence artificielle
    qu'en un être humain bien entraîné.
  • 6:24 - 6:25
    Vous allez demander :
  • 6:25 - 6:28
    qu'en est-il des hors-la-loi,
  • 6:28 - 6:31
    des quelques organisations
    non gouvernementales bien financées ?
  • 6:31 - 6:34
    Je n'ai pas peur
    d'une intelligence artificielle
  • 6:34 - 6:35
    dans les mains d'un seul individu.
  • 6:35 - 6:40
    Nous ne pouvons pas nous protéger
    des actes de violence aveugles,
  • 6:40 - 6:42
    mais un tel système
  • 6:42 - 6:45
    requiert un entraînement
    substantiel et raffiné
  • 6:45 - 6:47
    qui va bien au-delà
    des ressources d'un individu.
  • 6:47 - 6:49
    En outre,
  • 6:49 - 6:52
    il s'agit de bien plus que d'injecter
    un virus internet au monde
  • 6:52 - 6:55
    où en appuyant sur une touche,
    il se retrouve à des millions d'endroits
  • 6:55 - 6:57
    et des ordinateurs explosent
    un peu partout.
  • 6:57 - 7:00
    Ce genre de substances
    sont bien plus grandes
  • 7:00 - 7:02
    et nous les verrons sûrement venir.
  • 7:03 - 7:06
    Ai-je peur qu'une telle
    intelligence artificielle
  • 7:06 - 7:08
    menace l'humanité ?
  • 7:08 - 7:13
    Si vous regardez des films
    tels que « Matrix », « Metropolis »,
  • 7:13 - 7:16
    « Terminator » ou des séries
    telles que « Westworld »,
  • 7:16 - 7:18
    ils évoquent tous ce genre de peur.
  • 7:18 - 7:22
    Dans le livre « Superintelligence »
    du philosophe Nick Bostrom,
  • 7:22 - 7:24
    il évoque ce thème
  • 7:24 - 7:28
    et note qu'une super-intelligence
    pourrait être non seulement dangereuse,
  • 7:28 - 7:32
    mais représenter une menace existentielle
    envers l'humanité tout entière.
  • 7:32 - 7:34
    L'argument fondamental
    du docteur Bostrom
  • 7:34 - 7:37
    est que de tels systèmes finiront
  • 7:37 - 7:40
    par avoir une telle soif
    insatiable d'informations
  • 7:40 - 7:43
    qu'ils apprendront peut-être à apprendre
  • 7:43 - 7:46
    et finiront par découvrir
    qu'ils ont des objectifs
  • 7:46 - 7:48
    qui sont contraires aux besoins humains.
  • 7:48 - 7:50
    Le docteur Bostrom a des partisans.
  • 7:50 - 7:54
    Il est soutenu par des gens
    tels qu'Elon Musk et Stephen Hawking.
  • 7:55 - 7:57
    Avec tout le respect dû
  • 7:58 - 8:00
    à ces brillants esprits,
  • 8:00 - 8:02
    je crois qu'ils ont fondamentalement tort.
  • 8:02 - 8:06
    L'argument du Dr Bostrom
    contient nombre d'éléments à décortiquer
  • 8:06 - 8:08
    et je n'ai pas le temps pour tous,
  • 8:08 - 8:11
    mais, brièvement, considérez ceci :
  • 8:11 - 8:14
    un super-savoir est très différent
    d'une super-action.
  • 8:14 - 8:16
    HAL était une menace pour l'équipage
  • 8:16 - 8:21
    uniquement s'il commandait
    tous les aspects de Discovery.
  • 8:21 - 8:23
    C'en est de même
    pour une super-intelligence.
  • 8:23 - 8:26
    Il lui faudrait des réplications
    dans le monde entier.
  • 8:26 - 8:29
    C'est le truc avec Skynet
    dans le fim « Terminator »
  • 8:29 - 8:30
    où nous avons une super-intelligence
  • 8:30 - 8:32
    commandant la volonté humaine,
  • 8:32 - 8:36
    contrôlant tous les appareils
    à tous les coins du monde.
  • 8:36 - 8:37
    D'un point de vue pratique,
  • 8:37 - 8:39
    cela n'arrivera pas.
  • 8:39 - 8:42
    Nous ne créons pas d'AI
    qui contrôle la météo,
  • 8:42 - 8:44
    qui dirige les vagues,
  • 8:44 - 8:47
    qui nous commande,
    nous humains capricieux et chaotiques.
  • 8:47 - 8:51
    En outre, si une telle
    intelligence artificielle existait,
  • 8:51 - 8:54
    elle devrait rivaliser
    avec les économies humaines
  • 8:54 - 8:57
    et se battre contre nous
    pour des ressources.
  • 8:57 - 8:58
    Au final --
  • 8:58 - 9:00
    ne le dites pas à Siri --
  • 9:00 - 9:02
    on peut toujours les débrancher.
  • 9:02 - 9:04
    (Rires)
  • 9:05 - 9:08
    Nous participons à un voyage incroyable
  • 9:08 - 9:10
    de coévolution avec nos machines.
  • 9:10 - 9:13
    Les humains que nous sommes aujourd'hui
  • 9:13 - 9:15
    ne sont pas les humains de demain.
  • 9:15 - 9:19
    S'inquiéter maintenant
    de l'essor d'une super-intelligence
  • 9:19 - 9:22
    est, de bien des façons,
    une distraction dangereuse
  • 9:22 - 9:24
    car l'essor de l'informatique lui-même
  • 9:24 - 9:27
    nous amène nombre de problèmes
    humains et sociétaux
  • 9:27 - 9:29
    dont nous devons nous occuper.
  • 9:29 - 9:32
    Comment organiser au mieux la société
  • 9:32 - 9:35
    quand le besoin
    de travail humain diminue ?
  • 9:35 - 9:38
    Comment apporter compréhension
    et éducation à travers le monde
  • 9:38 - 9:40
    tout en respectant les différences ?
  • 9:40 - 9:43
    Comment étendre
    et améliorer la vie humaine
  • 9:43 - 9:44
    grâce à la médecine cognitive ?
  • 9:44 - 9:47
    Comment utiliser l'informatique
  • 9:47 - 9:49
    pour nous envoyer dans les étoiles ?
  • 9:50 - 9:52
    C'est cela qui est excitant.
  • 9:52 - 9:56
    Les opportunités d'utiliser l'informatique
    pour faire progresser l'expérience humaine
  • 9:56 - 9:58
    sont à notre portée,
  • 9:58 - 10:00
    ici et maintenant,
  • 10:00 - 10:01
    et nous ne faisons que commencer.
  • 10:02 - 10:03
    Merci beaucoup.
  • 10:04 - 10:08
    (Applaudissements)
Title:
Ne craignez pas une IA super-intelligente
Speaker:
Grady Booch
Description:

Les nouvelles technologies engendrent de nouvelles craintes, dit le scientifique et philosophe Grady Booch, mais nous n'avons pas à craindre une IA toute puissante et sans émotions. Il calme nos pires peurs (induites par la science-fiction) quant aux ordinateurs super-intelligents en expliquant comment nous leur apprendrons, et ne les programmerons pas, à partager nos valeurs. Plutôt que de s'inquiéter d'une menace existentielle peu probable, il nous incite à considérer comment l'intelligence artificielle améliorera la vie humaine.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
eric vautier edited French subtitles for Don't fear superintelligent AI
Fatima Zahra El Hafa accepted French subtitles for Don't fear superintelligent AI
Fatima Zahra El Hafa edited French subtitles for Don't fear superintelligent AI
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI

French subtitles

Revisions