Ne craignez pas une IA super-intelligente
-
0:01 - 0:05Quand j'étais enfant,
j'étais l'exemple parfait de l'intello. -
0:05 - 0:07Certains d'entre vous
devaient l'être aussi. -
0:08 - 0:09(Rires)
-
0:09 - 0:12Et vous, monsieur, qui avez ri
le plus fort, devez encore l'être. -
0:12 - 0:14(Rires)
-
0:14 - 0:18J'ai grandi dans une petite ville
des plaines poussiéreuses du Texas, -
0:18 - 0:21fils d'un shérif
qui était fils de pasteur. -
0:21 - 0:23Hors de question de m'attirer des ennuis.
-
0:24 - 0:27J'ai donc commencé à lire
des livres de calcul pour le plaisir. -
0:27 - 0:29(Rires)
-
0:29 - 0:31Vous aussi.
-
0:31 - 0:34Cela m'a mené à créer un laser,
un ordinateur et des micro fusées -
0:34 - 0:37et à faire du carburant
pour les fusées dans ma chambre. -
0:38 - 0:42En termes scientifiques,
-
0:42 - 0:45cela s'appelle une très mauvaise idée.
-
0:45 - 0:46(Rires)
-
0:46 - 0:48A peu près au même moment,
-
0:48 - 0:52« 2001 : l'odyssée de l'espace »
de Stanley Kubrick est sorti -
0:52 - 0:54et cela a changé ma vie.
-
0:54 - 0:56J'aimais tout dans ce film,
-
0:56 - 0:59en particulier HAL 9000.
-
0:59 - 1:01HAL était un ordinateur sensible
-
1:01 - 1:03conçu pour guider Discovery,
le vaisseau spatial, -
1:03 - 1:06de la Terre à Jupiter.
-
1:06 - 1:08HAL était aussi un personnage imparfait
-
1:08 - 1:10puisqu'à la fin, il choisissait
-
1:10 - 1:13la valeur de la mission
plutôt que la vie humaine. -
1:13 - 1:15HAL était un personnage de fiction
-
1:15 - 1:18mais il s'adresse malgré tout à nos peurs,
-
1:18 - 1:20nos peurs d'être assujettis
-
1:20 - 1:23par une intelligence artificielle
sans émotions -
1:23 - 1:25qui est indifférente à notre humanité.
-
1:26 - 1:28Je crois que de telles peurs
sont infondées. -
1:28 - 1:31En fait, nous vivons un moment remarquable
-
1:31 - 1:33dans l'histoire de l'humanité
-
1:33 - 1:38où, guidés par notre refus d'accepter
les limites de nos corps et esprit, -
1:38 - 1:39nous construisons des machines
-
1:39 - 1:43d'une complexité et d'une grâce
exquises et magnifiques -
1:43 - 1:45qui étendront l'expérience humaine
-
1:45 - 1:47bien au-delà de notre imagination.
-
1:48 - 1:50Après une carrière qui m'a mené
de l'Air Force Academy -
1:50 - 1:52au Space Command aujourd'hui,
-
1:52 - 1:54je suis devenu ingénieur de systèmes
-
1:54 - 1:57et j'ai récemment participé
à un problème d'ingénierie -
1:57 - 1:59associé à la mission sur Mars de la NASA.
-
1:59 - 2:02Pour les vols dans l'espace
jusqu'à la Lune, -
2:02 - 2:05nous comptons sur le centre
de contrôle de mission de Houston -
2:05 - 2:07pour surveiller tous les aspects du vol.
-
2:07 - 2:11Cependant, Mars est à une distance
200 fois plus importante -
2:11 - 2:14et le résultat est
qu'il faut en moyenne 13 minutes -
2:14 - 2:17pour qu'un signal voyage
de la Terre jusqu'à Mars. -
2:17 - 2:20S'il y a un problème,
c'est beaucoup trop long. -
2:21 - 2:23Une solution d'ingénierie raisonnable
-
2:23 - 2:26nous a poussés à placer
le centre de contrôle de mission -
2:26 - 2:29entre les murs de l'engin spatial Orion.
-
2:29 - 2:32Une autre idée fascinante
dans le profil de la mission -
2:32 - 2:35place les robots humanoïdes
sur la surface de Mars -
2:35 - 2:37avant l'arrivée des humains,
-
2:37 - 2:38pour construire des infrastructures
-
2:38 - 2:42puis servir de membres collaboratifs
à l'équipe scientifique. -
2:43 - 2:46En observant cela
d'un point de vue d'ingénieur, -
2:46 - 2:49il m'est clairement apparu
que je devais concevoir -
2:49 - 2:52une intelligence artificielle
intelligente, collaborative -
2:52 - 2:54et socialement intelligente.
-
2:54 - 2:58En d'autres mots, je devais créer
quelque chose ressemblant à HAL -
2:58 - 3:01mais sans tendances meurtrières.
-
3:01 - 3:02(Rires)
-
3:03 - 3:05Marquons un instant de pause.
-
3:05 - 3:09Est-il réellement possible de créer
une telle intelligence artificielle ? -
3:09 - 3:10C'est possible.
-
3:10 - 3:11De bien des façons,
-
3:11 - 3:13c'est un problème d'ingénierie complexe
-
3:13 - 3:15avec un peu d'IA,
-
3:15 - 3:20non pas un problème inextricable d'AI
qui nécessite de l'ingénierie. -
3:20 - 3:22Pour paraphraser Alan Turing,
-
3:22 - 3:25créer une machine sensible
ne m'intéresse pas. -
3:25 - 3:26Je ne crée pas HAL.
-
3:26 - 3:29Tout ce que je veux
c'est un cerveau simple, -
3:29 - 3:32quelque chose qui offre
l'illusion de l'intelligence. -
3:33 - 3:36L'art et la science de l'informatique
ont beaucoup progressé -
3:36 - 3:38depuis que HAL était au cinéma.
-
3:38 - 3:41J'imagine que si son inventeur,
Dr Chandra était présent aujourd'hui, -
3:41 - 3:43il aurait beaucoup
de questions à nous poser. -
3:43 - 3:45Est-il vraiment possible pour nous
-
3:45 - 3:49de prendre un système de millions
et millions d'appareils, -
3:49 - 3:51lire leurs flux de données,
-
3:51 - 3:53prévoir leurs défaillances et agir avant ?
-
3:53 - 3:54Oui.
-
3:54 - 3:58Et créer des systèmes parlant
avec les humains dans leur langue ? -
3:58 - 3:59Oui.
-
3:59 - 4:02Et créer des systèmes reconnaissant
les objets et les émotions, -
4:02 - 4:05étant eux-mêmes émotifs,
jouant à des jeux, lisant sur les lèvres ? -
4:05 - 4:06Oui.
-
4:07 - 4:09Et créer des systèmes
établissant des objectifs, -
4:09 - 4:12mettant des plans en œuvre
et apprenant au passage ? -
4:12 - 4:14Oui.
-
4:14 - 4:17Et créer des systèmes
qui ont une théorie de l'esprit ? -
4:17 - 4:18Nous apprenons à le faire.
-
4:18 - 4:22Et créer des systèmes ayant
des principes éthiques et moraux ? -
4:22 - 4:25Nous devons apprendre à le faire.
-
4:25 - 4:27Acceptons un instant
-
4:27 - 4:30qu'il soit possible de créer
une telle intelligence artificielle -
4:30 - 4:32pour ce genre de missions et d'autres.
-
4:32 - 4:34La question suivante
qu'il faut se poser est : -
4:34 - 4:36devrions-nous la craindre ?
-
4:36 - 4:38Toute nouvelle technologie
-
4:38 - 4:41entraîne de l'inquiétude.
-
4:41 - 4:42Au début des voitures,
-
4:43 - 4:47les gens se lamentaient que nous voyions
la destruction de la famille. -
4:47 - 4:49A l'arrivée des téléphones,
-
4:49 - 4:52les gens craignaient
la fin de toute conversation civile. -
4:52 - 4:56À un moment donné, les mots écrits
sont devenus omniprésents, -
4:56 - 4:59les gens pensaient
que nous perdrions notre mémoire. -
4:59 - 5:01Toutes ces choses sont en partie vraies,
-
5:01 - 5:03mais ces technologies
-
5:03 - 5:07ont aussi apporté des choses
qui ont étendu l'expérience humaine -
5:07 - 5:08de façon profonde.
-
5:10 - 5:12Allons un peu plus loin.
-
5:13 - 5:18Je n'ai pas peur de la création
d'une telle IA -
5:18 - 5:22car elle finira par incarner
certaines de nos valeurs. -
5:22 - 5:23Considérez ceci :
-
5:23 - 5:25créer un système cognitif
est fondamentalement différent -
5:25 - 5:29de créer un système traditionnel
plein de logiciels comme auparavant. -
5:29 - 5:31Nous ne les programmons pas,
nous leur apprenons. -
5:31 - 5:34Afin d'apprendre à un système
à reconnaître des fleurs, -
5:34 - 5:37je lui montre des milliers
de fleurs que j'aime. -
5:37 - 5:39Afin d'apprendre à un système
à jouer à un jeu -- -
5:39 - 5:41Je le ferais, vous aussi.
-
5:43 - 5:45J'aime les fleurs, allez.
-
5:45 - 5:48Pour apprendre à un système
à jouer au jeu de Go, -
5:48 - 5:50je devrais jouer des milliers
de parties de Go -
5:50 - 5:52mais au passage, je lui apprends
-
5:52 - 5:54à discerner un bon mouvement d'un mauvais.
-
5:55 - 5:58Si je veux créer une intelligence
artificielle assistante juridique, -
5:58 - 6:00je lui apprendrais des corpus de loi
-
6:00 - 6:03mais en même temps, je lie cela
-
6:03 - 6:06à la compassion et la justice
qui font partie de la loi. -
6:07 - 6:10En termes scientifiques,
cela s'appelle des vérités fondamentales -
6:10 - 6:12et voici ce qui est important :
-
6:12 - 6:13en produisant ces machines,
-
6:13 - 6:16nous leur enseignons
une partie de nos valeurs. -
6:17 - 6:20Pour cela, j'ai autant confiance,
si ce n'est pas plus, -
6:20 - 6:23en une intelligence artificielle
qu'en un être humain bien entraîné. -
6:24 - 6:25Vous allez demander :
-
6:25 - 6:28qu'en est-il des hors-la-loi,
-
6:28 - 6:31des quelques organisations
non gouvernementales bien financées ? -
6:31 - 6:34Je n'ai pas peur
d'une intelligence artificielle -
6:34 - 6:35dans les mains d'un seul individu.
-
6:35 - 6:40Nous ne pouvons pas nous protéger
des actes de violence aveugles, -
6:40 - 6:42mais un tel système
-
6:42 - 6:45requiert un entraînement
substantiel et raffiné -
6:45 - 6:47qui va bien au-delà
des ressources d'un individu. -
6:47 - 6:49En outre,
-
6:49 - 6:52il s'agit de bien plus que d'injecter
un virus internet au monde -
6:52 - 6:55où en appuyant sur une touche,
il se retrouve à des millions d'endroits -
6:55 - 6:57et des ordinateurs explosent
un peu partout. -
6:57 - 7:00Ce genre de substances
sont bien plus grandes -
7:00 - 7:02et nous les verrons sûrement venir.
-
7:03 - 7:06Ai-je peur qu'une telle
intelligence artificielle -
7:06 - 7:08menace l'humanité ?
-
7:08 - 7:13Si vous regardez des films
tels que « Matrix », « Metropolis », -
7:13 - 7:16« Terminator » ou des séries
telles que « Westworld », -
7:16 - 7:18ils évoquent tous ce genre de peur.
-
7:18 - 7:22Dans le livre « Superintelligence »
du philosophe Nick Bostrom, -
7:22 - 7:24il évoque ce thème
-
7:24 - 7:28et note qu'une super-intelligence
pourrait être non seulement dangereuse, -
7:28 - 7:32mais représenter une menace existentielle
envers l'humanité tout entière. -
7:32 - 7:34L'argument fondamental
du docteur Bostrom -
7:34 - 7:37est que de tels systèmes finiront
-
7:37 - 7:40par avoir une telle soif
insatiable d'informations -
7:40 - 7:43qu'ils apprendront peut-être à apprendre
-
7:43 - 7:46et finiront par découvrir
qu'ils ont des objectifs -
7:46 - 7:48qui sont contraires aux besoins humains.
-
7:48 - 7:50Le docteur Bostrom a des partisans.
-
7:50 - 7:54Il est soutenu par des gens
tels qu'Elon Musk et Stephen Hawking. -
7:55 - 7:57Avec tout le respect dû
-
7:58 - 8:00à ces brillants esprits,
-
8:00 - 8:02je crois qu'ils ont fondamentalement tort.
-
8:02 - 8:06L'argument du Dr Bostrom
contient nombre d'éléments à décortiquer -
8:06 - 8:08et je n'ai pas le temps pour tous,
-
8:08 - 8:11mais, brièvement, considérez ceci :
-
8:11 - 8:14un super-savoir est très différent
d'une super-action. -
8:14 - 8:16HAL était une menace pour l'équipage
-
8:16 - 8:21uniquement s'il commandait
tous les aspects de Discovery. -
8:21 - 8:23C'en est de même
pour une super-intelligence. -
8:23 - 8:26Il lui faudrait des réplications
dans le monde entier. -
8:26 - 8:29C'est le truc avec Skynet
dans le fim « Terminator » -
8:29 - 8:30où nous avons une super-intelligence
-
8:30 - 8:32commandant la volonté humaine,
-
8:32 - 8:36contrôlant tous les appareils
à tous les coins du monde. -
8:36 - 8:37D'un point de vue pratique,
-
8:37 - 8:39cela n'arrivera pas.
-
8:39 - 8:42Nous ne créons pas d'AI
qui contrôle la météo, -
8:42 - 8:44qui dirige les vagues,
-
8:44 - 8:47qui nous commande,
nous humains capricieux et chaotiques. -
8:47 - 8:51En outre, si une telle
intelligence artificielle existait, -
8:51 - 8:54elle devrait rivaliser
avec les économies humaines -
8:54 - 8:57et se battre contre nous
pour des ressources. -
8:57 - 8:58Au final --
-
8:58 - 9:00ne le dites pas à Siri --
-
9:00 - 9:02on peut toujours les débrancher.
-
9:02 - 9:04(Rires)
-
9:05 - 9:08Nous participons à un voyage incroyable
-
9:08 - 9:10de coévolution avec nos machines.
-
9:10 - 9:13Les humains que nous sommes aujourd'hui
-
9:13 - 9:15ne sont pas les humains de demain.
-
9:15 - 9:19S'inquiéter maintenant
de l'essor d'une super-intelligence -
9:19 - 9:22est, de bien des façons,
une distraction dangereuse -
9:22 - 9:24car l'essor de l'informatique lui-même
-
9:24 - 9:27nous amène nombre de problèmes
humains et sociétaux -
9:27 - 9:29dont nous devons nous occuper.
-
9:29 - 9:32Comment organiser au mieux la société
-
9:32 - 9:35quand le besoin
de travail humain diminue ? -
9:35 - 9:38Comment apporter compréhension
et éducation à travers le monde -
9:38 - 9:40tout en respectant les différences ?
-
9:40 - 9:43Comment étendre
et améliorer la vie humaine -
9:43 - 9:44grâce à la médecine cognitive ?
-
9:44 - 9:47Comment utiliser l'informatique
-
9:47 - 9:49pour nous envoyer dans les étoiles ?
-
9:50 - 9:52C'est cela qui est excitant.
-
9:52 - 9:56Les opportunités d'utiliser l'informatique
pour faire progresser l'expérience humaine -
9:56 - 9:58sont à notre portée,
-
9:58 - 10:00ici et maintenant,
-
10:00 - 10:01et nous ne faisons que commencer.
-
10:02 - 10:03Merci beaucoup.
-
10:04 - 10:08(Applaudissements)
- Title:
- Ne craignez pas une IA super-intelligente
- Speaker:
- Grady Booch
- Description:
-
Les nouvelles technologies engendrent de nouvelles craintes, dit le scientifique et philosophe Grady Booch, mais nous n'avons pas à craindre une IA toute puissante et sans émotions. Il calme nos pires peurs (induites par la science-fiction) quant aux ordinateurs super-intelligents en expliquant comment nous leur apprendrons, et ne les programmerons pas, à partager nos valeurs. Plutôt que de s'inquiéter d'une menace existentielle peu probable, il nous incite à considérer comment l'intelligence artificielle améliorera la vie humaine.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
eric vautier edited French subtitles for Don't fear superintelligent AI | ||
Fatima Zahra El Hafa accepted French subtitles for Don't fear superintelligent AI | ||
Fatima Zahra El Hafa edited French subtitles for Don't fear superintelligent AI | ||
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI | ||
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI | ||
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI | ||
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI | ||
Morgane Quilfen edited French subtitles for Don't fear superintelligent AI |