Quand j'étais enfant,
j'étais l'exemple parfait de l'intello.
Certains d'entre vous
devaient l'être aussi.
(Rires)
Et vous, monsieur, qui avez ri
le plus fort, devez encore l'être.
(Rires)
J'ai grandi dans une petite ville
des plaines poussiéreuses du Texas,
fils d'un shérif
qui était fils de pasteur.
Hors de question de m'attirer des ennuis.
J'ai donc commencé à lire
des livres de calcul pour le plaisir.
(Rires)
Vous aussi.
Cela m'a mené à créer un laser,
un ordinateur et des micro fusées
et à faire du carburant
pour les fusées dans ma chambre.
En termes scientifiques,
cela s'appelle une très mauvaise idée.
(Rires)
A peu près au même moment,
« 2001 : l'odyssée de l'espace »
de Stanley Kubrick est sorti
et cela a changé ma vie.
J'aimais tout dans ce film,
en particulier HAL 9000.
HAL était un ordinateur sensible
conçu pour guider Discovery,
le vaisseau spatial,
de la Terre à Jupiter.
HAL était aussi un personnage imparfait
puisqu'à la fin, il choisissait
la valeur de la mission
plutôt que la vie humaine.
HAL était un personnage de fiction
mais il s'adresse malgré tout à nos peurs,
nos peurs d'être assujettis
par une intelligence artificielle
sans émotions
qui est indifférente à notre humanité.
Je crois que de telles peurs
sont infondées.
En fait, nous vivons un moment remarquable
dans l'histoire de l'humanité
où, guidés par notre refus d'accepter
les limites de nos corps et esprit,
nous construisons des machines
d'une complexité et d'une grâce
exquises et magnifiques
qui étendront l'expérience humaine
bien au-delà de notre imagination.
Après une carrière qui m'a mené
de l'Air Force Academy
au Space Command aujourd'hui,
je suis devenu ingénieur de systèmes
et j'ai récemment participé
à un problème d'ingénierie
associé à la mission sur Mars de la NASA.
Pour les vols dans l'espace
jusqu'à la Lune,
nous comptons sur le centre
de contrôle de mission de Houston
pour surveiller tous les aspects du vol.
Cependant, Mars est à une distance
200 fois plus importante
et le résultat est
qu'il faut en moyenne 13 minutes
pour qu'un signal voyage
de la Terre jusqu'à Mars.
S'il y a un problème,
c'est beaucoup trop long.
Une solution d'ingénierie raisonnable
nous a poussés à placer
le centre de contrôle de mission
entre les murs de l'engin spatial Orion.
Une autre idée fascinante
dans le profil de la mission
place les robots humanoïdes
sur la surface de Mars
avant l'arrivée des humains,
pour construire des infrastructures
puis servir de membres collaboratifs
à l'équipe scientifique.
En observant cela
d'un point de vue d'ingénieur,
il m'est clairement apparu
que je devais concevoir
une intelligence artificielle
intelligente, collaborative
et socialement intelligente.
En d'autres mots, je devais créer
quelque chose ressemblant à HAL
mais sans tendances meurtrières.
(Rires)
Marquons un instant de pause.
Est-il réellement possible de créer
une telle intelligence artificielle ?
C'est possible.
De bien des façons,
c'est un problème d'ingénierie complexe
avec un peu d'IA,
non pas un problème inextricable d'AI
qui nécessite de l'ingénierie.
Pour paraphraser Alan Turing,
créer une machine sensible
ne m'intéresse pas.
Je ne crée pas HAL.
Tout ce que je veux
c'est un cerveau simple,
quelque chose qui offre
l'illusion de l'intelligence.
L'art et la science de l'informatique
ont beaucoup progressé
depuis que HAL était au cinéma.
J'imagine que si son inventeur,
Dr Chandra était présent aujourd'hui,
il aurait beaucoup
de questions à nous poser.
Est-il vraiment possible pour nous
de prendre un système de millions
et millions d'appareils,
lire leurs flux de données,
prévoir leurs défaillances et agir avant ?
Oui.
Et créer des systèmes parlant
avec les humains dans leur langue ?
Oui.
Et créer des systèmes reconnaissant
les objets et les émotions,
étant eux-mêmes émotifs,
jouant à des jeux, lisant sur les lèvres ?
Oui.
Et créer des systèmes
établissant des objectifs,
mettant des plans en œuvre
et apprenant au passage ?
Oui.
Et créer des systèmes
qui ont une théorie de l'esprit ?
Nous apprenons à le faire.
Et créer des systèmes ayant
des principes éthiques et moraux ?
Nous devons apprendre à le faire.
Acceptons un instant
qu'il soit possible de créer
une telle intelligence artificielle
pour ce genre de missions et d'autres.
La question suivante
qu'il faut se poser est :
devrions-nous la craindre ?
Toute nouvelle technologie
entraîne de l'inquiétude.
Au début des voitures,
les gens se lamentaient que nous voyions
la destruction de la famille.
A l'arrivée des téléphones,
les gens craignaient
la fin de toute conversation civile.
À un moment donné, les mots écrits
sont devenus omniprésents,
les gens pensaient
que nous perdrions notre mémoire.
Toutes ces choses sont en partie vraies,
mais ces technologies
ont aussi apporté des choses
qui ont étendu l'expérience humaine
de façon profonde.
Allons un peu plus loin.
Je n'ai pas peur de la création
d'une telle IA
car elle finira par incarner
certaines de nos valeurs.
Considérez ceci :
créer un système cognitif
est fondamentalement différent
de créer un système traditionnel
plein de logiciels comme auparavant.
Nous ne les programmons pas,
nous leur apprenons.
Afin d'apprendre à un système
à reconnaître des fleurs,
je lui montre des milliers
de fleurs que j'aime.
Afin d'apprendre à un système
à jouer à un jeu --
Je le ferais, vous aussi.
J'aime les fleurs, allez.
Pour apprendre à un système
à jouer au jeu de Go,
je devrais jouer des milliers
de parties de Go
mais au passage, je lui apprends
à discerner un bon mouvement d'un mauvais.
Si je veux créer une intelligence
artificielle assistante juridique,
je lui apprendrais des corpus de loi
mais en même temps, je lie cela
à la compassion et la justice
qui font partie de la loi.
En termes scientifiques,
cela s'appelle des vérités fondamentales
et voici ce qui est important :
en produisant ces machines,
nous leur enseignons
une partie de nos valeurs.
Pour cela, j'ai autant confiance,
si ce n'est pas plus,
en une intelligence artificielle
qu'en un être humain bien entraîné.
Vous allez demander :
qu'en est-il des hors-la-loi,
des quelques organisations
non gouvernementales bien financées ?
Je n'ai pas peur
d'une intelligence artificielle
dans les mains d'un seul individu.
Nous ne pouvons pas nous protéger
des actes de violence aveugles,
mais un tel système
requiert un entraînement
substantiel et raffiné
qui va bien au-delà
des ressources d'un individu.
En outre,
il s'agit de bien plus que d'injecter
un virus internet au monde
où en appuyant sur une touche,
il se retrouve à des millions d'endroits
et des ordinateurs explosent
un peu partout.
Ce genre de substances
sont bien plus grandes
et nous les verrons sûrement venir.
Ai-je peur qu'une telle
intelligence artificielle
menace l'humanité ?
Si vous regardez des films
tels que « Matrix », « Metropolis »,
« Terminator » ou des séries
telles que « Westworld »,
ils évoquent tous ce genre de peur.
Dans le livre « Superintelligence »
du philosophe Nick Bostrom,
il évoque ce thème
et note qu'une super-intelligence
pourrait être non seulement dangereuse,
mais représenter une menace existentielle
envers l'humanité tout entière.
L'argument fondamental
du docteur Bostrom
est que de tels systèmes finiront
par avoir une telle soif
insatiable d'informations
qu'ils apprendront peut-être à apprendre
et finiront par découvrir
qu'ils ont des objectifs
qui sont contraires aux besoins humains.
Le docteur Bostrom a des partisans.
Il est soutenu par des gens
tels qu'Elon Musk et Stephen Hawking.
Avec tout le respect dû
à ces brillants esprits,
je crois qu'ils ont fondamentalement tort.
L'argument du Dr Bostrom
contient nombre d'éléments à décortiquer
et je n'ai pas le temps pour tous,
mais, brièvement, considérez ceci :
un super-savoir est très différent
d'une super-action.
HAL était une menace pour l'équipage
uniquement s'il commandait
tous les aspects de Discovery.
C'en est de même
pour une super-intelligence.
Il lui faudrait des réplications
dans le monde entier.
C'est le truc avec Skynet
dans le fim « Terminator »
où nous avons une super-intelligence
commandant la volonté humaine,
contrôlant tous les appareils
à tous les coins du monde.
D'un point de vue pratique,
cela n'arrivera pas.
Nous ne créons pas d'AI
qui contrôle la météo,
qui dirige les vagues,
qui nous commande,
nous humains capricieux et chaotiques.
En outre, si une telle
intelligence artificielle existait,
elle devrait rivaliser
avec les économies humaines
et se battre contre nous
pour des ressources.
Au final --
ne le dites pas à Siri --
on peut toujours les débrancher.
(Rires)
Nous participons à un voyage incroyable
de coévolution avec nos machines.
Les humains que nous sommes aujourd'hui
ne sont pas les humains de demain.
S'inquiéter maintenant
de l'essor d'une super-intelligence
est, de bien des façons,
une distraction dangereuse
car l'essor de l'informatique lui-même
nous amène nombre de problèmes
humains et sociétaux
dont nous devons nous occuper.
Comment organiser au mieux la société
quand le besoin
de travail humain diminue ?
Comment apporter compréhension
et éducation à travers le monde
tout en respectant les différences ?
Comment étendre
et améliorer la vie humaine
grâce à la médecine cognitive ?
Comment utiliser l'informatique
pour nous envoyer dans les étoiles ?
C'est cela qui est excitant.
Les opportunités d'utiliser l'informatique
pour faire progresser l'expérience humaine
sont à notre portée,
ici et maintenant,
et nous ne faisons que commencer.
Merci beaucoup.
(Applaudissements)