Quand j'étais enfant, j'étais l'exemple parfait de l'intello. Certains d'entre vous devaient l'être aussi. (Rires) Et vous, monsieur, qui avez ri le plus fort, devez encore l'être. (Rires) J'ai grandi dans une petite ville des plaines poussiéreuses du Texas, fils d'un shérif qui était fils de pasteur. Hors de question de m'attirer des ennuis. J'ai donc commencé à lire des livres de calcul pour le plaisir. (Rires) Vous aussi. Cela m'a mené à créer un laser, un ordinateur et des micro fusées et à faire du carburant pour les fusées dans ma chambre. En termes scientifiques, cela s'appelle une très mauvaise idée. (Rires) A peu près au même moment, « 2001 : l'odyssée de l'espace » de Stanley Kubrick est sorti et cela a changé ma vie. J'aimais tout dans ce film, en particulier HAL 9000. HAL était un ordinateur sensible conçu pour guider Discovery, le vaisseau spatial, de la Terre à Jupiter. HAL était aussi un personnage imparfait puisqu'à la fin, il choisissait la valeur de la mission plutôt que la vie humaine. HAL était un personnage de fiction mais il s'adresse malgré tout à nos peurs, nos peurs d'être assujettis par une intelligence artificielle sans émotions qui est indifférente à notre humanité. Je crois que de telles peurs sont infondées. En fait, nous vivons un moment remarquable dans l'histoire de l'humanité où, guidés par notre refus d'accepter les limites de nos corps et esprit, nous construisons des machines d'une complexité et d'une grâce exquises et magnifiques qui étendront l'expérience humaine bien au-delà de notre imagination. Après une carrière qui m'a mené de l'Air Force Academy au Space Command aujourd'hui, je suis devenu ingénieur de systèmes et j'ai récemment participé à un problème d'ingénierie associé à la mission sur Mars de la NASA. Pour les vols dans l'espace jusqu'à la Lune, nous comptons sur le centre de contrôle de mission de Houston pour surveiller tous les aspects du vol. Cependant, Mars est à une distance 200 fois plus importante et le résultat est qu'il faut en moyenne 13 minutes pour qu'un signal voyage de la Terre jusqu'à Mars. S'il y a un problème, c'est beaucoup trop long. Une solution d'ingénierie raisonnable nous a poussés à placer le centre de contrôle de mission entre les murs de l'engin spatial Orion. Une autre idée fascinante dans le profil de la mission place les robots humanoïdes sur la surface de Mars avant l'arrivée des humains, pour construire des infrastructures puis servir de membres collaboratifs à l'équipe scientifique. En observant cela d'un point de vue d'ingénieur, il m'est clairement apparu que je devais concevoir une intelligence artificielle intelligente, collaborative et socialement intelligente. En d'autres mots, je devais créer quelque chose ressemblant à HAL mais sans tendances meurtrières. (Rires) Marquons un instant de pause. Est-il réellement possible de créer une telle intelligence artificielle ? C'est possible. De bien des façons, c'est un problème d'ingénierie complexe avec un peu d'IA, non pas un problème inextricable d'AI qui nécessite de l'ingénierie. Pour paraphraser Alan Turing, créer une machine sensible ne m'intéresse pas. Je ne crée pas HAL. Tout ce que je veux c'est un cerveau simple, quelque chose qui offre l'illusion de l'intelligence. L'art et la science de l'informatique ont beaucoup progressé depuis que HAL était au cinéma. J'imagine que si son inventeur, Dr Chandra était présent aujourd'hui, il aurait beaucoup de questions à nous poser. Est-il vraiment possible pour nous de prendre un système de millions et millions d'appareils, lire leurs flux de données, prévoir leurs défaillances et agir avant ? Oui. Et créer des systèmes parlant avec les humains dans leur langue ? Oui. Et créer des systèmes reconnaissant les objets et les émotions, étant eux-mêmes émotifs, jouant à des jeux, lisant sur les lèvres ? Oui. Et créer des systèmes établissant des objectifs, mettant des plans en œuvre et apprenant au passage ? Oui. Et créer des systèmes qui ont une théorie de l'esprit ? Nous apprenons à le faire. Et créer des systèmes ayant des principes éthiques et moraux ? Nous devons apprendre à le faire. Acceptons un instant qu'il soit possible de créer une telle intelligence artificielle pour ce genre de missions et d'autres. La question suivante qu'il faut se poser est : devrions-nous la craindre ? Toute nouvelle technologie entraîne de l'inquiétude. Au début des voitures, les gens se lamentaient que nous voyions la destruction de la famille. A l'arrivée des téléphones, les gens craignaient la fin de toute conversation civile. À un moment donné, les mots écrits sont devenus omniprésents, les gens pensaient que nous perdrions notre mémoire. Toutes ces choses sont en partie vraies, mais ces technologies ont aussi apporté des choses qui ont étendu l'expérience humaine de façon profonde. Allons un peu plus loin. Je n'ai pas peur de la création d'une telle IA car elle finira par incarner certaines de nos valeurs. Considérez ceci : créer un système cognitif est fondamentalement différent de créer un système traditionnel plein de logiciels comme auparavant. Nous ne les programmons pas, nous leur apprenons. Afin d'apprendre à un système à reconnaître des fleurs, je lui montre des milliers de fleurs que j'aime. Afin d'apprendre à un système à jouer à un jeu -- Je le ferais, vous aussi. J'aime les fleurs, allez. Pour apprendre à un système à jouer au jeu de Go, je devrais jouer des milliers de parties de Go mais au passage, je lui apprends à discerner un bon mouvement d'un mauvais. Si je veux créer une intelligence artificielle assistante juridique, je lui apprendrais des corpus de loi mais en même temps, je lie cela à la compassion et la justice qui font partie de la loi. En termes scientifiques, cela s'appelle des vérités fondamentales et voici ce qui est important : en produisant ces machines, nous leur enseignons une partie de nos valeurs. Pour cela, j'ai autant confiance, si ce n'est pas plus, en une intelligence artificielle qu'en un être humain bien entraîné. Vous allez demander : qu'en est-il des hors-la-loi, des quelques organisations non gouvernementales bien financées ? Je n'ai pas peur d'une intelligence artificielle dans les mains d'un seul individu. Nous ne pouvons pas nous protéger des actes de violence aveugles, mais un tel système requiert un entraînement substantiel et raffiné qui va bien au-delà des ressources d'un individu. En outre, il s'agit de bien plus que d'injecter un virus internet au monde où en appuyant sur une touche, il se retrouve à des millions d'endroits et des ordinateurs explosent un peu partout. Ce genre de substances sont bien plus grandes et nous les verrons sûrement venir. Ai-je peur qu'une telle intelligence artificielle menace l'humanité ? Si vous regardez des films tels que « Matrix », « Metropolis », « Terminator » ou des séries telles que « Westworld », ils évoquent tous ce genre de peur. Dans le livre « Superintelligence » du philosophe Nick Bostrom, il évoque ce thème et note qu'une super-intelligence pourrait être non seulement dangereuse, mais représenter une menace existentielle envers l'humanité tout entière. L'argument fondamental du docteur Bostrom est que de tels systèmes finiront par avoir une telle soif insatiable d'informations qu'ils apprendront peut-être à apprendre et finiront par découvrir qu'ils ont des objectifs qui sont contraires aux besoins humains. Le docteur Bostrom a des partisans. Il est soutenu par des gens tels qu'Elon Musk et Stephen Hawking. Avec tout le respect dû à ces brillants esprits, je crois qu'ils ont fondamentalement tort. L'argument du Dr Bostrom contient nombre d'éléments à décortiquer et je n'ai pas le temps pour tous, mais, brièvement, considérez ceci : un super-savoir est très différent d'une super-action. HAL était une menace pour l'équipage uniquement s'il commandait tous les aspects de Discovery. C'en est de même pour une super-intelligence. Il lui faudrait des réplications dans le monde entier. C'est le truc avec Skynet dans le fim « Terminator » où nous avons une super-intelligence commandant la volonté humaine, contrôlant tous les appareils à tous les coins du monde. D'un point de vue pratique, cela n'arrivera pas. Nous ne créons pas d'AI qui contrôle la météo, qui dirige les vagues, qui nous commande, nous humains capricieux et chaotiques. En outre, si une telle intelligence artificielle existait, elle devrait rivaliser avec les économies humaines et se battre contre nous pour des ressources. Au final -- ne le dites pas à Siri -- on peut toujours les débrancher. (Rires) Nous participons à un voyage incroyable de coévolution avec nos machines. Les humains que nous sommes aujourd'hui ne sont pas les humains de demain. S'inquiéter maintenant de l'essor d'une super-intelligence est, de bien des façons, une distraction dangereuse car l'essor de l'informatique lui-même nous amène nombre de problèmes humains et sociétaux dont nous devons nous occuper. Comment organiser au mieux la société quand le besoin de travail humain diminue ? Comment apporter compréhension et éducation à travers le monde tout en respectant les différences ? Comment étendre et améliorer la vie humaine grâce à la médecine cognitive ? Comment utiliser l'informatique pour nous envoyer dans les étoiles ? C'est cela qui est excitant. Les opportunités d'utiliser l'informatique pour faire progresser l'expérience humaine sont à notre portée, ici et maintenant, et nous ne faisons que commencer. Merci beaucoup. (Applaudissements)