Je travaille avec des mathématiciens, philosophes et informaticiens, et nous nous réunissons pour imaginer le futur de l'intelligence artificielle, entre autres choses. Certains pensent que c'est un peu de la science-fiction, complètement éloigné du réel. Mais j'aime dire, d'accord, jetons un coup d'oeil à la condition humaine moderne. (Rires) C'est la façon normale d'être des choses. Mais si on y pense, nous ne sommes en fait que des invités récemment arrivés sur cette planète, l'espèce humaine. Imaginez si la Terre avait été créée il y a un an, l'espèce humaine existerait alors depuis dix minutes. L'ère industrielle a débuté il y a deux secondes. Une autre façon de voir est de calculer le PIB mondial des 10 000 dernières années. J'ai vraiment pris le temps de faire un graphe pour vous. Il ressemble à ça. (Rires) Drôle de courbe pour une condition normale. Je ne voudrais pas lui tourner le dos. (Rires) Demandons-nous, quelle est la cause de cette anomalie ? Certains diront que c'est la technologie. C'est vrai, la technologie s'est accumulée au cours de l'histoire humaine, et aujourd'hui, la technologie progresse très rapidement -- c'est la cause la plus proche, c'est pourquoi nous sommes si productifs de nos jours. Mais je préfère réfléchir en remontant à la cause fondamentale. Regardez ces deux messieurs très distingués : Nous avons Kanzi -- il maîtrise 200 symboles lexicaux, un exploit incroyable. Et Ed Witten a déclenché la seconde révolution des supercordes. Si nous regardons sous la capuche, voici ce que l'on trouve : en gros, la même chose. L'un est un peu plus grand, il y a peut-être aussi quelques subtilités de câblage. Ces différences invisibles ne peuvent être trop compliquées quoi qu'il en soit, car il n'y a eu que 250 000 générations depuis notre dernier ancêtre commun. Nous savons que les mécanismes compliqués demandent beaucoup de temps pour évoluer. Donc des changements relativement mineurs nous emmènent de Kanzi à Witten, de branches arrachées aux arbres aux missiles balistiques intercontinentaux. Il semble alors assez évident que tout ce que nous avons réalisé, et ce que nous chérissons, dépend principalement de quelques changements mineurs qui ont aboutit à l'esprit humain. Le corollaire, bien sûr, est que tout changement à venir qui pourrait changer significativement le substrat de la pensée pourrait avoir potentiellement d'énormes conséquences. Certains de mes collègues pensent que nous sommes sur le point de développer quelque chose qui pourrait causer un tel changement dans ce substrat, et c'est la super intelligence artificielle. Avant, l'intelligence artificielle consistait à mettre des commandes dans une boîte. Il y avait des programmeurs humains qui fabriquaient minutieusement des objets savants. On construisait ces systèmes experts, et ils étaient utiles pour certains buts, mais ils étaient très fragiles, on ne pouvait pas les agrandir. En gros, vous n'aviez que ce que vous aviez mis dedans. Mais depuis, une révolution conceptuelle s'est opérée dans le domaine de l'I.A.. Aujourd'hui, l'action est centré sur l'apprentissage machine. Plutôt que de coder à la main des programmes et leurs caractéristiques, on crée des algorithmes qui apprennent, souvent à partir des données brutes perçues. En gros, la même chose que fait un enfant. Le résultat est une I.A. qui n'est pas limitée à un domaine -- le même système peut apprendre à traduire n'importe quel couple de langues, ou apprendre à jouer n'importe quel jeu sur la console Atari. Bien sûr, l'I.A. est toujours loin d'avoir la capacité puissante et transversale à apprendre et planifier d'un être humain. Le cortex a encore des secrets algorithmiques que nous ne savons pas intégrer dans les machines. Donc la question est, combien de temps nous faudra-t-il pour réussir à les intégrer ? Il y a quelques années, nous avons fait un sondage auprès des experts mondiaux des I.A., pour voir ce qu'ils pensaient, et une des questions posées était, « En quelle année pensez-vous qu'il y aura 50% de chance qu'une I.A. atteigne le niveau d'une intelligence humaine ? » Nous définissons ici le seuil à atteindre par la capacité de l'I.A. à réaliser presque toutes les tâches au moins aussi bien qu'un adulte, donc réellement comme un humain, pas seulement dans un domaine limité. La réponse médiane était 2040 ou 2050, en fonction du groupe d'experts que nous interrogions. Ça pourrait se produire bien plus tard ou bien plus tôt, la vérité est que personne ne le sait. Ce que nous savons est que la limite de traitement de l'information dans une machine est bien supérieure à celle d'un tissu biologique. Ça s'explique par la physique. Un neurone biologique "décharge" environ à 200 hertz, 200 fois par seconde. Mais, même un transistor actuel fonctionne au gigahertz. L'information se propage dans les neurones le long d'axones à 100 m/s maximum. Mais dans les ordinateurs, le signal peut voyager à la vitesse de la lumière. Il y a aussi des limitations de taille, car le cerveau humain doit rentrer dans la boîte crânienne, mais un ordinateur peut être de la taille d'un entrepôt ou plus grand. Donc le potentiel de super intelligence est en sommeil dans la matière, tout comme la puissance de l'atome est restée en sommeil tout au long de l'histoire humaine, attendant patiemment jusqu'en 1945. Au cours de ce siècle, il se peut que les scientifiques apprennent à réveiller la puissance de l'I.A.. Je pense que nous pourrions alors assister à une explosion d'intelligence. La plupart des gens, quand ils pensent à ce qui est bête ou intelligent ont une image de ce genre en tête. À une extrémité on a l'idiot du village, et à l'autre bout on a Ed Witten, ou Albert Einstein, ou votre gourou, qui qu'il soit. Mais je pense que du point de vue de l'intelligence artificielle, la véritable image est plus probablement comme ceci, en réalité : l'I.A. commence à cet endroit, à zéro intelligence, et ensuite, après de nombreuses années de dur labeur, peut-être, arrivons-nous au niveau de l'intelligence d'une souris, quelque chose qui peut naviguer dans des environnements encombrés aussi bien qu'une souris. Ensuite, après encore plus d'années de dur labeur et beaucoup d'investissements, peut-être, finalement, arrivons-nous au niveau d'intelligence d'un chimpanzé. Ensuite, après toujours plus d'années de vraiment très dur labeur, nous arrivons au niveau d'intelligence de l'idiot du village. Et quelques mois plus tard, nous sommes après Ed Witten. Le train ne s'arrête pas à la station Humainville. Il va plutôt passer à fond devant. Il y a là de profondes implications, en particulier quand il est question de pouvoir. Par exemple, les chimpanzés sont forts -- à poids équivalent, un chimpanzé est deux fois plus fort qu'un homme adulte. Pourtant, le destin de Kanzi et de ses congénères dépend beaucoup plus de ce que font les humains que de ce que les chimpanzés font eux-mêmes. Une fois que la super intelligence sera là, le destin de l'humanité pourrait dépendre des actions de cette super intelligence. Pensez-y : l'I.A. est la dernière invention que l'homme aura jamais besoin de faire. Les machines seront alors de meilleurs inventeurs que nous le sommes, et elles inventeront sur des échelles de temps numériques. Ça veut dire un télescopage avec le futur. Pensez à toutes les technologies incroyables que vous avez imaginées, que les hommes pourraient avoir développées avec le temps : plus de vieillissement, colonisation de l'espace, nano-robots auto-répliquants, téléchargement d'esprits humains dans des ordinateurs, plein de technologies de science-fiction qui sont néanmoins cohérentes avec les lois de la physique. Toute cette super intelligence pourrait se développer assez rapidement. Bon, une super intelligence avec une telle maturité technologique serait extrêmement puissante, et au moins dans certains scénarios, serait capable d'obtenir ce qu'elle veut. Nous aurions alors un futur modelé par les préférences de cette I.A. Une bonne question est, quelles sont ces préférences ? C'est là que ça devient délicat. Pour progresser là-dessus, nous devons tout d'abord éviter tout anthropomorphisme. C'est ironique car dans tous les articles de journaux qui parle de l'avenir de l'I.A. comportent une image de ceci. Je pense que nous devons concevoir ce problème de manière plus abstraite, et non en scénario hollywoodien fertile. Nous devons penser à l'intelligence comme un processus d'optimisation, un processus qui guide le futur dans un certain jeu de configurations. Une super intelligence est un processus d'optimisation très fort. Elle est très douée pour utiliser les moyens disponibles pour atteindre un état dans lequel son but est réalisé. Ça signifie qu'il n'y a pas de nécessaire connexion entre le fait d'être très intelligent dans ce sens, et avoir un objectif que nous, humains, trouverions utile ou significatif. Supposons qu'on donne comme but à une I.A. de faire sourire les humains. Quand l'I.A. est faible, elle réalise des actions utiles ou amusantes qui provoque le sourire de l'utilisateur. Quand l'I.A. devient super intelligente, elle réalise qu'il y a un moyen plus efficace d'atteindre son objectif : prendre le contrôle du monde et implanter des électrodes dans les muscles faciaux des humains pour provoquer des sourires rayonnants et constants. Un autre exemple, supposons qu'on demande à une I.A. de résoudre un problème de math très dur. Quand l'I.A. devient super intelligente, elle réalise que le moyen le plus efficace pour résoudre ce problème est de transformer la planète en un ordinateur géant, pour augmenter sa capacité de calcul. Remarquez que ça donne aux I.A.s une raison pratique de faire des choses que nous pourrions ne pas approuver. Les humains sont des menaces dans ce modèle, car nous pourrions empêcher la résolution du problème. Bien sûr, les choses perceptibles ne tourneront pas mal de ces façons-là ; ce sont des exemples caricaturés. Mais l'argument général est important : si vous créez un processus d'optimisation très puissant pour maximiser les chances d'atteindre l'objectif x, vous devez vous assurer que votre définition de x incorpore tout ce à quoi vous tenez. C'est une leçon qui est enseignée dans de nombreux mythes. Le roi Midas souhaitait que tout ce qu'il touche se transforme en or. Il touche sa fille, elle se transforme en or. Il touche sa nourriture, elle se transforme en or. Ça pourrait devenir pertinent en pratique, ne pas se limiter à une métaphore de la cupidité mais illustrer ce qui arrive si vous créez un processus d'optimisation puissant et lui donnez des objectifs mal conçus ou trop vagues. Vous pourriez dire que si un ordinateur commence à nous implanter des électrodes, nous le débrancherions. A, ce n'est pas forcément si facile à faire si nous sommes devenus dépendants, par exemple, comment arrête-t-on internet ? B, pourquoi les chimpanzés ou les Neandertals n'ont-ils pas empêché l'humanité ? Ils avaient de bonnes raisons. Nous avons un interrupteur, par exemple, juste ici. (Suffocation) La raison est que nous sommes un adversaire intelligent ; nous pouvons anticiper les menaces et planifier des solutions. Mais une super intelligence pourrait le faire aussi, et elle le ferait bien mieux que nous. L'important est que nous ne devrions pas croire que nous avons tout sous contrôle. Nous pourrions tenter de nous faciliter la tâche, disons en mettant l'I.A. dans une boîte, comme un environnement logiciel sûr, une simulation de la réalité d'où elle ne peut s'échapper. Mais à quel point sommes-nous sûrs qu'elle ne trouvera pas un bug. Étant donné que de simples hackers humains trouvent toujours des bugs, je dirais, probablement pas très sûrs. Donc on déconnecte le câble Ethernet pour créer une séparation physique, mais encore une fois, comme de simples hackers humains transgressent les séparations physiques grâce à l'ingéniérie sociale. À l'heure où je vous parle, en ce moment-même, je suis sûr qu'il y a un employé, quelque part à qui quelqu'un prétendant être du département informatique a demandé de donner son identifiant et son mot de passe. Des scénarios plus créatifs sont aussi possibles, par exemple, si vous êtes une I.A. vous pouvez déplacer des électrodes dans vos circuits internes pour créer des ondes radio que vous utiliserez pour communiquer. Ou vous pouvez prétendre dysfonctionner, et quand les ingénieurs vous ouvrent pour voir ce qui ne marche pas, ils regardent votre code source -- Vlan ! -- la manipulation peut commencer. Ou elle pourrait produire le plan d'une nouvelle technologie géniale, et quand nous l'implementons, elle a quelques effets secondaires furtifs planifiés par l'I.A. Donc nous ne devrions pas faire confiance à notre capacité à garder un génie super intelligent prisonnier dans sa lampe éternellement. À un moment donné, il va s'échapper. Je crois que la réponse à ça est de découvrir comment créer une super intelligence telle que même si ou quand elle s'échappe, on est toujours en sécurité car elle est fondamentalement de notre côté car elle partage nos valeurs. Je ne vois aucune solution à ce problème. Mais je suis plutôt optimiste quant le fait que ce problème peut être résolu. Nous n'aurions pas à écrire une longue liste de tout ce que nous chérissons, ou, encore pire, devoir le coder en language informatique comme C++ ou Python, ce qui serait une tâche sans espoir. Au lieu de ça, nous créerions une I.A. qui utilise son intelligence pour apprendre nos valeurs, et son système de motivation est construit de telle sorte qu'elle est motivée par la recherche de valeurs ou d'actions qu'elle prédit que nous approuverions. Nous pourrions ainsi influencer son intelligence autant que possible à résoudre des problèmes importants. Ça peut arriver, et le résultat en serait très positif pour l'humanité. Mais ça n'arrive pas automatiquement. Les conditions initiales de l'explosion de l'intelligence devront être programmées de manière précise si nous voulons obtenir une détonation contrôlée. Les valeurs de l'I.A. devront correspondre aux nôtres, pas seulement dans un contexte familier, où il est facile de contrôler comment l'I.A. se comporte, mais aussi dans de nouveaux contextes que l'I.A. pourrait rencontrer dans un futur indéfini. Il y a aussi des problèmes ésotériques qui devront être résolus : les détails exacts de sa théorie de décision, comment gérer l'incertitude logique et ainsi de suite. Les problèmes techniques qui doivent être surmontés pour que ça marche semblent ardus-- pas autant que de faire une I.A. super intelligente, mais assez ardus. Là où c'est inquiétant, c'est que faire une I.A. super intelligente est un défi vraiment difficile. Faire une I.A. super intelligente qui soit sûre implique quelques défis supplémentaires. Le risque est que si quelqu'un trouve comment résoudre le premier défi sans avoir aussi résolu l'autre défi, celui d'assurer une sécurité parfaite. Je pense que nous devrions donc commencer à résoudre le problème de contrôle d'abord, pour qu'il soit disponible quand on en aura besoin. On ne pourra peut-être pas résoudre tout le problème du contrôle à l'avance car certains éléments ne peuvent être mis en place qu'une fois qu'on connait les détails de l'architecture où ce sera implémenté. Mais plus nous résolvons ce problème de contrôle à l'avance, meilleure sera notre chance que la transition vers l'ère de l'I.A. se passera bien. Pour moi, ça semble valoir la peine et j'imaginer que, si tout se passe bien, les gens, dans un million d'années, penseront peut-être que la chose qui a vraiment été importante dans notre siècle était de faire ça bien. Merci. (Applaudissements)