0:00:00.760,0:00:04.600 Quand j'étais enfant,[br]j'étais l'exemple parfait de l'intello. 0:00:05.320,0:00:07.496 Certains d'entre vous[br]devaient l'être aussi. 0:00:07.520,0:00:08.736 (Rires) 0:00:08.760,0:00:11.976 Et vous, monsieur, qui avez ri[br]le plus fort, devez encore l'être. 0:00:12.000,0:00:14.256 (Rires) 0:00:14.280,0:00:17.776 J'ai grandi dans une petite ville[br]des plaines poussiéreuses du Texas, 0:00:17.800,0:00:21.136 fils d'un shérif[br]qui était fils de pasteur. 0:00:21.160,0:00:23.120 Hors de question de m'attirer des ennuis. 0:00:24.040,0:00:27.296 J'ai donc commencé à lire[br]des livres de calcul pour le plaisir. 0:00:27.320,0:00:28.856 (Rires) 0:00:28.880,0:00:30.576 Vous aussi. 0:00:30.600,0:00:34.336 Cela m'a mené à créer un laser,[br]un ordinateur et des micro fusées 0:00:34.360,0:00:37.360 et à faire du carburant[br]pour les fusées dans ma chambre. 0:00:37.960,0:00:41.616 En termes scientifiques, 0:00:41.640,0:00:44.896 cela s'appelle une très mauvaise idée. 0:00:44.920,0:00:46.136 (Rires) 0:00:46.160,0:00:48.336 A peu près au même moment, 0:00:48.360,0:00:51.576 « 2001 : l'odyssée de l'espace »[br]de Stanley Kubrick est sorti 0:00:51.600,0:00:53.800 et cela a changé ma vie. 0:00:54.280,0:00:56.336 J'aimais tout dans ce film, 0:00:56.360,0:00:58.896 en particulier HAL 9000. 0:00:58.920,0:01:00.976 HAL était un ordinateur sensible 0:01:01.000,0:01:03.456 conçu pour guider Discovery,[br]le vaisseau spatial, 0:01:03.480,0:01:06.016 de la Terre à Jupiter. 0:01:06.040,0:01:08.096 HAL était aussi un personnage imparfait 0:01:08.120,0:01:09.840 puisqu'à la fin, il choisissait 0:01:09.840,0:01:12.840 la valeur de la mission[br]plutôt que la vie humaine. 0:01:12.840,0:01:14.936 HAL était un personnage de fiction 0:01:14.960,0:01:17.616 mais il s'adresse malgré tout à nos peurs, 0:01:17.640,0:01:19.736 nos peurs d'être assujettis 0:01:19.760,0:01:22.776 par une intelligence artificielle[br]sans émotions 0:01:22.800,0:01:24.760 qui est indifférente à notre humanité. 0:01:25.880,0:01:28.456 Je crois que de telles peurs[br]sont infondées. 0:01:28.480,0:01:31.176 En fait, nous vivons un moment remarquable 0:01:31.200,0:01:32.736 dans l'histoire de l'humanité 0:01:32.760,0:01:37.736 où, guidés par notre refus d'accepter[br]les limites de nos corps et esprit, 0:01:37.760,0:01:39.456 nous construisons des machines 0:01:39.480,0:01:43.096 d'une complexité et d'une grâce[br]exquises et magnifiques 0:01:43.120,0:01:45.176 qui étendront l'expérience humaine 0:01:45.200,0:01:46.880 bien au-delà de notre imagination. 0:01:47.720,0:01:50.296 Après une carrière qui m'a mené[br]de l'Air Force Academy 0:01:50.320,0:01:52.256 au Space Command aujourd'hui, 0:01:52.280,0:01:54.006 je suis devenu ingénieur de systèmes 0:01:54.006,0:01:56.736 et j'ai récemment participé[br]à un problème d'ingénierie 0:01:56.760,0:01:59.336 associé à la mission sur Mars de la NASA. 0:01:59.360,0:02:01.856 Pour les vols dans l'espace[br]jusqu'à la Lune, 0:02:01.880,0:02:05.016 nous comptons sur le centre[br]de contrôle de mission de Houston 0:02:05.040,0:02:07.016 pour surveiller tous les aspects du vol. 0:02:07.040,0:02:10.576 Cependant, Mars est à une distance[br]200 fois plus importante 0:02:10.600,0:02:13.816 et le résultat est[br]qu'il faut en moyenne 13 minutes 0:02:13.840,0:02:16.976 pour qu'un signal voyage[br]de la Terre jusqu'à Mars. 0:02:17.000,0:02:20.400 S'il y a un problème,[br]c'est beaucoup trop long. 0:02:20.840,0:02:23.336 Une solution d'ingénierie raisonnable 0:02:23.360,0:02:25.996 nous a poussés à placer[br]le centre de contrôle de mission 0:02:25.996,0:02:28.976 entre les murs de l'engin spatial Orion. 0:02:29.000,0:02:31.896 Une autre idée fascinante[br]dans le profil de la mission 0:02:31.920,0:02:34.816 place les robots humanoïdes[br]sur la surface de Mars 0:02:34.840,0:02:36.696 avant l'arrivée des humains, 0:02:36.720,0:02:38.406 pour construire des infrastructures 0:02:38.406,0:02:41.760 puis servir de membres collaboratifs[br]à l'équipe scientifique. 0:02:43.400,0:02:46.136 En observant cela[br]d'un point de vue d'ingénieur, 0:02:46.160,0:02:49.336 il m'est clairement apparu[br]que je devais concevoir 0:02:49.360,0:02:52.156 une intelligence artificielle[br]intelligente, collaborative 0:02:52.156,0:02:53.936 et socialement intelligente. 0:02:53.960,0:02:58.256 En d'autres mots, je devais créer[br]quelque chose ressemblant à HAL 0:02:58.280,0:03:00.696 mais sans tendances meurtrières. 0:03:00.720,0:03:02.080 (Rires) 0:03:02.920,0:03:04.736 Marquons un instant de pause. 0:03:04.760,0:03:08.656 Est-il réellement possible de créer[br]une telle intelligence artificielle ? 0:03:08.680,0:03:10.136 C'est possible. 0:03:10.160,0:03:11.416 De bien des façons, 0:03:11.440,0:03:13.416 c'est un problème d'ingénierie complexe 0:03:13.440,0:03:14.896 avec un peu d'IA, 0:03:14.920,0:03:19.616 non pas un problème inextricable d'AI[br]qui nécessite de l'ingénierie. 0:03:19.640,0:03:22.296 Pour paraphraser Alan Turing, 0:03:22.320,0:03:24.696 créer une machine sensible[br]ne m'intéresse pas. 0:03:24.720,0:03:26.296 Je ne crée pas HAL. 0:03:26.320,0:03:28.736 Tout ce que je veux[br]c'est un cerveau simple, 0:03:28.760,0:03:31.880 quelque chose qui offre[br]l'illusion de l'intelligence. 0:03:33.000,0:03:36.136 L'art et la science de l'informatique[br]ont beaucoup progressé 0:03:36.160,0:03:37.656 depuis que HAL était au cinéma. 0:03:37.680,0:03:40.966 J'imagine que si son inventeur,[br]Dr Chandra était présent aujourd'hui, 0:03:40.966,0:03:43.256 il aurait beaucoup[br]de questions à nous poser. 0:03:43.280,0:03:45.376 Est-il vraiment possible pour nous 0:03:45.400,0:03:49.416 de prendre un système de millions[br]et millions d'appareils, 0:03:49.440,0:03:50.896 lire leurs flux de données, 0:03:50.920,0:03:53.176 prévoir leurs défaillances et agir avant ? 0:03:53.200,0:03:54.416 Oui. 0:03:54.440,0:03:57.616 Et créer des systèmes parlant[br]avec les humains dans leur langue ? 0:03:57.640,0:03:58.856 Oui. 0:03:58.880,0:04:01.856 Et créer des systèmes reconnaissant[br]les objets et les émotions, 0:04:01.880,0:04:05.256 étant eux-mêmes émotifs,[br]jouant à des jeux, lisant sur les lèvres ? 0:04:05.280,0:04:06.496 Oui. 0:04:06.520,0:04:08.756 Et créer des systèmes[br]établissant des objectifs, 0:04:08.756,0:04:12.296 mettant des plans en œuvre[br]et apprenant au passage ? 0:04:12.320,0:04:13.536 Oui. 0:04:13.560,0:04:16.896 Et créer des systèmes[br]qui ont une théorie de l'esprit ? 0:04:16.920,0:04:18.416 Nous apprenons à le faire. 0:04:18.440,0:04:21.920 Et créer des systèmes ayant[br]des principes éthiques et moraux ? 0:04:22.480,0:04:24.520 Nous devons apprendre à le faire. 0:04:25.360,0:04:26.736 Acceptons un instant 0:04:26.760,0:04:29.756 qu'il soit possible de créer[br]une telle intelligence artificielle 0:04:29.756,0:04:31.816 pour ce genre de missions et d'autres. 0:04:31.840,0:04:34.376 La question suivante[br]qu'il faut se poser est : 0:04:34.400,0:04:35.856 devrions-nous la craindre ? 0:04:35.880,0:04:37.856 Toute nouvelle technologie 0:04:37.880,0:04:40.776 entraîne de l'inquiétude. 0:04:40.800,0:04:42.496 Au début des voitures, 0:04:42.520,0:04:46.536 les gens se lamentaient que nous voyions[br]la destruction de la famille. 0:04:46.560,0:04:49.256 A l'arrivée des téléphones, 0:04:49.280,0:04:52.176 les gens craignaient[br]la fin de toute conversation civile. 0:04:52.200,0:04:56.136 À un moment donné, les mots écrits[br]sont devenus omniprésents, 0:04:56.160,0:04:58.656 les gens pensaient[br]que nous perdrions notre mémoire. 0:04:58.680,0:05:00.736 Toutes ces choses sont en partie vraies, 0:05:00.760,0:05:03.176 mais ces technologies 0:05:03.200,0:05:06.576 ont aussi apporté des choses[br]qui ont étendu l'expérience humaine 0:05:06.600,0:05:08.480 de façon profonde. 0:05:09.840,0:05:12.120 Allons un peu plus loin. 0:05:13.120,0:05:17.856 Je n'ai pas peur de la création[br]d'une telle IA 0:05:17.880,0:05:21.696 car elle finira par incarner[br]certaines de nos valeurs. 0:05:21.720,0:05:22.550 Considérez ceci : 0:05:22.550,0:05:25.240 créer un système cognitif[br]est fondamentalement différent 0:05:25.240,0:05:28.536 de créer un système traditionnel[br]plein de logiciels comme auparavant. 0:05:28.560,0:05:31.016 Nous ne les programmons pas,[br]nous leur apprenons. 0:05:31.040,0:05:33.696 Afin d'apprendre à un système[br]à reconnaître des fleurs, 0:05:33.720,0:05:36.736 je lui montre des milliers[br]de fleurs que j'aime. 0:05:36.760,0:05:39.106 Afin d'apprendre à un système[br]à jouer à un jeu -- 0:05:39.106,0:05:41.000 Je le ferais, vous aussi. 0:05:42.600,0:05:44.640 J'aime les fleurs, allez. 0:05:45.440,0:05:48.296 Pour apprendre à un système[br]à jouer au jeu de Go, 0:05:48.320,0:05:50.476 je devrais jouer des milliers[br]de parties de Go 0:05:50.476,0:05:52.056 mais au passage, je lui apprends 0:05:52.080,0:05:54.496 à discerner un bon mouvement d'un mauvais. 0:05:54.520,0:05:58.216 Si je veux créer une intelligence[br]artificielle assistante juridique, 0:05:58.240,0:06:00.016 je lui apprendrais des corpus de loi 0:06:00.040,0:06:02.896 mais en même temps, je lie cela 0:06:02.920,0:06:05.800 à la compassion et la justice[br]qui font partie de la loi. 0:06:06.560,0:06:09.606 En termes scientifiques,[br]cela s'appelle des vérités fondamentales 0:06:09.606,0:06:11.576 et voici ce qui est important : 0:06:11.600,0:06:13.056 en produisant ces machines, 0:06:13.080,0:06:16.496 nous leur enseignons[br]une partie de nos valeurs. 0:06:16.520,0:06:19.656 Pour cela, j'ai autant confiance,[br]si ce n'est pas plus, 0:06:19.680,0:06:23.320 en une intelligence artificielle[br]qu'en un être humain bien entraîné. 0:06:24.080,0:06:25.296 Vous allez demander : 0:06:25.320,0:06:27.936 qu'en est-il des hors-la-loi, 0:06:27.960,0:06:31.296 des quelques organisations[br]non gouvernementales bien financées ? 0:06:31.300,0:06:33.540 Je n'ai pas peur[br]d'une intelligence artificielle 0:06:33.540,0:06:35.160 dans les mains d'un seul individu. 0:06:35.160,0:06:39.696 Nous ne pouvons pas nous protéger[br]des actes de violence aveugles, 0:06:39.720,0:06:41.856 mais un tel système 0:06:41.880,0:06:44.976 requiert un entraînement[br]substantiel et raffiné 0:06:45.000,0:06:47.296 qui va bien au-delà[br]des ressources d'un individu. 0:06:47.320,0:06:48.536 En outre, 0:06:48.560,0:06:51.800 il s'agit de bien plus que d'injecter[br]un virus internet au monde 0:06:51.800,0:06:55.126 où en appuyant sur une touche,[br]il se retrouve à des millions d'endroits 0:06:55.126,0:06:57.416 et des ordinateurs explosent[br]un peu partout. 0:06:57.440,0:07:00.256 Ce genre de substances[br]sont bien plus grandes 0:07:00.280,0:07:01.995 et nous les verrons sûrement venir. 0:07:02.520,0:07:05.576 Ai-je peur qu'une telle[br]intelligence artificielle 0:07:05.600,0:07:07.560 menace l'humanité ? 0:07:08.280,0:07:12.656 Si vous regardez des films[br]tels que « Matrix », « Metropolis », 0:07:12.680,0:07:15.856 « Terminator » ou des séries[br]telles que « Westworld », 0:07:15.880,0:07:18.016 ils évoquent tous ce genre de peur. 0:07:18.040,0:07:22.336 Dans le livre « Superintelligence »[br]du philosophe Nick Bostrom, 0:07:22.360,0:07:23.896 il évoque ce thème 0:07:23.920,0:07:27.936 et note qu'une super-intelligence[br]pourrait être non seulement dangereuse, 0:07:27.960,0:07:31.816 mais représenter une menace existentielle[br]envers l'humanité tout entière. 0:07:31.840,0:07:34.056 L'argument fondamental[br]du docteur Bostrom 0:07:34.080,0:07:36.816 est que de tels systèmes finiront 0:07:36.840,0:07:40.096 par avoir une telle soif[br]insatiable d'informations 0:07:40.120,0:07:43.016 qu'ils apprendront peut-être à apprendre 0:07:43.040,0:07:45.656 et finiront par découvrir[br]qu'ils ont des objectifs 0:07:45.680,0:07:47.976 qui sont contraires aux besoins humains. 0:07:48.000,0:07:49.856 Le docteur Bostrom a des partisans. 0:07:49.880,0:07:54.200 Il est soutenu par des gens[br]tels qu'Elon Musk et Stephen Hawking. 0:07:54.880,0:07:57.280 Avec tout le respect dû 0:07:58.160,0:08:00.176 à ces brillants esprits, 0:08:00.200,0:08:02.456 je crois qu'ils ont fondamentalement tort. 0:08:02.480,0:08:05.666 L'argument du Dr Bostrom[br]contient nombre d'éléments à décortiquer 0:08:05.680,0:08:07.816 et je n'ai pas le temps pour tous, 0:08:07.840,0:08:10.536 mais, brièvement, considérez ceci : 0:08:10.560,0:08:14.296 un super-savoir est très différent[br]d'une super-action. 0:08:14.320,0:08:16.216 HAL était une menace pour l'équipage 0:08:16.240,0:08:20.656 uniquement s'il commandait[br]tous les aspects de Discovery. 0:08:20.680,0:08:23.176 C'en est de même[br]pour une super-intelligence. 0:08:23.200,0:08:25.736 Il lui faudrait des réplications[br]dans le monde entier. 0:08:25.736,0:08:28.536 C'est le truc avec Skynet[br]dans le fim « Terminator » 0:08:28.560,0:08:30.416 où nous avons une super-intelligence 0:08:30.440,0:08:31.866 commandant la volonté humaine, 0:08:31.866,0:08:35.696 contrôlant tous les appareils[br]à tous les coins du monde. 0:08:35.720,0:08:37.176 D'un point de vue pratique, 0:08:37.200,0:08:39.296 cela n'arrivera pas. 0:08:39.320,0:08:42.376 Nous ne créons pas d'AI[br]qui contrôle la météo, 0:08:42.400,0:08:43.736 qui dirige les vagues, 0:08:43.760,0:08:47.136 qui nous commande,[br]nous humains capricieux et chaotiques. 0:08:47.160,0:08:51.056 En outre, si une telle[br]intelligence artificielle existait, 0:08:51.080,0:08:54.016 elle devrait rivaliser[br]avec les économies humaines 0:08:54.040,0:08:56.560 et se battre contre nous[br]pour des ressources. 0:08:57.200,0:08:58.416 Au final -- 0:08:58.440,0:08:59.680 ne le dites pas à Siri -- 0:09:00.440,0:09:02.006 on peut toujours les débrancher. 0:09:02.006,0:09:03.960 (Rires) 0:09:05.360,0:09:07.816 Nous participons à un voyage incroyable 0:09:07.840,0:09:10.336 de coévolution avec nos machines. 0:09:10.360,0:09:12.856 Les humains que nous sommes aujourd'hui 0:09:12.880,0:09:15.416 ne sont pas les humains de demain. 0:09:15.440,0:09:18.576 S'inquiéter maintenant[br]de l'essor d'une super-intelligence 0:09:18.600,0:09:21.656 est, de bien des façons,[br]une distraction dangereuse 0:09:21.680,0:09:24.016 car l'essor de l'informatique lui-même 0:09:24.040,0:09:27.056 nous amène nombre de problèmes[br]humains et sociétaux 0:09:27.080,0:09:28.720 dont nous devons nous occuper. 0:09:29.360,0:09:32.176 Comment organiser au mieux la société 0:09:32.200,0:09:34.536 quand le besoin[br]de travail humain diminue ? 0:09:34.560,0:09:38.376 Comment apporter compréhension[br]et éducation à travers le monde 0:09:38.400,0:09:40.176 tout en respectant les différences ? 0:09:40.200,0:09:42.690 Comment étendre[br]et améliorer la vie humaine 0:09:42.690,0:09:44.480 grâce à la médecine cognitive ? 0:09:44.480,0:09:47.336 Comment utiliser l'informatique 0:09:47.360,0:09:49.120 pour nous envoyer dans les étoiles ? 0:09:49.760,0:09:51.800 C'est cela qui est excitant. 0:09:52.400,0:09:56.396 Les opportunités d'utiliser l'informatique[br]pour faire progresser l'expérience humaine 0:09:56.396,0:09:57.736 sont à notre portée, 0:09:57.760,0:09:59.616 ici et maintenant, 0:09:59.640,0:10:01.320 et nous ne faisons que commencer. 0:10:02.280,0:10:03.496 Merci beaucoup. 0:10:03.520,0:10:07.806 (Applaudissements)