1 00:00:00,760 --> 00:00:04,600 Quand j'étais enfant, j'étais l'exemple parfait de l'intello. 2 00:00:05,320 --> 00:00:07,496 Certains d'entre vous devaient l'être aussi. 3 00:00:07,520 --> 00:00:08,736 (Rires) 4 00:00:08,760 --> 00:00:11,976 Et vous, monsieur, qui avez ri le plus fort, devez encore l'être. 5 00:00:12,000 --> 00:00:14,256 (Rires) 6 00:00:14,280 --> 00:00:17,776 J'ai grandi dans une petite ville des plaines poussiéreuses du Texas, 7 00:00:17,800 --> 00:00:21,136 fils d'un shérif qui était fils de pasteur. 8 00:00:21,160 --> 00:00:23,120 Hors de question de m'attirer des ennuis. 9 00:00:24,040 --> 00:00:27,296 J'ai donc commencé à lire des livres de calcul pour le plaisir. 10 00:00:27,320 --> 00:00:28,856 (Rires) 11 00:00:28,880 --> 00:00:30,576 Vous aussi. 12 00:00:30,600 --> 00:00:34,336 Cela m'a mené à créer un laser, un ordinateur et des micro fusées 13 00:00:34,360 --> 00:00:37,360 et à faire du carburant pour les fusées dans ma chambre. 14 00:00:37,960 --> 00:00:41,616 En termes scientifiques, 15 00:00:41,640 --> 00:00:44,896 cela s'appelle une très mauvaise idée. 16 00:00:44,920 --> 00:00:46,136 (Rires) 17 00:00:46,160 --> 00:00:48,336 A peu près au même moment, 18 00:00:48,360 --> 00:00:51,576 « 2001 : l'odyssée de l'espace » de Stanley Kubrick est sorti 19 00:00:51,600 --> 00:00:53,800 et cela a changé ma vie. 20 00:00:54,280 --> 00:00:56,336 J'aimais tout dans ce film, 21 00:00:56,360 --> 00:00:58,896 en particulier HAL 9000. 22 00:00:58,920 --> 00:01:00,976 HAL était un ordinateur sensible 23 00:01:01,000 --> 00:01:03,456 conçu pour guider Discovery, le vaisseau spatial, 24 00:01:03,480 --> 00:01:06,016 de la Terre à Jupiter. 25 00:01:06,040 --> 00:01:08,096 HAL était aussi un personnage imparfait 26 00:01:08,120 --> 00:01:09,840 puisqu'à la fin, il choisissait 27 00:01:09,840 --> 00:01:12,840 la valeur de la mission plutôt que la vie humaine. 28 00:01:12,840 --> 00:01:14,936 HAL était un personnage de fiction 29 00:01:14,960 --> 00:01:17,616 mais il s'adresse malgré tout à nos peurs, 30 00:01:17,640 --> 00:01:19,736 nos peurs d'être assujettis 31 00:01:19,760 --> 00:01:22,776 par une intelligence artificielle sans émotions 32 00:01:22,800 --> 00:01:24,760 qui est indifférente à notre humanité. 33 00:01:25,880 --> 00:01:28,456 Je crois que de telles peurs sont infondées. 34 00:01:28,480 --> 00:01:31,176 En fait, nous vivons un moment remarquable 35 00:01:31,200 --> 00:01:32,736 dans l'histoire de l'humanité 36 00:01:32,760 --> 00:01:37,736 où, guidés par notre refus d'accepter les limites de nos corps et esprit, 37 00:01:37,760 --> 00:01:39,456 nous construisons des machines 38 00:01:39,480 --> 00:01:43,096 d'une complexité et d'une grâce exquises et magnifiques 39 00:01:43,120 --> 00:01:45,176 qui étendront l'expérience humaine 40 00:01:45,200 --> 00:01:46,880 bien au-delà de notre imagination. 41 00:01:47,720 --> 00:01:50,296 Après une carrière qui m'a mené de l'Air Force Academy 42 00:01:50,320 --> 00:01:52,256 au Space Command aujourd'hui, 43 00:01:52,280 --> 00:01:54,006 je suis devenu ingénieur de systèmes 44 00:01:54,006 --> 00:01:56,736 et j'ai récemment participé à un problème d'ingénierie 45 00:01:56,760 --> 00:01:59,336 associé à la mission sur Mars de la NASA. 46 00:01:59,360 --> 00:02:01,856 Pour les vols dans l'espace jusqu'à la Lune, 47 00:02:01,880 --> 00:02:05,016 nous comptons sur le centre de contrôle de mission de Houston 48 00:02:05,040 --> 00:02:07,016 pour surveiller tous les aspects du vol. 49 00:02:07,040 --> 00:02:10,576 Cependant, Mars est à une distance 200 fois plus importante 50 00:02:10,600 --> 00:02:13,816 et le résultat est qu'il faut en moyenne 13 minutes 51 00:02:13,840 --> 00:02:16,976 pour qu'un signal voyage de la Terre jusqu'à Mars. 52 00:02:17,000 --> 00:02:20,400 S'il y a un problème, c'est beaucoup trop long. 53 00:02:20,840 --> 00:02:23,336 Une solution d'ingénierie raisonnable 54 00:02:23,360 --> 00:02:25,996 nous a poussés à placer le centre de contrôle de mission 55 00:02:25,996 --> 00:02:28,976 entre les murs de l'engin spatial Orion. 56 00:02:29,000 --> 00:02:31,896 Une autre idée fascinante dans le profil de la mission 57 00:02:31,920 --> 00:02:34,816 place les robots humanoïdes sur la surface de Mars 58 00:02:34,840 --> 00:02:36,696 avant l'arrivée des humains, 59 00:02:36,720 --> 00:02:38,406 pour construire des infrastructures 60 00:02:38,406 --> 00:02:41,760 puis servir de membres collaboratifs à l'équipe scientifique. 61 00:02:43,400 --> 00:02:46,136 En observant cela d'un point de vue d'ingénieur, 62 00:02:46,160 --> 00:02:49,336 il m'est clairement apparu que je devais concevoir 63 00:02:49,360 --> 00:02:52,156 une intelligence artificielle intelligente, collaborative 64 00:02:52,156 --> 00:02:53,936 et socialement intelligente. 65 00:02:53,960 --> 00:02:58,256 En d'autres mots, je devais créer quelque chose ressemblant à HAL 66 00:02:58,280 --> 00:03:00,696 mais sans tendances meurtrières. 67 00:03:00,720 --> 00:03:02,080 (Rires) 68 00:03:02,920 --> 00:03:04,736 Marquons un instant de pause. 69 00:03:04,760 --> 00:03:08,656 Est-il réellement possible de créer une telle intelligence artificielle ? 70 00:03:08,680 --> 00:03:10,136 C'est possible. 71 00:03:10,160 --> 00:03:11,416 De bien des façons, 72 00:03:11,440 --> 00:03:13,416 c'est un problème d'ingénierie complexe 73 00:03:13,440 --> 00:03:14,896 avec un peu d'IA, 74 00:03:14,920 --> 00:03:19,616 non pas un problème inextricable d'AI qui nécessite de l'ingénierie. 75 00:03:19,640 --> 00:03:22,296 Pour paraphraser Alan Turing, 76 00:03:22,320 --> 00:03:24,696 créer une machine sensible ne m'intéresse pas. 77 00:03:24,720 --> 00:03:26,296 Je ne crée pas HAL. 78 00:03:26,320 --> 00:03:28,736 Tout ce que je veux c'est un cerveau simple, 79 00:03:28,760 --> 00:03:31,880 quelque chose qui offre l'illusion de l'intelligence. 80 00:03:33,000 --> 00:03:36,136 L'art et la science de l'informatique ont beaucoup progressé 81 00:03:36,160 --> 00:03:37,656 depuis que HAL était au cinéma. 82 00:03:37,680 --> 00:03:40,966 J'imagine que si son inventeur, Dr Chandra était présent aujourd'hui, 83 00:03:40,966 --> 00:03:43,256 il aurait beaucoup de questions à nous poser. 84 00:03:43,280 --> 00:03:45,376 Est-il vraiment possible pour nous 85 00:03:45,400 --> 00:03:49,416 de prendre un système de millions et millions d'appareils, 86 00:03:49,440 --> 00:03:50,896 lire leurs flux de données, 87 00:03:50,920 --> 00:03:53,176 prévoir leurs défaillances et agir avant ? 88 00:03:53,200 --> 00:03:54,416 Oui. 89 00:03:54,440 --> 00:03:57,616 Et créer des systèmes parlant avec les humains dans leur langue ? 90 00:03:57,640 --> 00:03:58,856 Oui. 91 00:03:58,880 --> 00:04:01,856 Et créer des systèmes reconnaissant les objets et les émotions, 92 00:04:01,880 --> 00:04:05,256 étant eux-mêmes émotifs, jouant à des jeux, lisant sur les lèvres ? 93 00:04:05,280 --> 00:04:06,496 Oui. 94 00:04:06,520 --> 00:04:08,756 Et créer des systèmes établissant des objectifs, 95 00:04:08,756 --> 00:04:12,296 mettant des plans en œuvre et apprenant au passage ? 96 00:04:12,320 --> 00:04:13,536 Oui. 97 00:04:13,560 --> 00:04:16,896 Et créer des systèmes qui ont une théorie de l'esprit ? 98 00:04:16,920 --> 00:04:18,416 Nous apprenons à le faire. 99 00:04:18,440 --> 00:04:21,920 Et créer des systèmes ayant des principes éthiques et moraux ? 100 00:04:22,480 --> 00:04:24,520 Nous devons apprendre à le faire. 101 00:04:25,360 --> 00:04:26,736 Acceptons un instant 102 00:04:26,760 --> 00:04:29,756 qu'il soit possible de créer une telle intelligence artificielle 103 00:04:29,756 --> 00:04:31,816 pour ce genre de missions et d'autres. 104 00:04:31,840 --> 00:04:34,376 La question suivante qu'il faut se poser est : 105 00:04:34,400 --> 00:04:35,856 devrions-nous la craindre ? 106 00:04:35,880 --> 00:04:37,856 Toute nouvelle technologie 107 00:04:37,880 --> 00:04:40,776 entraîne de l'inquiétude. 108 00:04:40,800 --> 00:04:42,496 Au début des voitures, 109 00:04:42,520 --> 00:04:46,536 les gens se lamentaient que nous voyions la destruction de la famille. 110 00:04:46,560 --> 00:04:49,256 A l'arrivée des téléphones, 111 00:04:49,280 --> 00:04:52,176 les gens craignaient la fin de toute conversation civile. 112 00:04:52,200 --> 00:04:56,136 À un moment donné, les mots écrits sont devenus omniprésents, 113 00:04:56,160 --> 00:04:58,656 les gens pensaient que nous perdrions notre mémoire. 114 00:04:58,680 --> 00:05:00,736 Toutes ces choses sont en partie vraies, 115 00:05:00,760 --> 00:05:03,176 mais ces technologies 116 00:05:03,200 --> 00:05:06,576 ont aussi apporté des choses qui ont étendu l'expérience humaine 117 00:05:06,600 --> 00:05:08,480 de façon profonde. 118 00:05:09,840 --> 00:05:12,120 Allons un peu plus loin. 119 00:05:13,120 --> 00:05:17,856 Je n'ai pas peur de la création d'une telle IA 120 00:05:17,880 --> 00:05:21,696 car elle finira par incarner certaines de nos valeurs. 121 00:05:21,720 --> 00:05:22,550 Considérez ceci : 122 00:05:22,550 --> 00:05:25,240 créer un système cognitif est fondamentalement différent 123 00:05:25,240 --> 00:05:28,536 de créer un système traditionnel plein de logiciels comme auparavant. 124 00:05:28,560 --> 00:05:31,016 Nous ne les programmons pas, nous leur apprenons. 125 00:05:31,040 --> 00:05:33,696 Afin d'apprendre à un système à reconnaître des fleurs, 126 00:05:33,720 --> 00:05:36,736 je lui montre des milliers de fleurs que j'aime. 127 00:05:36,760 --> 00:05:39,106 Afin d'apprendre à un système à jouer à un jeu -- 128 00:05:39,106 --> 00:05:41,000 Je le ferais, vous aussi. 129 00:05:42,600 --> 00:05:44,640 J'aime les fleurs, allez. 130 00:05:45,440 --> 00:05:48,296 Pour apprendre à un système à jouer au jeu de Go, 131 00:05:48,320 --> 00:05:50,476 je devrais jouer des milliers de parties de Go 132 00:05:50,476 --> 00:05:52,056 mais au passage, je lui apprends 133 00:05:52,080 --> 00:05:54,496 à discerner un bon mouvement d'un mauvais. 134 00:05:54,520 --> 00:05:58,216 Si je veux créer une intelligence artificielle assistante juridique, 135 00:05:58,240 --> 00:06:00,016 je lui apprendrais des corpus de loi 136 00:06:00,040 --> 00:06:02,896 mais en même temps, je lie cela 137 00:06:02,920 --> 00:06:05,800 à la compassion et la justice qui font partie de la loi. 138 00:06:06,560 --> 00:06:09,606 En termes scientifiques, cela s'appelle des vérités fondamentales 139 00:06:09,606 --> 00:06:11,576 et voici ce qui est important : 140 00:06:11,600 --> 00:06:13,056 en produisant ces machines, 141 00:06:13,080 --> 00:06:16,496 nous leur enseignons une partie de nos valeurs. 142 00:06:16,520 --> 00:06:19,656 Pour cela, j'ai autant confiance, si ce n'est pas plus, 143 00:06:19,680 --> 00:06:23,320 en une intelligence artificielle qu'en un être humain bien entraîné. 144 00:06:24,080 --> 00:06:25,296 Vous allez demander : 145 00:06:25,320 --> 00:06:27,936 qu'en est-il des hors-la-loi, 146 00:06:27,960 --> 00:06:31,296 des quelques organisations non gouvernementales bien financées ? 147 00:06:31,300 --> 00:06:33,540 Je n'ai pas peur d'une intelligence artificielle 148 00:06:33,540 --> 00:06:35,160 dans les mains d'un seul individu. 149 00:06:35,160 --> 00:06:39,696 Nous ne pouvons pas nous protéger des actes de violence aveugles, 150 00:06:39,720 --> 00:06:41,856 mais un tel système 151 00:06:41,880 --> 00:06:44,976 requiert un entraînement substantiel et raffiné 152 00:06:45,000 --> 00:06:47,296 qui va bien au-delà des ressources d'un individu. 153 00:06:47,320 --> 00:06:48,536 En outre, 154 00:06:48,560 --> 00:06:51,800 il s'agit de bien plus que d'injecter un virus internet au monde 155 00:06:51,800 --> 00:06:55,126 où en appuyant sur une touche, il se retrouve à des millions d'endroits 156 00:06:55,126 --> 00:06:57,416 et des ordinateurs explosent un peu partout. 157 00:06:57,440 --> 00:07:00,256 Ce genre de substances sont bien plus grandes 158 00:07:00,280 --> 00:07:01,995 et nous les verrons sûrement venir. 159 00:07:02,520 --> 00:07:05,576 Ai-je peur qu'une telle intelligence artificielle 160 00:07:05,600 --> 00:07:07,560 menace l'humanité ? 161 00:07:08,280 --> 00:07:12,656 Si vous regardez des films tels que « Matrix », « Metropolis », 162 00:07:12,680 --> 00:07:15,856 « Terminator » ou des séries telles que « Westworld », 163 00:07:15,880 --> 00:07:18,016 ils évoquent tous ce genre de peur. 164 00:07:18,040 --> 00:07:22,336 Dans le livre « Superintelligence » du philosophe Nick Bostrom, 165 00:07:22,360 --> 00:07:23,896 il évoque ce thème 166 00:07:23,920 --> 00:07:27,936 et note qu'une super-intelligence pourrait être non seulement dangereuse, 167 00:07:27,960 --> 00:07:31,816 mais représenter une menace existentielle envers l'humanité tout entière. 168 00:07:31,840 --> 00:07:34,056 L'argument fondamental du docteur Bostrom 169 00:07:34,080 --> 00:07:36,816 est que de tels systèmes finiront 170 00:07:36,840 --> 00:07:40,096 par avoir une telle soif insatiable d'informations 171 00:07:40,120 --> 00:07:43,016 qu'ils apprendront peut-être à apprendre 172 00:07:43,040 --> 00:07:45,656 et finiront par découvrir qu'ils ont des objectifs 173 00:07:45,680 --> 00:07:47,976 qui sont contraires aux besoins humains. 174 00:07:48,000 --> 00:07:49,856 Le docteur Bostrom a des partisans. 175 00:07:49,880 --> 00:07:54,200 Il est soutenu par des gens tels qu'Elon Musk et Stephen Hawking. 176 00:07:54,880 --> 00:07:57,280 Avec tout le respect dû 177 00:07:58,160 --> 00:08:00,176 à ces brillants esprits, 178 00:08:00,200 --> 00:08:02,456 je crois qu'ils ont fondamentalement tort. 179 00:08:02,480 --> 00:08:05,666 L'argument du Dr Bostrom contient nombre d'éléments à décortiquer 180 00:08:05,680 --> 00:08:07,816 et je n'ai pas le temps pour tous, 181 00:08:07,840 --> 00:08:10,536 mais, brièvement, considérez ceci : 182 00:08:10,560 --> 00:08:14,296 un super-savoir est très différent d'une super-action. 183 00:08:14,320 --> 00:08:16,216 HAL était une menace pour l'équipage 184 00:08:16,240 --> 00:08:20,656 uniquement s'il commandait tous les aspects de Discovery. 185 00:08:20,680 --> 00:08:23,176 C'en est de même pour une super-intelligence. 186 00:08:23,200 --> 00:08:25,736 Il lui faudrait des réplications dans le monde entier. 187 00:08:25,736 --> 00:08:28,536 C'est le truc avec Skynet dans le fim « Terminator » 188 00:08:28,560 --> 00:08:30,416 où nous avons une super-intelligence 189 00:08:30,440 --> 00:08:31,866 commandant la volonté humaine, 190 00:08:31,866 --> 00:08:35,696 contrôlant tous les appareils à tous les coins du monde. 191 00:08:35,720 --> 00:08:37,176 D'un point de vue pratique, 192 00:08:37,200 --> 00:08:39,296 cela n'arrivera pas. 193 00:08:39,320 --> 00:08:42,376 Nous ne créons pas d'AI qui contrôle la météo, 194 00:08:42,400 --> 00:08:43,736 qui dirige les vagues, 195 00:08:43,760 --> 00:08:47,136 qui nous commande, nous humains capricieux et chaotiques. 196 00:08:47,160 --> 00:08:51,056 En outre, si une telle intelligence artificielle existait, 197 00:08:51,080 --> 00:08:54,016 elle devrait rivaliser avec les économies humaines 198 00:08:54,040 --> 00:08:56,560 et se battre contre nous pour des ressources. 199 00:08:57,200 --> 00:08:58,416 Au final -- 200 00:08:58,440 --> 00:08:59,680 ne le dites pas à Siri -- 201 00:09:00,440 --> 00:09:02,006 on peut toujours les débrancher. 202 00:09:02,006 --> 00:09:03,960 (Rires) 203 00:09:05,360 --> 00:09:07,816 Nous participons à un voyage incroyable 204 00:09:07,840 --> 00:09:10,336 de coévolution avec nos machines. 205 00:09:10,360 --> 00:09:12,856 Les humains que nous sommes aujourd'hui 206 00:09:12,880 --> 00:09:15,416 ne sont pas les humains de demain. 207 00:09:15,440 --> 00:09:18,576 S'inquiéter maintenant de l'essor d'une super-intelligence 208 00:09:18,600 --> 00:09:21,656 est, de bien des façons, une distraction dangereuse 209 00:09:21,680 --> 00:09:24,016 car l'essor de l'informatique lui-même 210 00:09:24,040 --> 00:09:27,056 nous amène nombre de problèmes humains et sociétaux 211 00:09:27,080 --> 00:09:28,720 dont nous devons nous occuper. 212 00:09:29,360 --> 00:09:32,176 Comment organiser au mieux la société 213 00:09:32,200 --> 00:09:34,536 quand le besoin de travail humain diminue ? 214 00:09:34,560 --> 00:09:38,376 Comment apporter compréhension et éducation à travers le monde 215 00:09:38,400 --> 00:09:40,176 tout en respectant les différences ? 216 00:09:40,200 --> 00:09:42,690 Comment étendre et améliorer la vie humaine 217 00:09:42,690 --> 00:09:44,480 grâce à la médecine cognitive ? 218 00:09:44,480 --> 00:09:47,336 Comment utiliser l'informatique 219 00:09:47,360 --> 00:09:49,120 pour nous envoyer dans les étoiles ? 220 00:09:49,760 --> 00:09:51,800 C'est cela qui est excitant. 221 00:09:52,400 --> 00:09:56,396 Les opportunités d'utiliser l'informatique pour faire progresser l'expérience humaine 222 00:09:56,396 --> 00:09:57,736 sont à notre portée, 223 00:09:57,760 --> 00:09:59,616 ici et maintenant, 224 00:09:59,640 --> 00:10:01,320 et nous ne faisons que commencer. 225 00:10:02,280 --> 00:10:03,496 Merci beaucoup. 226 00:10:03,520 --> 00:10:07,806 (Applaudissements)