1 00:00:01,000 --> 00:00:02,809 Chris Anderson : Nick Bostrom. 2 00:00:02,833 --> 00:00:06,809 Vous nous avez déjà offert tant d'idées folles. 3 00:00:06,833 --> 00:00:08,559 Je pense à il y a environ 20 ans, 4 00:00:08,583 --> 00:00:11,682 vous avez avancé que nous pourrions tous vivre dans une simulation 5 00:00:11,682 --> 00:00:13,351 ou que c'était probablement le cas. 6 00:00:13,375 --> 00:00:14,726 Plus récemment, 7 00:00:14,750 --> 00:00:17,135 vous avez dépeint les exemples les plus saisissants 8 00:00:17,135 --> 00:00:19,655 quant à comment une intelligence générale artificielle 9 00:00:19,655 --> 00:00:21,348 pourrait terriblement mal tourner. 10 00:00:21,750 --> 00:00:23,143 Cette année, 11 00:00:23,167 --> 00:00:25,393 vous êtes sur le point de publier 12 00:00:25,417 --> 00:00:29,351 un article qui présente une chose appelée l'hypothèse du monde vulnérable. 13 00:00:29,375 --> 00:00:33,958 Notre rôle ce soir est d'offrir un guide illustré à ce sujet. 14 00:00:34,417 --> 00:00:36,250 Allons-y. 15 00:00:36,833 --> 00:00:38,625 Quelle est cette hypothèse ? 16 00:00:40,000 --> 00:00:42,434 Nick Bostrom : C'est une tentative de réflexion 17 00:00:42,458 --> 00:00:45,972 sur une caractéristique structurelle de la condition humaine actuelle. 18 00:00:47,125 --> 00:00:49,476 Vous aimez la métaphore de l'urne 19 00:00:49,500 --> 00:00:51,403 alors je vais l'utiliser pour expliquer. 20 00:00:51,403 --> 00:00:55,768 Imaginez une grande urne remplie de boules 21 00:00:55,792 --> 00:00:59,750 représentant des idées, des méthodes, des technologies possibles. 22 00:01:00,833 --> 00:01:04,559 Vous pouvez voir l'histoire de la créativité humaine 23 00:01:04,583 --> 00:01:06,637 comme le fait de plonger la main dans l'urne 24 00:01:06,637 --> 00:01:08,507 et d'en sortir une boule après l'autre, 25 00:01:08,507 --> 00:01:11,643 et le résultat jusqu'ici a été extrêmement bénéfique. 26 00:01:11,667 --> 00:01:14,393 Nous avons extrait de nombreuses boules blanches, 27 00:01:14,393 --> 00:01:17,348 quelques grises dont les bienfaits sont mitigés. 28 00:01:18,042 --> 00:01:21,000 Jusqu'ici, nous n'avons pas sorti la boule noire -- 29 00:01:22,292 --> 00:01:27,768 une technologie qui détruit invariablement la civilisation qui la découvre. 30 00:01:27,792 --> 00:01:31,223 La publication essaye de réfléchir à ce qu'une balle noire pourrait être. 31 00:01:31,223 --> 00:01:32,893 CA : Vous définissez cette boule 32 00:01:32,917 --> 00:01:36,601 comme étant celle menant invariablement à la destruction de la civilisation. 33 00:01:36,625 --> 00:01:38,888 NB : A moins que nous ne sortions 34 00:01:38,888 --> 00:01:41,958 de ce que j'appelle la condition semi-anarchique par défaut. 35 00:01:41,958 --> 00:01:43,458 Mais par défaut. 36 00:01:44,333 --> 00:01:47,851 CA : Vous présentez un argumentaire convaincant 37 00:01:47,875 --> 00:01:49,893 en montrant des contre-exemples 38 00:01:49,917 --> 00:01:52,851 où vous croyez que jusqu'ici, nous avons eu de la chance, 39 00:01:52,875 --> 00:01:55,726 que nous pourrions avoir sorti la boule de la mort 40 00:01:55,750 --> 00:01:57,309 sans même le savoir. 41 00:01:57,333 --> 00:01:59,625 Il y a cette citation, quelle est-elle ? 42 00:02:00,625 --> 00:02:03,309 NB : Je suppose qu'elle est censée illustrer 43 00:02:03,333 --> 00:02:05,434 la difficulté liée à la prédiction 44 00:02:05,458 --> 00:02:08,143 de ce à quoi mèneront des découvertes élémentaires. 45 00:02:08,167 --> 00:02:11,226 Nous n'avons simplement pas cette capacité. 46 00:02:11,250 --> 00:02:14,601 Car nous sommes devenus bons dans l'extraction de boules 47 00:02:14,625 --> 00:02:18,351 mais nous n'avons pas la capacité de remettre la boule dans l'urne. 48 00:02:18,375 --> 00:02:21,162 Nous pouvons inventer mais nous ne pouvons pas désinventer. 49 00:02:21,583 --> 00:02:24,351 Notre stratégie actuelle 50 00:02:24,375 --> 00:02:26,963 est d'espérer qu'il n'y pas de boule noire dans l'urne. 51 00:02:26,963 --> 00:02:30,893 CA : Une fois sortie, elle est sortie et vous ne pouvez pas la remettre, 52 00:02:30,917 --> 00:02:32,434 et vous nous pensez chanceux. 53 00:02:32,458 --> 00:02:34,684 Expliquez-nous quelques-uns de ces exemples. 54 00:02:34,708 --> 00:02:37,809 Vous parlez de différents types de vulnérabilités. 55 00:02:37,833 --> 00:02:40,268 NB : Le type le plus simple à comprendre 56 00:02:40,292 --> 00:02:45,634 est une technologie qui rend la destruction massive très facile. 57 00:02:47,375 --> 00:02:50,893 La biologie synthétique pourrait être une source féconde d'une telle boule, 58 00:02:50,917 --> 00:02:53,601 mais nombre d'autres choses que nous pourrions -- 59 00:02:53,625 --> 00:02:56,063 pensez à la géo-ingénierie, c'est génial, non ? 60 00:02:56,063 --> 00:02:58,417 Nous pourrions contrer le réchauffement climatique 61 00:02:58,417 --> 00:03:00,653 mais nous ne voulons pas que ce soit trop simple 62 00:03:00,653 --> 00:03:03,059 et qu'un individu quelconque et sa grand-mère 63 00:03:03,083 --> 00:03:06,143 aient la capacité d'altérer radicalement le climat terrestre. 64 00:03:06,167 --> 00:03:09,726 Ou peut-être les drones autonomes mortels, 65 00:03:09,750 --> 00:03:11,483 des essaims de robots tueurs 66 00:03:11,483 --> 00:03:13,843 de la taille d'un moustique et produits en masse. 67 00:03:14,500 --> 00:03:17,226 La nanotechnologie, l'intelligence générale artificielle. 68 00:03:17,250 --> 00:03:18,559 CA : Vous avancez 69 00:03:18,583 --> 00:03:21,530 que c'est une question de chance que quand nous avons découvert 70 00:03:21,530 --> 00:03:24,934 que la puissance nucléaire pouvait créer une bombe, 71 00:03:24,958 --> 00:03:26,351 il aurait pu arriver 72 00:03:26,375 --> 00:03:28,226 que nous puissions créer une bombe 73 00:03:28,250 --> 00:03:31,809 avec des ressources bien plus simples d'accès pour quiconque. 74 00:03:31,833 --> 00:03:35,393 NB : Repensez aux années 30, 75 00:03:35,417 --> 00:03:37,382 où pour la première fois nous avons fait 76 00:03:37,382 --> 00:03:40,042 des découvertes capitales en physique nucléaire, 77 00:03:40,042 --> 00:03:41,760 un génie découvre qu'il est possible 78 00:03:41,760 --> 00:03:43,820 d'entraîner une réaction nucléaire en chaîne 79 00:03:43,820 --> 00:03:46,934 puis réalise que cela pourrait mener à la bombe. 80 00:03:46,958 --> 00:03:48,851 Nous continuons à y travailler 81 00:03:48,875 --> 00:03:51,601 et il s'avère qu'il vous faut, pour une bombe nucléaire, 82 00:03:51,625 --> 00:03:54,018 de l'uranium ou du plutonium hautement enrichi, 83 00:03:54,042 --> 00:03:56,059 qui sont très difficiles à obtenir. 84 00:03:56,083 --> 00:03:58,351 Vous avez besoin d'ultracentrifugeuses, 85 00:03:58,375 --> 00:04:02,143 de réacteurs et de quantités massives d'énergie. 86 00:04:02,167 --> 00:04:03,976 Mais supposez qu'au lieu de cela, 87 00:04:04,000 --> 00:04:07,976 il y ait eu une façon simple de libérer l'énergie de l'atome. 88 00:04:08,000 --> 00:04:10,728 Peut-être qu'en cuisant du sable dans un four micro-ondes 89 00:04:10,728 --> 00:04:11,989 ou quelque chose du genre, 90 00:04:11,989 --> 00:04:14,188 vous auriez pu causer une détonation nucléaire. 91 00:04:14,188 --> 00:04:16,351 Nous savons que c'est physiquement impossible. 92 00:04:16,375 --> 00:04:18,342 Mais avant de faire les calculs adéquats, 93 00:04:18,342 --> 00:04:20,483 comment savoir comment cela allait tourner ? 94 00:04:20,507 --> 00:04:24,023 CA : Ne pourriez-vous pas avancer que pour que la vie évolue sur Terre, 95 00:04:24,042 --> 00:04:27,309 cela suppose un environnement stable, 96 00:04:27,333 --> 00:04:30,472 que s'il était possible de causer des réactions nucléaires massives 97 00:04:30,472 --> 00:04:31,642 relativement facilement, 98 00:04:31,642 --> 00:04:33,400 la Terre n'aurait jamais été stable, 99 00:04:33,424 --> 00:04:34,976 nous ne serions pas là. 100 00:04:35,000 --> 00:04:38,393 NB : Oui, à moins qu'il y ait une chose facile à faire volontairement 101 00:04:38,417 --> 00:04:41,268 mais qui n'arriverait pas par hasard. 102 00:04:41,292 --> 00:04:42,871 Des choses faciles à faire, 103 00:04:42,896 --> 00:04:45,071 comme empiler 10 cubes les uns sur les autres, 104 00:04:45,071 --> 00:04:48,228 mais dans la nature, vous ne trouverez pas une pile de 10 cubes. 105 00:04:48,253 --> 00:04:49,926 CA : C'est probablement la chose 106 00:04:49,950 --> 00:04:52,057 qui inquiète le plus la majorité d'entre nous 107 00:04:52,057 --> 00:04:55,434 et oui, la biologie synthétique est peut-être le chemin le plus rapide 108 00:04:55,458 --> 00:04:58,500 qui, nous pouvons envisager, nous y mènera dans un avenir proche. 109 00:04:58,500 --> 00:05:01,434 NB : Réfléchissez à ce que cela aurait signifié 110 00:05:01,458 --> 00:05:05,101 si, disons, quiconque travaillant dans sa cuisine pendant un après-midi 111 00:05:05,125 --> 00:05:06,518 pouvait détruire une ville. 112 00:05:06,542 --> 00:05:10,101 Il est difficile de voir comment la civilisation moderne actuelle 113 00:05:10,125 --> 00:05:11,559 aurait pu survivre à cela. 114 00:05:11,583 --> 00:05:14,101 Car dans toute population d'un million de personnes, 115 00:05:14,125 --> 00:05:16,809 il y aura toujours quelqu'un qui, peu importe la raison, 116 00:05:16,833 --> 00:05:18,917 choisira d'utiliser ce pouvoir destructeur. 117 00:05:19,750 --> 00:05:22,893 Si ce résidu apocalyptique 118 00:05:22,917 --> 00:05:24,893 décidait de détruire une ville, ou pire, 119 00:05:24,917 --> 00:05:26,476 des villes seraient détruites. 120 00:05:26,500 --> 00:05:28,851 CA : Voici un autre type de vulnérabilité. 121 00:05:28,875 --> 00:05:30,518 Parlez-en. 122 00:05:30,542 --> 00:05:34,518 NB : En plus de ces types de balles noires évidents 123 00:05:34,542 --> 00:05:37,496 qui rendraient possible de faire exploser plein de choses, 124 00:05:37,496 --> 00:05:41,809 d'autres types agiraient en créant de mauvaises incitations 125 00:05:41,833 --> 00:05:44,173 pour que les humains fassent des choses nuisibles. 126 00:05:44,173 --> 00:05:48,184 Le type 2a, nous pouvons l'appeler ainsi, 127 00:05:48,208 --> 00:05:52,726 c'est réfléchir à une technologie qui invite les grandes puissances 128 00:05:52,750 --> 00:05:57,226 à utiliser leurs forces massives pour causer de la destruction. 129 00:05:57,250 --> 00:06:00,083 Les armes nucléaires en étaient très proches. 130 00:06:02,083 --> 00:06:05,143 Nous avons dépensé plus de 10 billions de dollars 131 00:06:05,167 --> 00:06:07,684 pour fabriquer 70 000 ogives nucléaires 132 00:06:07,708 --> 00:06:10,143 et les placer en état d'alerte instantanée. 133 00:06:10,167 --> 00:06:12,434 A plusieurs reprises durant la Guerre froide, 134 00:06:12,458 --> 00:06:13,893 on a failli se faire sauter. 135 00:06:13,917 --> 00:06:17,092 Non pas que beaucoup de gens pensaient que ce serait une super idée 136 00:06:17,092 --> 00:06:19,726 de dépenser 10 billions de dollars pour se faire sauter, 137 00:06:19,750 --> 00:06:22,684 mais les incitations étaient telles que nous nous trouvions -- 138 00:06:22,708 --> 00:06:24,018 cela aurait pu être pire. 139 00:06:24,042 --> 00:06:26,476 Imaginez s'il y a avait eu un premier coup assuré. 140 00:06:26,500 --> 00:06:28,809 Cela aurait pu être très délicat, 141 00:06:28,833 --> 00:06:30,175 dans une situation de crise, 142 00:06:30,175 --> 00:06:32,646 de s'abstenir de lancer tous les missiles nucléaires. 143 00:06:32,646 --> 00:06:33,743 A défaut d'autre chose, 144 00:06:33,743 --> 00:06:36,042 car vous craindriez que l'autre camp ne le fasse. 145 00:06:36,042 --> 00:06:37,851 CA : La destruction mutuelle assurée 146 00:06:37,875 --> 00:06:40,601 a maintenu la Guerre froide relativement stable. 147 00:06:40,625 --> 00:06:42,583 Sans cela, nous pourrions ne pas être là. 148 00:06:42,583 --> 00:06:44,873 NB : Cela aurait pu être plus instable que cela. 149 00:06:44,873 --> 00:06:47,452 Il pourrait y avoir d'autres propriétés technologiques. 150 00:06:47,452 --> 00:06:49,601 Il aurait pu être plus dur d'avoir des traités 151 00:06:49,625 --> 00:06:51,226 si au lieu des armes nucléaires, 152 00:06:51,250 --> 00:06:54,212 cela avait été une chose plus petite ou moins distinctive. 153 00:06:54,212 --> 00:06:57,175 CA : Avec les mauvaises incitations pour les acteurs puissants, 154 00:06:57,175 --> 00:07:00,417 vous vous inquiétez de telles incitations pour nous tous, le type 2b. 155 00:07:00,417 --> 00:07:04,667 NB : Nous pourrions prendre le cas du réchauffement climatique. 156 00:07:06,958 --> 00:07:08,851 Il y a beaucoup de petits conforts 157 00:07:08,875 --> 00:07:11,163 qui mènent chacun d'entre nous à faire des choses 158 00:07:11,163 --> 00:07:13,934 qui, individuellement, n'ont pas d'effet significatif. 159 00:07:13,958 --> 00:07:15,884 Mais si des milliards de gens le font, 160 00:07:15,884 --> 00:07:18,042 cumulativement, cela a un effet préjudiciable. 161 00:07:18,042 --> 00:07:20,995 Le réchauffement climatique aurait pu être pire qu'il ne l'est. 162 00:07:20,995 --> 00:07:23,851 Nous avons le paramètre de sensibilité climatique. 163 00:07:23,875 --> 00:07:27,518 C'est un paramètre qui indique le réchauffement 164 00:07:27,542 --> 00:07:30,250 si on émet une certaine quantité de gaz à effet de serre. 165 00:07:30,250 --> 00:07:32,643 Mais supposez que la situation 166 00:07:32,667 --> 00:07:35,338 soit qu'avec les quantités de gaz à effet de serre émis, 167 00:07:35,338 --> 00:07:41,042 au lieu d'une température augmentant d'entre 3 et 4,5 degrés d'ici 2100, 168 00:07:41,042 --> 00:07:43,542 imaginez que c'eût été 15 ou 20 degrés. 169 00:07:44,375 --> 00:07:46,934 La situation aurait alors été très mauvaise. 170 00:07:46,958 --> 00:07:50,245 Imaginez que les énergies renouvelables aient été bien plus complexes. 171 00:07:50,245 --> 00:07:52,768 Ou qu'il y ait eu plus de carburants fossiles. 172 00:07:52,792 --> 00:07:55,434 CA : Ne pourriez-vous pas avancer que dans ce cas de -- 173 00:07:55,458 --> 00:07:57,184 si ce que nous faisons aujourd'hui 174 00:07:57,208 --> 00:08:01,768 avait entraîné une différence de 10 degrés sur une période que nous pourrions voir, 175 00:08:01,792 --> 00:08:05,476 l'humanité se serait bougé le cul et y aurait fait quelque chose. 176 00:08:05,500 --> 00:08:08,309 Nous sommes stupides, mais peut-être pas autant. 177 00:08:08,333 --> 00:08:09,601 Ou peut-être que si. 178 00:08:09,625 --> 00:08:10,893 NB : Je ne parierais pas. 179 00:08:10,917 --> 00:08:13,101 (Rires) 180 00:08:13,125 --> 00:08:15,033 Vous pourriez imaginer d'autres options. 181 00:08:15,033 --> 00:08:20,351 Actuellement, c'est un peu difficile de passer aux énergies renouvelables, 182 00:08:20,375 --> 00:08:21,643 mais c'est possible. 183 00:08:21,667 --> 00:08:24,727 Cela aurait pu être que, avec une physique légèrement différente, 184 00:08:24,727 --> 00:08:27,458 il aurait été bien plus cher de faire ces choses-là. 185 00:08:28,375 --> 00:08:29,893 CA : Quelle est votre opinion ? 186 00:08:29,917 --> 00:08:32,351 Pensez-vous, en réunissant ces possibilités, 187 00:08:32,375 --> 00:08:36,643 cette Terre, l'humanité que nous sommes, 188 00:08:36,667 --> 00:08:38,250 nous sommes un monde vulnérable ? 189 00:08:38,250 --> 00:08:40,667 Qu'il y a une boule de la mort dans notre futur ? 190 00:08:43,958 --> 00:08:45,300 NB : C'est difficile à dire. 191 00:08:45,300 --> 00:08:50,309 Je pense qu'il pourrait y avoir diverses boules noires dans l'urne, 192 00:08:50,333 --> 00:08:51,643 c'est ce qu'il semble. 193 00:08:51,667 --> 00:08:54,059 Il pourrait aussi y avoir des boules dorées 194 00:08:54,083 --> 00:08:57,559 qui nous aideraient à nous protéger des boules noires. 195 00:08:57,583 --> 00:09:00,559 Je ne sais pas dans quel ordre elles vont sortir. 196 00:09:00,583 --> 00:09:04,434 CA : Une critique philosophique possible de cette idée, 197 00:09:04,458 --> 00:09:10,101 c'est que cela implique une vision de l'avenir qui est globalement établie. 198 00:09:10,125 --> 00:09:12,601 Soit cette boule est là, soit elle ne l'est pas. 199 00:09:12,625 --> 00:09:16,967 D'une certaine façon, ce n'est pas une vision de l'avenir 200 00:09:16,967 --> 00:09:18,268 en laquelle je veux croire. 201 00:09:18,292 --> 00:09:20,643 Je veux croire que l'avenir est indéterminé, 202 00:09:20,667 --> 00:09:22,685 que nos décisions aujourd'hui détermineront 203 00:09:22,685 --> 00:09:24,833 quel genre de boules nous sortons de l'urne. 204 00:09:25,917 --> 00:09:29,684 NB : Si nous continuons à inventer, 205 00:09:29,708 --> 00:09:32,042 nous finirons par sortir toutes les boules. 206 00:09:32,875 --> 00:09:36,268 Je pense qu'il y a une forme de déterminisme technologique 207 00:09:36,292 --> 00:09:37,559 qui est assez plausible. 208 00:09:37,583 --> 00:09:40,226 Vous avez peu de probabilités de rencontrer une société 209 00:09:40,250 --> 00:09:43,083 qui utilise des haches en silex et des avions à réaction. 210 00:09:44,208 --> 00:09:48,188 Vous pouvez presque voir la technologie comme un ensemble de potentialités. 211 00:09:48,188 --> 00:09:51,403 La technologie est la chose nous permettant de faire diverses choses 212 00:09:51,403 --> 00:09:53,309 et d'obtenir divers effets sur le monde. 213 00:09:53,333 --> 00:09:56,143 Comment nous allons l'utiliser dépend des choix humains. 214 00:09:56,167 --> 00:09:58,851 Mais si vous pensez à ces trois types de vulnérabilités, 215 00:09:58,875 --> 00:10:02,268 elles ne supposent pas tant de comment nous choisirions de l'utiliser. 216 00:10:02,292 --> 00:10:05,644 Une vulnérabilité de type 1, cet énorme pouvoir destructeur, 217 00:10:05,644 --> 00:10:07,167 ce n'est pas une hypothèse forte 218 00:10:07,167 --> 00:10:09,663 de penser que dans une population de millions de gens 219 00:10:09,663 --> 00:10:12,518 il y en aurait qui choisiraient de l'utiliser pour détruire. 220 00:10:12,542 --> 00:10:14,976 CA : Pour moi, l'argument qui me perturbe le plus, 221 00:10:15,000 --> 00:10:19,559 c'est que nous pourrions avoir un aperçu de l'urne 222 00:10:19,583 --> 00:10:23,101 qui rendrait très probable que nous soyons condamnés. 223 00:10:23,125 --> 00:10:27,768 Si vous croyez au pouvoir accélérateur, 224 00:10:27,792 --> 00:10:30,059 qu'intrinsèquement, la technologie accélère, 225 00:10:30,083 --> 00:10:32,672 que nous créons les outils nous rendant plus puissants, 226 00:10:32,672 --> 00:10:35,184 vous finissez par en arriver à un point 227 00:10:35,208 --> 00:10:38,268 où chaque individu peut tous nous éliminer 228 00:10:38,292 --> 00:10:41,143 et il semble alors que nous soyons foutus. 229 00:10:41,167 --> 00:10:44,101 Cet argument n'est-il pas alarmant ? 230 00:10:44,125 --> 00:10:45,875 NB : Oui. 231 00:10:46,708 --> 00:10:47,976 (Rires) 232 00:10:48,000 --> 00:10:49,333 Je pense -- 233 00:10:50,875 --> 00:10:52,650 Nous avons de plus en plus de pouvoir 234 00:10:52,650 --> 00:10:56,434 et il est de plus en plus simple d'utiliser ce pouvoir, 235 00:10:56,458 --> 00:10:58,748 mais nous pouvons aussi inventer des technologies 236 00:10:58,748 --> 00:11:02,283 qui nous aident à contrôler l'utilisation que les gens font de ce pouvoir. 237 00:11:02,303 --> 00:11:04,934 CA : Parlons de cela, parlons de la réponse. 238 00:11:04,958 --> 00:11:07,268 Supposons que réfléchir à toutes les possibilités 239 00:11:07,292 --> 00:11:09,393 qu'il y a actuellement -- 240 00:11:09,417 --> 00:11:13,143 ce n'est pas que la biologie synthétique, ce sont les cyberguerres, 241 00:11:13,167 --> 00:11:16,518 l'intelligence artificielle et ainsi de suite -- 242 00:11:16,542 --> 00:11:21,059 qu'il y a une condamnation sérieuse dans notre avenir. 243 00:11:21,083 --> 00:11:22,848 Quelles sont les réponses possibles ? 244 00:11:22,848 --> 00:11:27,601 Vous avez parlé de quatre réponses possibles. 245 00:11:27,625 --> 00:11:29,862 NB : Restreindre le développement technologique 246 00:11:29,862 --> 00:11:31,292 ne semble pas prometteur 247 00:11:31,292 --> 00:11:33,302 si nous parlons d'une interruption générale 248 00:11:33,302 --> 00:11:34,612 des progrès technologiques. 249 00:11:34,612 --> 00:11:36,443 Ce n'est ni faisable ni désirable, 250 00:11:36,443 --> 00:11:38,143 même si nous le pouvions. 251 00:11:38,183 --> 00:11:41,200 Je pense qu'il y a des domaines très limités 252 00:11:41,208 --> 00:11:44,068 où vous pourriez vouloir ralentir les progrès technologiques. 253 00:11:44,068 --> 00:11:47,351 Vous ne voulez pas de progrès plus rapides pour les armes biologiques 254 00:11:47,375 --> 00:11:49,434 ou la séparation d'isotope, 255 00:11:49,458 --> 00:11:51,958 ce qui faciliterait la création de bombes nucléaires. 256 00:11:52,583 --> 00:11:55,893 CA : Avant, j'étais complètement d'accord avec cela. 257 00:11:55,917 --> 00:11:59,184 Mais j'aimerais prendre un instant pour contre-argumenter. 258 00:11:59,208 --> 00:12:00,518 Tout d'abord, 259 00:12:00,542 --> 00:12:03,226 si vous considérez l'histoire des dernières décennies, 260 00:12:03,250 --> 00:12:06,809 il y a toujours eu une évolution vers l'avant à pleine vitesse, 261 00:12:06,833 --> 00:12:08,684 ça va, c'est notre seul choix. 262 00:12:08,708 --> 00:12:12,976 Mais si vous considérez la mondialisation et son accélération rapide, 263 00:12:13,000 --> 00:12:16,434 si vous considérez la stratégie d' « avancer vite et casser des trucs » 264 00:12:16,458 --> 00:12:18,518 et ce qui est arrivé, 265 00:12:18,542 --> 00:12:21,603 puis que vous considérez le potentiel de la biologie synthétique, 266 00:12:21,603 --> 00:12:25,768 je ne sais pas si nous devrions avancer rapidement 267 00:12:25,792 --> 00:12:27,434 ou sans aucune restriction 268 00:12:27,458 --> 00:12:30,768 vers un monde où vous pourriez avoir une imprimante d'ADN à la maison 269 00:12:30,792 --> 00:12:32,125 et dans les lycées. 270 00:12:33,167 --> 00:12:34,851 Il y a des restrictions, non ? 271 00:12:34,875 --> 00:12:37,518 NB : Il y a la première partie : l'infaisabilité. 272 00:12:37,542 --> 00:12:39,820 Si vous pensez qu'il serait désirable d'arrêter, 273 00:12:39,820 --> 00:12:41,476 il y a le problème de faisabilité. 274 00:12:41,500 --> 00:12:44,309 Cela n'aide pas vraiment si une nation -- 275 00:12:44,333 --> 00:12:46,351 CA : Cela n'aide pas si une nation arrête, 276 00:12:46,375 --> 00:12:49,309 mais nous avons eu des traités auparavant. 277 00:12:49,333 --> 00:12:52,684 C'est ainsi que nous avons survécu à la menace nucléaire, 278 00:12:52,708 --> 00:12:56,526 c'est en en passant par le processus douloureux des négociations. 279 00:12:56,542 --> 00:13:01,976 Je me demande si la logique n'est pas que nous, en termes de priorité mondiale, 280 00:13:02,000 --> 00:13:03,684 nous ne devrions pas essayer, 281 00:13:03,708 --> 00:13:06,393 commencer à négocier maintenant des règles très strictes 282 00:13:06,417 --> 00:13:09,101 sur les lieux de conduite de recherches biologiques. 283 00:13:09,125 --> 00:13:11,976 Ce n'est pas une chose que vous voulez démocratiser, si ? 284 00:13:12,000 --> 00:13:13,809 NB : Je suis complètement d'accord -- 285 00:13:13,833 --> 00:13:18,059 il serait désirable, par exemple, 286 00:13:18,083 --> 00:13:21,684 d'avoir des machines de synthèse d'ADN, 287 00:13:21,708 --> 00:13:25,268 pas en tant que produit pour lequel chaque labo a son appareil, 288 00:13:25,292 --> 00:13:26,768 mais en tant que service. 289 00:13:26,792 --> 00:13:29,309 Il pourrait y avoir quatre ou cinq endroits au monde 290 00:13:29,333 --> 00:13:31,455 où vous pourriez envoyer un modèle numérique 291 00:13:31,455 --> 00:13:32,875 et l'ADN arriverait à vous. 292 00:13:32,875 --> 00:13:34,643 Vous auriez la capacité, 293 00:13:34,667 --> 00:13:37,059 si un jour cela semblait vraiment nécessaire, 294 00:13:37,083 --> 00:13:39,658 il y aurait un ensemble fini de goulots d'étranglement. 295 00:13:39,658 --> 00:13:42,976 Je pense que vous voulez considérer des opportunités particulières 296 00:13:43,000 --> 00:13:45,203 où vous pourriez avoir un contrôle plus strict. 297 00:13:45,203 --> 00:13:46,726 CA : Vous croyez, au fond, 298 00:13:46,750 --> 00:13:49,643 que nous ne réussirons pas à contenir les choses. 299 00:13:49,667 --> 00:13:52,393 Quelqu'un, quelque part -- en Corée du Nord -- 300 00:13:52,417 --> 00:13:55,934 quelqu'un va y arriver et découvrir ce savoir, 301 00:13:55,958 --> 00:13:57,226 s'il est à découvrir. 302 00:13:57,226 --> 00:13:59,625 NB : C'est plausible dans les conditions actuelles. 303 00:13:59,625 --> 00:14:01,583 Ce n'est pas que la biologie synthétique. 304 00:14:01,583 --> 00:14:04,101 N'importe quel genre de changement profond et nouveau 305 00:14:04,101 --> 00:14:05,727 pourrait être une boule noire. 306 00:14:05,727 --> 00:14:07,823 CA : Considérons une autre réponse possible. 307 00:14:07,823 --> 00:14:10,226 NB : Ceci, à mon avis, a un potentiel limité. 308 00:14:10,250 --> 00:14:13,809 Avec la vulnérabilité de type 1, 309 00:14:13,833 --> 00:14:18,184 si vous pouvez réduire le nombre de personnes qui sont motivées 310 00:14:18,208 --> 00:14:19,476 à détruire le monde, 311 00:14:19,476 --> 00:14:21,643 si elles seules avaient l'accès et les moyens, 312 00:14:21,643 --> 00:14:22,851 ce serait bien. 313 00:14:22,875 --> 00:14:24,851 CA : Dans cette image, 314 00:14:24,875 --> 00:14:27,204 vous imaginez ces drones volant à travers le monde 315 00:14:27,204 --> 00:14:28,750 avec une reconnaissance faciale. 316 00:14:28,750 --> 00:14:31,887 Quand ils repèrent quelqu'un présentant un comportement sociopathe, 317 00:14:31,887 --> 00:14:33,851 ils le couvrent d'amour, le rétablissent. 318 00:14:33,875 --> 00:14:35,768 NB : C'est une image hybride. 319 00:14:35,792 --> 00:14:39,809 Éliminer peut signifier soit incarcérer ou tuer, 320 00:14:39,833 --> 00:14:42,851 soit les persuader d'avoir une meilleure vision du monde. 321 00:14:42,875 --> 00:14:44,601 Le principe, c'est : 322 00:14:44,625 --> 00:14:46,768 imaginez être extrêmement performant 323 00:14:46,792 --> 00:14:50,101 et réduire le nombre de tels individus de moitié. 324 00:14:50,125 --> 00:14:52,132 Si vous voulez le faire via la persuasion, 325 00:14:52,132 --> 00:14:54,334 vous rivalisez contre toutes les grandes forces 326 00:14:54,334 --> 00:14:56,063 qui essayent de persuader les gens, 327 00:14:56,063 --> 00:14:58,178 les partis, la religion, le système éducatif. 328 00:14:58,178 --> 00:14:59,997 Supposez pouvoir le réduire de moitié, 329 00:14:59,997 --> 00:15:02,143 le risque ne serait pas réduit de moitié. 330 00:15:02,167 --> 00:15:03,726 Peut-être de 5% ou 10%. 331 00:15:03,750 --> 00:15:06,895 CA : Vous ne recommandez pas que l'on parie l'avenir de l'humanité 332 00:15:06,895 --> 00:15:08,125 sur la seconde réponse. 333 00:15:08,125 --> 00:15:11,143 NB : C'est bien d'essayer de dissuader et persuader les gens, 334 00:15:11,167 --> 00:15:14,143 mais pas miser dessus comme seul dispositif de sécurité. 335 00:15:14,167 --> 00:15:15,598 CA : Et la troisième réponse ? 336 00:15:15,598 --> 00:15:18,351 NB : Il y a deux méthodes générales 337 00:15:18,375 --> 00:15:22,351 que nous pourrions utiliser pour parvenir à la capacité de stabiliser le monde 338 00:15:22,375 --> 00:15:25,351 face à l'éventail complet des vulnérabilités possibles. 339 00:15:25,375 --> 00:15:26,934 Nous aurions besoin des deux. 340 00:15:26,958 --> 00:15:31,476 Une est une capacité optimale 341 00:15:31,500 --> 00:15:33,268 de prévention policière. 342 00:15:33,292 --> 00:15:34,816 Afin de pouvoir intercepter. 343 00:15:34,840 --> 00:15:37,601 Si quiconque entamait cette chose dangereuse, 344 00:15:37,625 --> 00:15:40,309 vous pourriez l'intercepter en temps réel et l'arrêter. 345 00:15:40,333 --> 00:15:42,809 Cela nécessiterait une surveillance omniprésente, 346 00:15:42,833 --> 00:15:45,208 tout le monde serait constamment surveillé. 347 00:15:46,333 --> 00:15:48,893 CA : C'est en gros une forme de « Minority Report ». 348 00:15:48,917 --> 00:15:50,851 NB : Vous auriez des algorithmes d'IA, 349 00:15:50,875 --> 00:15:55,292 de gros centres de liberté qui examineraient cela, et ainsi de suite. 350 00:15:56,583 --> 00:16:00,976 CA : La surveillance de masse n'est pas très populaire en ce moment. 351 00:16:01,000 --> 00:16:02,250 (Rires) 352 00:16:03,458 --> 00:16:05,268 NB : Ce petit dispositif, 353 00:16:05,292 --> 00:16:08,893 imaginez ce genre de collier que vous devriez porter tout le temps, 354 00:16:08,917 --> 00:16:10,917 avec des caméras multidirectionnelles. 355 00:16:11,792 --> 00:16:13,601 Mais pour que cela passe mieux, 356 00:16:13,625 --> 00:16:16,149 appelez-le la « balise de la liberté » ou autre. 357 00:16:16,173 --> 00:16:18,184 (Rires) 358 00:16:18,208 --> 00:16:19,476 CA : D'accord. 359 00:16:19,500 --> 00:16:21,601 C'est la conversation -- 360 00:16:21,625 --> 00:16:25,184 c'est pour cela que c'est une conversation si époustouflante. 361 00:16:25,208 --> 00:16:29,159 NB : Il y a toute une conversation à ce sujet-là en particulier. 362 00:16:29,167 --> 00:16:31,643 Il y a de gros problèmes et risques avec cela. 363 00:16:31,667 --> 00:16:33,058 Nous y reviendrons peut-être. 364 00:16:33,058 --> 00:16:34,226 L'autre, la dernière, 365 00:16:34,250 --> 00:16:38,917 l'autre capacité de stabilisation générale comble un autre vide dans la gouvernance. 366 00:16:38,917 --> 00:16:43,101 La surveillance comblerait pour un vide dans la gouvernance à un niveau micro : 367 00:16:43,125 --> 00:16:46,226 empêcher quiconque de faire quoi que ce soit de hautement illégal. 368 00:16:46,250 --> 00:16:48,559 Il y un vide équivalent dans la gouvernance 369 00:16:48,583 --> 00:16:50,518 au niveau macro, au niveau mondial. 370 00:16:50,542 --> 00:16:54,476 Il vous faudrait la capacité fiable 371 00:16:54,500 --> 00:16:57,373 d'empêcher les pires types d'échecs de coordination mondiale, 372 00:16:57,373 --> 00:17:01,101 d'éviter les guerres entre les grandes puissances, 373 00:17:01,125 --> 00:17:02,458 les courses à l'armement, 374 00:17:03,500 --> 00:17:05,708 les problèmes communs cataclysmiques, 375 00:17:07,667 --> 00:17:11,851 afin de faire face aux vulnérabilités de type 2a. 376 00:17:11,875 --> 00:17:13,833 CA : La gouvernance mondiale est un terme 377 00:17:13,833 --> 00:17:16,059 qui n'est plus du tout à la mode actuellement, 378 00:17:16,083 --> 00:17:18,601 mais vous pourriez avancer qu'au cours de l'histoire, 379 00:17:18,601 --> 00:17:19,977 de l'histoire de l'humanité, 380 00:17:19,977 --> 00:17:25,351 à chaque moment de montée du pouvoir technologique, 381 00:17:25,375 --> 00:17:28,601 les gens se sont réorganisés et ont centralisé le pouvoir. 382 00:17:28,625 --> 00:17:32,059 Par exemple, quand un groupe de criminels itinérants 383 00:17:32,083 --> 00:17:34,092 pouvait prendre le contrôle d'une société, 384 00:17:34,092 --> 00:17:36,031 la réponse a été d'avoir un État-nation 385 00:17:36,055 --> 00:17:38,489 et une force centralisée, policière ou militaire, 386 00:17:38,513 --> 00:17:40,143 pour que ce ne soit pas possible. 387 00:17:40,167 --> 00:17:44,726 La logique d'avoir une seule personne ou un seul groupe 388 00:17:44,750 --> 00:17:46,393 capable d'éradiquer l'humanité 389 00:17:46,417 --> 00:17:49,143 signifie qu'à un moment, nous devrons emprunter ce chemin, 390 00:17:49,167 --> 00:17:50,601 sous une certaine forme, non ? 391 00:17:50,625 --> 00:17:54,309 NB : Il est vrai que l'échelle de l'organisation politique a augmenté 392 00:17:54,333 --> 00:17:56,476 au cours de l'histoire humaine. 393 00:17:56,500 --> 00:17:58,518 C'était un groupe de chasseurs-cueilleurs, 394 00:17:58,542 --> 00:18:01,476 puis des chefferies, des cité-États, des nations, 395 00:18:01,500 --> 00:18:05,476 maintenant il y a des organisations internationales et ainsi de suite. 396 00:18:05,500 --> 00:18:07,018 Je veux juste m'assurer 397 00:18:07,042 --> 00:18:08,684 d'avoir l'opportunité d'insister 398 00:18:08,684 --> 00:18:10,748 qu'il y a évidemment d'énormes inconvénients 399 00:18:10,748 --> 00:18:12,226 et d'énormes risques 400 00:18:12,250 --> 00:18:15,601 dans la surveillance de masse et la gouvernance mondiale. 401 00:18:15,625 --> 00:18:18,184 Je vais faire remarquer que si nous sommes chanceux, 402 00:18:18,184 --> 00:18:20,987 le monde pourrait être tel que ce seraient les seules façons 403 00:18:20,987 --> 00:18:22,434 de survivre à une boule noire. 404 00:18:22,458 --> 00:18:24,976 CA : La logique de cette théorie, 405 00:18:25,000 --> 00:18:26,268 me semble-t-il, 406 00:18:26,292 --> 00:18:29,893 c'est que nous devons reconnaître que nous ne pouvons pas tout avoir. 407 00:18:29,917 --> 00:18:31,750 C'est le genre 408 00:18:33,500 --> 00:18:36,476 de rêve naïf, si je puis dire, que nombre d'entre nous avaient 409 00:18:36,500 --> 00:18:39,851 que la technologie sera toujours une force du bien, 410 00:18:39,875 --> 00:18:42,851 qu'il ne faut ne pas s'arrêter, aller aussi vite que possible 411 00:18:42,875 --> 00:18:45,320 et ne pas prêter attention à certaines conséquences, 412 00:18:45,320 --> 00:18:46,934 ce n'est même pas une option. 413 00:18:46,958 --> 00:18:48,893 Nous pouvons le faire. 414 00:18:48,917 --> 00:18:50,184 Si nous le faisons, 415 00:18:50,208 --> 00:18:51,643 il faudra accepter 416 00:18:51,667 --> 00:18:54,196 certaines choses très désagréables 417 00:18:54,196 --> 00:18:56,500 et faire la course à l'armement avec nous-mêmes : 418 00:18:56,500 --> 00:18:58,930 si vous voulez le pouvoir, vous devriez le confiner, 419 00:18:58,930 --> 00:19:00,934 vous devriez trouver comment le confiner. 420 00:19:00,958 --> 00:19:04,434 NB : Je pense que c'est une option, 421 00:19:04,458 --> 00:19:07,226 une option très tentante, dans un sens la plus simple 422 00:19:07,250 --> 00:19:08,652 et cela pourrait fonctionner, 423 00:19:08,652 --> 00:19:13,351 mais nous sommes alors vulnérables à l'extraction d'une boule noire. 424 00:19:13,375 --> 00:19:15,518 Avec un peu de coordination -- 425 00:19:15,542 --> 00:19:18,268 en résolvant ce problème de macro gouvernance 426 00:19:18,268 --> 00:19:19,917 et celui de micro gouvernance -- 427 00:19:19,917 --> 00:19:22,310 nous pourrions extraire toutes les boules de l'urne 428 00:19:22,310 --> 00:19:24,518 et nous en bénéficierons grandement. 429 00:19:24,542 --> 00:19:27,976 CA : Si nous vivons dans une simulation, cela importe-t-il ? 430 00:19:28,000 --> 00:19:29,309 Nous recommençons. 431 00:19:29,333 --> 00:19:30,601 (Rires) 432 00:19:30,625 --> 00:19:32,268 NB : Alors... je... 433 00:19:32,292 --> 00:19:34,768 (Rires) 434 00:19:34,792 --> 00:19:36,208 Je ne l'ai pas vu arriver. 435 00:19:38,125 --> 00:19:39,607 CA : Quelle est votre opinion ? 436 00:19:39,607 --> 00:19:41,720 En rassemblant toutes les pièces, 437 00:19:41,720 --> 00:19:44,250 quelle est notre probabilité d'être condamnés ? 438 00:19:44,250 --> 00:19:46,208 (Rires) 439 00:19:47,042 --> 00:19:49,434 J'adore comment les gens rient à cette question. 440 00:19:49,458 --> 00:19:50,809 NB : A un niveau individuel, 441 00:19:50,833 --> 00:19:54,684 nous semblons condamnés, juste d'un point de vue de l'échéance, 442 00:19:54,708 --> 00:19:57,309 nous nous décomposons et vieillissons. 443 00:19:57,333 --> 00:19:58,934 (Rires) 444 00:19:58,958 --> 00:20:00,643 C'est délicat. 445 00:20:00,667 --> 00:20:03,434 Si vous voulez y attacher une probabilité, 446 00:20:03,458 --> 00:20:04,940 tout d'abord, qui sommes-nous ? 447 00:20:04,940 --> 00:20:07,476 Si vous êtes vieux, vous mourrez de causes naturelles. 448 00:20:07,500 --> 00:20:09,851 Si vous êtes jeune, vous avez 100 ans peut-être, 449 00:20:09,875 --> 00:20:12,018 selon à qui vous demandez. 450 00:20:12,042 --> 00:20:16,268 Le seuil : qu'est-ce qui compte comme un dévaste civilisationnel ? 451 00:20:16,292 --> 00:20:21,934 Dans l'article, je n'ai pas besoin d'une catastrophe civilisationnelle 452 00:20:21,958 --> 00:20:23,393 pour que cela compte. 453 00:20:23,417 --> 00:20:25,101 C'est une question de définition. 454 00:20:25,125 --> 00:20:26,434 Je dis un milliard de morts 455 00:20:26,458 --> 00:20:28,518 ou une diminution du PIB mondial de 50%, 456 00:20:28,542 --> 00:20:30,768 mais selon le seuil que vous donnez, 457 00:20:30,792 --> 00:20:32,768 vous aurez une probabilité différente. 458 00:20:32,792 --> 00:20:37,309 Vous pourriez dire que je suis un optimiste effrayé. 459 00:20:37,333 --> 00:20:38,434 (Rires) 460 00:20:38,458 --> 00:20:40,125 CA : Vous êtes un optimiste effrayé 461 00:20:40,125 --> 00:20:45,708 et vous venez de créer un grand nombre d'autres personnes effrayées. 462 00:20:45,708 --> 00:20:46,768 (Rires) 463 00:20:46,792 --> 00:20:48,059 NB : Dans la simulation. 464 00:20:48,083 --> 00:20:49,351 CA : Dans une simulation. 465 00:20:49,375 --> 00:20:51,059 Nick Bostrom, votre esprit m'épate. 466 00:20:51,083 --> 00:20:53,976 Merci beaucoup de nous avoir effrayés. 467 00:20:54,000 --> 00:20:56,375 (Applaudissements)