0:00:01.000,0:00:02.809 Chris Anderson : Nick Bostrom. 0:00:02.833,0:00:06.809 Vous nous avez déjà offert[br]tant d'idées folles. 0:00:06.833,0:00:08.559 Je pense à il y a environ 20 ans, 0:00:08.583,0:00:11.682 vous avez avancé que nous pourrions[br]tous vivre dans une simulation 0:00:11.682,0:00:13.351 ou que c'était probablement le cas. 0:00:13.375,0:00:14.726 Plus récemment, 0:00:14.750,0:00:17.135 vous avez dépeint les exemples[br]les plus saisissants 0:00:17.135,0:00:19.655 quant à comment une intelligence[br]générale artificielle 0:00:19.655,0:00:21.348 pourrait terriblement mal tourner. 0:00:21.750,0:00:23.143 Cette année, 0:00:23.167,0:00:25.393 vous êtes sur le point de publier 0:00:25.417,0:00:29.351 un article qui présente une chose appelée[br]l'hypothèse du monde vulnérable. 0:00:29.375,0:00:33.958 Notre rôle ce soir est d'offrir[br]un guide illustré à ce sujet. 0:00:34.417,0:00:36.250 Allons-y. 0:00:36.833,0:00:38.625 Quelle est cette hypothèse ? 0:00:40.000,0:00:42.434 Nick Bostrom :[br]C'est une tentative de réflexion 0:00:42.458,0:00:45.972 sur une caractéristique structurelle[br]de la condition humaine actuelle. 0:00:47.125,0:00:49.476 Vous aimez la métaphore de l'urne 0:00:49.500,0:00:51.403 alors je vais l'utiliser pour expliquer. 0:00:51.403,0:00:55.768 Imaginez une grande urne remplie de boules 0:00:55.792,0:00:59.750 représentant des idées, des méthodes,[br]des technologies possibles. 0:01:00.833,0:01:04.559 Vous pouvez voir l'histoire[br]de la créativité humaine 0:01:04.583,0:01:06.637 comme le fait de plonger[br]la main dans l'urne 0:01:06.637,0:01:08.507 et d'en sortir une boule après l'autre, 0:01:08.507,0:01:11.643 et le résultat jusqu'ici[br]a été extrêmement bénéfique. 0:01:11.667,0:01:14.393 Nous avons extrait[br]de nombreuses boules blanches, 0:01:14.393,0:01:17.348 quelques grises[br]dont les bienfaits sont mitigés. 0:01:18.042,0:01:21.000 Jusqu'ici, nous n'avons pas[br]sorti la boule noire -- 0:01:22.292,0:01:27.768 une technologie qui détruit invariablement[br]la civilisation qui la découvre. 0:01:27.792,0:01:31.223 La publication essaye de réfléchir[br]à ce qu'une balle noire pourrait être. 0:01:31.223,0:01:32.893 CA : Vous définissez cette boule 0:01:32.917,0:01:36.601 comme étant celle menant invariablement[br]à la destruction de la civilisation. 0:01:36.625,0:01:38.888 NB : A moins que nous ne sortions 0:01:38.888,0:01:41.958 de ce que j'appelle la condition[br]semi-anarchique par défaut. 0:01:41.958,0:01:43.458 Mais par défaut. 0:01:44.333,0:01:47.851 CA : Vous présentez[br]un argumentaire convaincant 0:01:47.875,0:01:49.893 en montrant des contre-exemples 0:01:49.917,0:01:52.851 où vous croyez que jusqu'ici,[br]nous avons eu de la chance, 0:01:52.875,0:01:55.726 que nous pourrions avoir sorti[br]la boule de la mort 0:01:55.750,0:01:57.309 sans même le savoir. 0:01:57.333,0:01:59.625 Il y a cette citation, quelle est-elle ? 0:02:00.625,0:02:03.309 NB : Je suppose[br]qu'elle est censée illustrer 0:02:03.333,0:02:05.434 la difficulté liée à la prédiction 0:02:05.458,0:02:08.143 de ce à quoi mèneront[br]des découvertes élémentaires. 0:02:08.167,0:02:11.226 Nous n'avons simplement pas[br]cette capacité. 0:02:11.250,0:02:14.601 Car nous sommes devenus bons[br]dans l'extraction de boules 0:02:14.625,0:02:18.351 mais nous n'avons pas la capacité[br]de remettre la boule dans l'urne. 0:02:18.375,0:02:21.162 Nous pouvons inventer[br]mais nous ne pouvons pas désinventer. 0:02:21.583,0:02:24.351 Notre stratégie actuelle 0:02:24.375,0:02:26.963 est d'espérer qu'il n'y pas[br]de boule noire dans l'urne. 0:02:26.963,0:02:30.893 CA : Une fois sortie, elle est sortie[br]et vous ne pouvez pas la remettre, 0:02:30.917,0:02:32.434 et vous nous pensez chanceux. 0:02:32.458,0:02:34.684 Expliquez-nous quelques-uns[br]de ces exemples. 0:02:34.708,0:02:37.809 Vous parlez de différents types[br]de vulnérabilités. 0:02:37.833,0:02:40.268 NB : Le type le plus simple à comprendre 0:02:40.292,0:02:45.634 est une technologie qui rend[br]la destruction massive très facile. 0:02:47.375,0:02:50.893 La biologie synthétique pourrait être[br]une source féconde d'une telle boule, 0:02:50.917,0:02:53.601 mais nombre d'autres choses[br]que nous pourrions -- 0:02:53.625,0:02:56.063 pensez à la géo-ingénierie,[br]c'est génial, non ? 0:02:56.063,0:02:58.417 Nous pourrions contrer[br]le réchauffement climatique 0:02:58.417,0:03:00.653 mais nous ne voulons pas[br]que ce soit trop simple 0:03:00.653,0:03:03.059 et qu'un individu quelconque[br]et sa grand-mère 0:03:03.083,0:03:06.143 aient la capacité d'altérer radicalement[br]le climat terrestre. 0:03:06.167,0:03:09.726 Ou peut-être les drones autonomes mortels, 0:03:09.750,0:03:11.483 des essaims de robots tueurs 0:03:11.483,0:03:13.843 de la taille d'un moustique[br]et produits en masse. 0:03:14.500,0:03:17.226 La nanotechnologie,[br]l'intelligence générale artificielle. 0:03:17.250,0:03:18.559 CA : Vous avancez 0:03:18.583,0:03:21.530 que c'est une question de chance[br]que quand nous avons découvert 0:03:21.530,0:03:24.934 que la puissance nucléaire[br]pouvait créer une bombe, 0:03:24.958,0:03:26.351 il aurait pu arriver 0:03:26.375,0:03:28.226 que nous puissions créer une bombe 0:03:28.250,0:03:31.809 avec des ressources bien plus simples[br]d'accès pour quiconque. 0:03:31.833,0:03:35.393 NB : Repensez aux années 30, 0:03:35.417,0:03:37.382 où pour la première fois nous avons fait 0:03:37.382,0:03:40.042 des découvertes capitales[br]en physique nucléaire, 0:03:40.042,0:03:41.760 un génie découvre qu'il est possible 0:03:41.760,0:03:43.820 d'entraîner une réaction[br]nucléaire en chaîne 0:03:43.820,0:03:46.934 puis réalise que cela pourrait[br]mener à la bombe. 0:03:46.958,0:03:48.851 Nous continuons à y travailler 0:03:48.875,0:03:51.601 et il s'avère qu'il vous faut,[br]pour une bombe nucléaire, 0:03:51.625,0:03:54.018 de l'uranium ou du plutonium[br]hautement enrichi, 0:03:54.042,0:03:56.059 qui sont très difficiles à obtenir. 0:03:56.083,0:03:58.351 Vous avez besoin d'ultracentrifugeuses, 0:03:58.375,0:04:02.143 de réacteurs et de quantités[br]massives d'énergie. 0:04:02.167,0:04:03.976 Mais supposez qu'au lieu de cela, 0:04:04.000,0:04:07.976 il y ait eu une façon simple[br]de libérer l'énergie de l'atome. 0:04:08.000,0:04:10.728 Peut-être qu'en cuisant du sable[br]dans un four micro-ondes 0:04:10.728,0:04:11.989 ou quelque chose du genre, 0:04:11.989,0:04:14.188 vous auriez pu causer[br]une détonation nucléaire. 0:04:14.188,0:04:16.351 Nous savons que c'est[br]physiquement impossible. 0:04:16.375,0:04:18.342 Mais avant de faire les calculs adéquats, 0:04:18.342,0:04:20.483 comment savoir[br]comment cela allait tourner ? 0:04:20.507,0:04:24.023 CA : Ne pourriez-vous pas avancer[br]que pour que la vie évolue sur Terre, 0:04:24.042,0:04:27.309 cela suppose un environnement stable, 0:04:27.333,0:04:30.472 que s'il était possible de causer[br]des réactions nucléaires massives 0:04:30.472,0:04:31.642 relativement facilement, 0:04:31.642,0:04:33.400 la Terre n'aurait jamais été stable, 0:04:33.424,0:04:34.976 nous ne serions pas là. 0:04:35.000,0:04:38.393 NB : Oui, à moins qu'il y ait une chose[br]facile à faire volontairement 0:04:38.417,0:04:41.268 mais qui n'arriverait pas par hasard. 0:04:41.292,0:04:42.871 Des choses faciles à faire, 0:04:42.896,0:04:45.071 comme empiler 10 cubes[br]les uns sur les autres, 0:04:45.071,0:04:48.228 mais dans la nature, vous ne trouverez pas[br]une pile de 10 cubes. 0:04:48.253,0:04:49.926 CA : C'est probablement la chose 0:04:49.950,0:04:52.057 qui inquiète le plus[br]la majorité d'entre nous 0:04:52.057,0:04:55.434 et oui, la biologie synthétique[br]est peut-être le chemin le plus rapide 0:04:55.458,0:04:58.500 qui, nous pouvons envisager,[br]nous y mènera dans un avenir proche. 0:04:58.500,0:05:01.434 NB : Réfléchissez[br]à ce que cela aurait signifié 0:05:01.458,0:05:05.101 si, disons, quiconque travaillant[br]dans sa cuisine pendant un après-midi 0:05:05.125,0:05:06.518 pouvait détruire une ville. 0:05:06.542,0:05:10.101 Il est difficile de voir comment[br]la civilisation moderne actuelle 0:05:10.125,0:05:11.559 aurait pu survivre à cela. 0:05:11.583,0:05:14.101 Car dans toute population[br]d'un million de personnes, 0:05:14.125,0:05:16.809 il y aura toujours quelqu'un[br]qui, peu importe la raison, 0:05:16.833,0:05:18.917 choisira d'utiliser[br]ce pouvoir destructeur. 0:05:19.750,0:05:22.893 Si ce résidu apocalyptique 0:05:22.917,0:05:24.893 décidait de détruire une ville, ou pire, 0:05:24.917,0:05:26.476 des villes seraient détruites. 0:05:26.500,0:05:28.851 CA : Voici un autre type de vulnérabilité. 0:05:28.875,0:05:30.518 Parlez-en. 0:05:30.542,0:05:34.518 NB : En plus de ces types[br]de balles noires évidents 0:05:34.542,0:05:37.496 qui rendraient possible[br]de faire exploser plein de choses, 0:05:37.496,0:05:41.809 d'autres types agiraient en créant[br]de mauvaises incitations 0:05:41.833,0:05:44.173 pour que les humains[br]fassent des choses nuisibles. 0:05:44.173,0:05:48.184 Le type 2a, nous pouvons l'appeler ainsi, 0:05:48.208,0:05:52.726 c'est réfléchir à une technologie[br]qui invite les grandes puissances 0:05:52.750,0:05:57.226 à utiliser leurs forces massives[br]pour causer de la destruction. 0:05:57.250,0:06:00.083 Les armes nucléaires[br]en étaient très proches. 0:06:02.083,0:06:05.143 Nous avons dépensé[br]plus de 10 billions de dollars 0:06:05.167,0:06:07.684 pour fabriquer 70 000 ogives nucléaires 0:06:07.708,0:06:10.143 et les placer en état[br]d'alerte instantanée. 0:06:10.167,0:06:12.434 A plusieurs reprises[br]durant la Guerre froide, 0:06:12.458,0:06:13.893 on a failli se faire sauter. 0:06:13.917,0:06:17.092 Non pas que beaucoup de gens pensaient[br]que ce serait une super idée 0:06:17.092,0:06:19.726 de dépenser 10 billions de dollars[br]pour se faire sauter, 0:06:19.750,0:06:22.684 mais les incitations étaient telles[br]que nous nous trouvions -- 0:06:22.708,0:06:24.018 cela aurait pu être pire. 0:06:24.042,0:06:26.476 Imaginez s'il y a avait eu[br]un premier coup assuré. 0:06:26.500,0:06:28.809 Cela aurait pu être très délicat, 0:06:28.833,0:06:30.175 dans une situation de crise, 0:06:30.175,0:06:32.646 de s'abstenir de lancer[br]tous les missiles nucléaires. 0:06:32.646,0:06:33.743 A défaut d'autre chose, 0:06:33.743,0:06:36.042 car vous craindriez[br]que l'autre camp ne le fasse. 0:06:36.042,0:06:37.851 CA : La destruction mutuelle assurée 0:06:37.875,0:06:40.601 a maintenu la Guerre froide[br]relativement stable. 0:06:40.625,0:06:42.583 Sans cela, nous pourrions ne pas être là. 0:06:42.583,0:06:44.873 NB : Cela aurait pu être[br]plus instable que cela. 0:06:44.873,0:06:47.452 Il pourrait y avoir[br]d'autres propriétés technologiques. 0:06:47.452,0:06:49.601 Il aurait pu être plus dur[br]d'avoir des traités 0:06:49.625,0:06:51.226 si au lieu des armes nucléaires, 0:06:51.250,0:06:54.212 cela avait été une chose plus petite[br]ou moins distinctive. 0:06:54.212,0:06:57.175 CA : Avec les mauvaises incitations[br]pour les acteurs puissants, 0:06:57.175,0:07:00.417 vous vous inquiétez de telles incitations[br]pour nous tous, le type 2b. 0:07:00.417,0:07:04.667 NB : Nous pourrions prendre le cas[br]du réchauffement climatique. 0:07:06.958,0:07:08.851 Il y a beaucoup de petits conforts 0:07:08.875,0:07:11.163 qui mènent chacun d'entre nous[br]à faire des choses 0:07:11.163,0:07:13.934 qui, individuellement,[br]n'ont pas d'effet significatif. 0:07:13.958,0:07:15.884 Mais si des milliards de gens le font, 0:07:15.884,0:07:18.042 cumulativement, cela a[br]un effet préjudiciable. 0:07:18.042,0:07:20.995 Le réchauffement climatique[br]aurait pu être pire qu'il ne l'est. 0:07:20.995,0:07:23.851 Nous avons le paramètre[br]de sensibilité climatique. 0:07:23.875,0:07:27.518 C'est un paramètre[br]qui indique le réchauffement 0:07:27.542,0:07:30.250 si on émet une certaine quantité[br]de gaz à effet de serre. 0:07:30.250,0:07:32.643 Mais supposez que la situation 0:07:32.667,0:07:35.338 soit qu'avec les quantités[br]de gaz à effet de serre émis, 0:07:35.338,0:07:41.042 au lieu d'une température augmentant[br]d'entre 3 et 4,5 degrés d'ici 2100, 0:07:41.042,0:07:43.542 imaginez que c'eût été 15 ou 20 degrés. 0:07:44.375,0:07:46.934 La situation aurait alors[br]été très mauvaise. 0:07:46.958,0:07:50.245 Imaginez que les énergies renouvelables[br]aient été bien plus complexes. 0:07:50.245,0:07:52.768 Ou qu'il y ait eu[br]plus de carburants fossiles. 0:07:52.792,0:07:55.434 CA : Ne pourriez-vous pas avancer[br]que dans ce cas de -- 0:07:55.458,0:07:57.184 si ce que nous faisons aujourd'hui 0:07:57.208,0:08:01.768 avait entraîné une différence de 10 degrés[br]sur une période que nous pourrions voir, 0:08:01.792,0:08:05.476 l'humanité se serait bougé le cul[br]et y aurait fait quelque chose. 0:08:05.500,0:08:08.309 Nous sommes stupides,[br]mais peut-être pas autant. 0:08:08.333,0:08:09.601 Ou peut-être que si. 0:08:09.625,0:08:10.893 NB : Je ne parierais pas. 0:08:10.917,0:08:13.101 (Rires) 0:08:13.125,0:08:15.033 Vous pourriez imaginer d'autres options. 0:08:15.033,0:08:20.351 Actuellement, c'est un peu difficile[br]de passer aux énergies renouvelables, 0:08:20.375,0:08:21.643 mais c'est possible. 0:08:21.667,0:08:24.727 Cela aurait pu être que,[br]avec une physique légèrement différente, 0:08:24.727,0:08:27.458 il aurait été bien plus cher[br]de faire ces choses-là. 0:08:28.375,0:08:29.893 CA : Quelle est votre opinion ? 0:08:29.917,0:08:32.351 Pensez-vous, en réunissant[br]ces possibilités, 0:08:32.375,0:08:36.643 cette Terre, l'humanité que nous sommes, 0:08:36.667,0:08:38.250 nous sommes un monde vulnérable ? 0:08:38.250,0:08:40.667 Qu'il y a une boule de la mort[br]dans notre futur ? 0:08:43.958,0:08:45.300 NB : C'est difficile à dire. 0:08:45.300,0:08:50.309 Je pense qu'il pourrait y avoir[br]diverses boules noires dans l'urne, 0:08:50.333,0:08:51.643 c'est ce qu'il semble. 0:08:51.667,0:08:54.059 Il pourrait aussi y avoir[br]des boules dorées 0:08:54.083,0:08:57.559 qui nous aideraient[br]à nous protéger des boules noires. 0:08:57.583,0:09:00.559 Je ne sais pas dans quel ordre[br]elles vont sortir. 0:09:00.583,0:09:04.434 CA : Une critique philosophique[br]possible de cette idée, 0:09:04.458,0:09:10.101 c'est que cela implique une vision[br]de l'avenir qui est globalement établie. 0:09:10.125,0:09:12.601 Soit cette boule est là,[br]soit elle ne l'est pas. 0:09:12.625,0:09:16.967 D'une certaine façon,[br]ce n'est pas une vision de l'avenir 0:09:16.967,0:09:18.268 en laquelle je veux croire. 0:09:18.292,0:09:20.643 Je veux croire que l'avenir[br]est indéterminé, 0:09:20.667,0:09:22.685 que nos décisions[br]aujourd'hui détermineront 0:09:22.685,0:09:24.833 quel genre de boules[br]nous sortons de l'urne. 0:09:25.917,0:09:29.684 NB : Si nous continuons à inventer, 0:09:29.708,0:09:32.042 nous finirons par sortir[br]toutes les boules. 0:09:32.875,0:09:36.268 Je pense qu'il y a une forme[br]de déterminisme technologique 0:09:36.292,0:09:37.559 qui est assez plausible. 0:09:37.583,0:09:40.226 Vous avez peu de probabilités[br]de rencontrer une société 0:09:40.250,0:09:43.083 qui utilise des haches en silex[br]et des avions à réaction. 0:09:44.208,0:09:48.188 Vous pouvez presque voir la technologie[br]comme un ensemble de potentialités. 0:09:48.188,0:09:51.403 La technologie est la chose[br]nous permettant de faire diverses choses 0:09:51.403,0:09:53.309 et d'obtenir divers effets sur le monde. 0:09:53.333,0:09:56.143 Comment nous allons l'utiliser[br]dépend des choix humains. 0:09:56.167,0:09:58.851 Mais si vous pensez[br]à ces trois types de vulnérabilités, 0:09:58.875,0:10:02.268 elles ne supposent pas tant[br]de comment nous choisirions de l'utiliser. 0:10:02.292,0:10:05.644 Une vulnérabilité de type 1,[br]cet énorme pouvoir destructeur, 0:10:05.644,0:10:07.167 ce n'est pas une hypothèse forte 0:10:07.167,0:10:09.663 de penser que dans une population[br]de millions de gens 0:10:09.663,0:10:12.518 il y en aurait qui choisiraient[br]de l'utiliser pour détruire. 0:10:12.542,0:10:14.976 CA : Pour moi, l'argument[br]qui me perturbe le plus, 0:10:15.000,0:10:19.559 c'est que nous pourrions[br]avoir un aperçu de l'urne 0:10:19.583,0:10:23.101 qui rendrait très probable[br]que nous soyons condamnés. 0:10:23.125,0:10:27.768 Si vous croyez au pouvoir accélérateur, 0:10:27.792,0:10:30.059 qu'intrinsèquement,[br]la technologie accélère, 0:10:30.083,0:10:32.672 que nous créons les outils[br]nous rendant plus puissants, 0:10:32.672,0:10:35.184 vous finissez par en arriver à un point 0:10:35.208,0:10:38.268 où chaque individu peut tous nous éliminer 0:10:38.292,0:10:41.143 et il semble alors que nous soyons foutus. 0:10:41.167,0:10:44.101 Cet argument n'est-il pas alarmant ? 0:10:44.125,0:10:45.875 NB : Oui. 0:10:46.708,0:10:47.976 (Rires) 0:10:48.000,0:10:49.333 Je pense -- 0:10:50.875,0:10:52.650 Nous avons de plus en plus de pouvoir 0:10:52.650,0:10:56.434 et il est de plus en plus simple[br]d'utiliser ce pouvoir, 0:10:56.458,0:10:58.748 mais nous pouvons aussi[br]inventer des technologies 0:10:58.748,0:11:02.283 qui nous aident à contrôler l'utilisation[br]que les gens font de ce pouvoir. 0:11:02.303,0:11:04.934 CA : Parlons de cela,[br]parlons de la réponse. 0:11:04.958,0:11:07.268 Supposons que réfléchir[br]à toutes les possibilités 0:11:07.292,0:11:09.393 qu'il y a actuellement -- 0:11:09.417,0:11:13.143 ce n'est pas que la biologie synthétique,[br]ce sont les cyberguerres, 0:11:13.167,0:11:16.518 l'intelligence artificielle[br]et ainsi de suite -- 0:11:16.542,0:11:21.059 qu'il y a une condamnation[br]sérieuse dans notre avenir. 0:11:21.083,0:11:22.848 Quelles sont les réponses possibles ? 0:11:22.848,0:11:27.601 Vous avez parlé[br]de quatre réponses possibles. 0:11:27.625,0:11:29.862 NB : Restreindre[br]le développement technologique 0:11:29.862,0:11:31.292 ne semble pas prometteur 0:11:31.292,0:11:33.302 si nous parlons[br]d'une interruption générale 0:11:33.302,0:11:34.612 des progrès technologiques. 0:11:34.612,0:11:36.443 Ce n'est ni faisable ni désirable, 0:11:36.443,0:11:38.143 même si nous le pouvions. 0:11:38.183,0:11:41.200 Je pense qu'il y a[br]des domaines très limités 0:11:41.208,0:11:44.068 où vous pourriez vouloir[br]ralentir les progrès technologiques. 0:11:44.068,0:11:47.351 Vous ne voulez pas de progrès[br]plus rapides pour les armes biologiques 0:11:47.375,0:11:49.434 ou la séparation d'isotope, 0:11:49.458,0:11:51.958 ce qui faciliterait la création[br]de bombes nucléaires. 0:11:52.583,0:11:55.893 CA : Avant, j'étais[br]complètement d'accord avec cela. 0:11:55.917,0:11:59.184 Mais j'aimerais prendre un instant[br]pour contre-argumenter. 0:11:59.208,0:12:00.518 Tout d'abord, 0:12:00.542,0:12:03.226 si vous considérez l'histoire[br]des dernières décennies, 0:12:03.250,0:12:06.809 il y a toujours eu une évolution[br]vers l'avant à pleine vitesse, 0:12:06.833,0:12:08.684 ça va, c'est notre seul choix. 0:12:08.708,0:12:12.976 Mais si vous considérez la mondialisation[br]et son accélération rapide, 0:12:13.000,0:12:16.434 si vous considérez la stratégie[br]d' « avancer vite et casser des trucs » 0:12:16.458,0:12:18.518 et ce qui est arrivé, 0:12:18.542,0:12:21.603 puis que vous considérez le potentiel[br]de la biologie synthétique, 0:12:21.603,0:12:25.768 je ne sais pas si nous devrions[br]avancer rapidement 0:12:25.792,0:12:27.434 ou sans aucune restriction 0:12:27.458,0:12:30.768 vers un monde où vous pourriez avoir[br]une imprimante d'ADN à la maison 0:12:30.792,0:12:32.125 et dans les lycées. 0:12:33.167,0:12:34.851 Il y a des restrictions, non ? 0:12:34.875,0:12:37.518 NB : Il y a la première partie :[br]l'infaisabilité. 0:12:37.542,0:12:39.820 Si vous pensez qu'il serait[br]désirable d'arrêter, 0:12:39.820,0:12:41.476 il y a le problème de faisabilité. 0:12:41.500,0:12:44.309 Cela n'aide pas vraiment si une nation -- 0:12:44.333,0:12:46.351 CA : Cela n'aide pas si une nation arrête, 0:12:46.375,0:12:49.309 mais nous avons eu des traités auparavant. 0:12:49.333,0:12:52.684 C'est ainsi que nous avons survécu[br]à la menace nucléaire, 0:12:52.708,0:12:56.526 c'est en en passant par le processus[br]douloureux des négociations. 0:12:56.542,0:13:01.976 Je me demande si la logique n'est pas[br]que nous, en termes de priorité mondiale, 0:13:02.000,0:13:03.684 nous ne devrions pas essayer, 0:13:03.708,0:13:06.393 commencer à négocier maintenant[br]des règles très strictes 0:13:06.417,0:13:09.101 sur les lieux de conduite[br]de recherches biologiques. 0:13:09.125,0:13:11.976 Ce n'est pas une chose[br]que vous voulez démocratiser, si ? 0:13:12.000,0:13:13.809 NB : Je suis complètement d'accord -- 0:13:13.833,0:13:18.059 il serait désirable, par exemple, 0:13:18.083,0:13:21.684 d'avoir des machines de synthèse d'ADN, 0:13:21.708,0:13:25.268 pas en tant que produit pour lequel[br]chaque labo a son appareil, 0:13:25.292,0:13:26.768 mais en tant que service. 0:13:26.792,0:13:29.309 Il pourrait y avoir[br]quatre ou cinq endroits au monde 0:13:29.333,0:13:31.455 où vous pourriez envoyer[br]un modèle numérique 0:13:31.455,0:13:32.875 et l'ADN arriverait à vous. 0:13:32.875,0:13:34.643 Vous auriez la capacité, 0:13:34.667,0:13:37.059 si un jour cela semblait[br]vraiment nécessaire, 0:13:37.083,0:13:39.658 il y aurait un ensemble fini[br]de goulots d'étranglement. 0:13:39.658,0:13:42.976 Je pense que vous voulez considérer[br]des opportunités particulières 0:13:43.000,0:13:45.203 où vous pourriez avoir[br]un contrôle plus strict. 0:13:45.203,0:13:46.726 CA : Vous croyez, au fond, 0:13:46.750,0:13:49.643 que nous ne réussirons pas[br]à contenir les choses. 0:13:49.667,0:13:52.393 Quelqu'un, quelque part --[br]en Corée du Nord -- 0:13:52.417,0:13:55.934 quelqu'un va y arriver[br]et découvrir ce savoir, 0:13:55.958,0:13:57.226 s'il est à découvrir. 0:13:57.226,0:13:59.625 NB : C'est plausible[br]dans les conditions actuelles. 0:13:59.625,0:14:01.583 Ce n'est pas que la biologie synthétique. 0:14:01.583,0:14:04.101 N'importe quel genre[br]de changement profond et nouveau 0:14:04.101,0:14:05.727 pourrait être une boule noire. 0:14:05.727,0:14:07.823 CA : Considérons[br]une autre réponse possible. 0:14:07.823,0:14:10.226 NB : Ceci, à mon avis,[br]a un potentiel limité. 0:14:10.250,0:14:13.809 Avec la vulnérabilité de type 1, 0:14:13.833,0:14:18.184 si vous pouvez réduire le nombre[br]de personnes qui sont motivées 0:14:18.208,0:14:19.476 à détruire le monde, 0:14:19.476,0:14:21.643 si elles seules avaient[br]l'accès et les moyens, 0:14:21.643,0:14:22.851 ce serait bien. 0:14:22.875,0:14:24.851 CA : Dans cette image, 0:14:24.875,0:14:27.204 vous imaginez ces drones[br]volant à travers le monde 0:14:27.204,0:14:28.750 avec une reconnaissance faciale. 0:14:28.750,0:14:31.887 Quand ils repèrent quelqu'un[br]présentant un comportement sociopathe, 0:14:31.887,0:14:33.851 ils le couvrent d'amour, le rétablissent. 0:14:33.875,0:14:35.768 NB : C'est une image hybride. 0:14:35.792,0:14:39.809 Éliminer peut signifier[br]soit incarcérer ou tuer, 0:14:39.833,0:14:42.851 soit les persuader d'avoir[br]une meilleure vision du monde. 0:14:42.875,0:14:44.601 Le principe, c'est : 0:14:44.625,0:14:46.768 imaginez être extrêmement performant 0:14:46.792,0:14:50.101 et réduire le nombre[br]de tels individus de moitié. 0:14:50.125,0:14:52.132 Si vous voulez le faire via la persuasion, 0:14:52.132,0:14:54.334 vous rivalisez contre[br]toutes les grandes forces 0:14:54.334,0:14:56.063 qui essayent de persuader les gens, 0:14:56.063,0:14:58.178 les partis, la religion,[br]le système éducatif. 0:14:58.178,0:14:59.997 Supposez pouvoir le réduire de moitié, 0:14:59.997,0:15:02.143 le risque ne serait pas réduit de moitié. 0:15:02.167,0:15:03.726 Peut-être de 5% ou 10%. 0:15:03.750,0:15:06.895 CA : Vous ne recommandez pas[br]que l'on parie l'avenir de l'humanité 0:15:06.895,0:15:08.125 sur la seconde réponse. 0:15:08.125,0:15:11.143 NB : C'est bien d'essayer[br]de dissuader et persuader les gens, 0:15:11.167,0:15:14.143 mais pas miser dessus[br]comme seul dispositif de sécurité. 0:15:14.167,0:15:15.598 CA : Et la troisième réponse ? 0:15:15.598,0:15:18.351 NB : Il y a deux méthodes générales 0:15:18.375,0:15:22.351 que nous pourrions utiliser pour parvenir[br]à la capacité de stabiliser le monde 0:15:22.375,0:15:25.351 face à l'éventail complet[br]des vulnérabilités possibles. 0:15:25.375,0:15:26.934 Nous aurions besoin des deux. 0:15:26.958,0:15:31.476 Une est une capacité optimale 0:15:31.500,0:15:33.268 de prévention policière. 0:15:33.292,0:15:34.816 Afin de pouvoir intercepter. 0:15:34.840,0:15:37.601 Si quiconque entamait[br]cette chose dangereuse, 0:15:37.625,0:15:40.309 vous pourriez l'intercepter[br]en temps réel et l'arrêter. 0:15:40.333,0:15:42.809 Cela nécessiterait[br]une surveillance omniprésente, 0:15:42.833,0:15:45.208 tout le monde serait[br]constamment surveillé. 0:15:46.333,0:15:48.893 CA : C'est en gros[br]une forme de « Minority Report ». 0:15:48.917,0:15:50.851 NB : Vous auriez des algorithmes d'IA, 0:15:50.875,0:15:55.292 de gros centres de liberté[br]qui examineraient cela, et ainsi de suite. 0:15:56.583,0:16:00.976 CA : La surveillance de masse[br]n'est pas très populaire en ce moment. 0:16:01.000,0:16:02.250 (Rires) 0:16:03.458,0:16:05.268 NB : Ce petit dispositif, 0:16:05.292,0:16:08.893 imaginez ce genre de collier[br]que vous devriez porter tout le temps, 0:16:08.917,0:16:10.917 avec des caméras multidirectionnelles. 0:16:11.792,0:16:13.601 Mais pour que cela passe mieux, 0:16:13.625,0:16:16.149 appelez-le la « balise[br]de la liberté » ou autre. 0:16:16.173,0:16:18.184 (Rires) 0:16:18.208,0:16:19.476 CA : D'accord. 0:16:19.500,0:16:21.601 C'est la conversation -- 0:16:21.625,0:16:25.184 c'est pour cela que c'est[br]une conversation si époustouflante. 0:16:25.208,0:16:29.159 NB : Il y a toute une conversation[br]à ce sujet-là en particulier. 0:16:29.167,0:16:31.643 Il y a de gros problèmes[br]et risques avec cela. 0:16:31.667,0:16:33.058 Nous y reviendrons peut-être. 0:16:33.058,0:16:34.226 L'autre, la dernière, 0:16:34.250,0:16:38.917 l'autre capacité de stabilisation générale[br]comble un autre vide dans la gouvernance. 0:16:38.917,0:16:43.101 La surveillance comblerait pour un vide[br]dans la gouvernance à un niveau micro : 0:16:43.125,0:16:46.226 empêcher quiconque de faire[br]quoi que ce soit de hautement illégal. 0:16:46.250,0:16:48.559 Il y un vide équivalent[br]dans la gouvernance 0:16:48.583,0:16:50.518 au niveau macro, au niveau mondial. 0:16:50.542,0:16:54.476 Il vous faudrait la capacité fiable 0:16:54.500,0:16:57.373 d'empêcher les pires types[br]d'échecs de coordination mondiale, 0:16:57.373,0:17:01.101 d'éviter les guerres[br]entre les grandes puissances, 0:17:01.125,0:17:02.458 les courses à l'armement, 0:17:03.500,0:17:05.708 les problèmes communs cataclysmiques, 0:17:07.667,0:17:11.851 afin de faire face[br]aux vulnérabilités de type 2a. 0:17:11.875,0:17:13.833 CA : La gouvernance mondiale est un terme 0:17:13.833,0:17:16.059 qui n'est plus du tout[br]à la mode actuellement, 0:17:16.083,0:17:18.601 mais vous pourriez avancer[br]qu'au cours de l'histoire, 0:17:18.601,0:17:19.977 de l'histoire de l'humanité, 0:17:19.977,0:17:25.351 à chaque moment de montée[br]du pouvoir technologique, 0:17:25.375,0:17:28.601 les gens se sont réorganisés[br]et ont centralisé le pouvoir. 0:17:28.625,0:17:32.059 Par exemple, quand un groupe[br]de criminels itinérants 0:17:32.083,0:17:34.092 pouvait prendre le contrôle d'une société, 0:17:34.092,0:17:36.031 la réponse a été d'avoir un État-nation 0:17:36.055,0:17:38.489 et une force centralisée,[br]policière ou militaire, 0:17:38.513,0:17:40.143 pour que ce ne soit pas possible. 0:17:40.167,0:17:44.726 La logique d'avoir une seule personne[br]ou un seul groupe 0:17:44.750,0:17:46.393 capable d'éradiquer l'humanité 0:17:46.417,0:17:49.143 signifie qu'à un moment,[br]nous devrons emprunter ce chemin, 0:17:49.167,0:17:50.601 sous une certaine forme, non ? 0:17:50.625,0:17:54.309 NB : Il est vrai que l'échelle[br]de l'organisation politique a augmenté 0:17:54.333,0:17:56.476 au cours de l'histoire humaine. 0:17:56.500,0:17:58.518 C'était un groupe de chasseurs-cueilleurs, 0:17:58.542,0:18:01.476 puis des chefferies,[br]des cité-États, des nations, 0:18:01.500,0:18:05.476 maintenant il y a des organisations[br]internationales et ainsi de suite. 0:18:05.500,0:18:07.018 Je veux juste m'assurer 0:18:07.042,0:18:08.684 d'avoir l'opportunité d'insister 0:18:08.684,0:18:10.748 qu'il y a évidemment[br]d'énormes inconvénients 0:18:10.748,0:18:12.226 et d'énormes risques 0:18:12.250,0:18:15.601 dans la surveillance de masse[br]et la gouvernance mondiale. 0:18:15.625,0:18:18.184 Je vais faire remarquer[br]que si nous sommes chanceux, 0:18:18.184,0:18:20.987 le monde pourrait être tel[br]que ce seraient les seules façons 0:18:20.987,0:18:22.434 de survivre à une boule noire. 0:18:22.458,0:18:24.976 CA : La logique de cette théorie, 0:18:25.000,0:18:26.268 me semble-t-il, 0:18:26.292,0:18:29.893 c'est que nous devons reconnaître[br]que nous ne pouvons pas tout avoir. 0:18:29.917,0:18:31.750 C'est le genre 0:18:33.500,0:18:36.476 de rêve naïf, si je puis dire,[br]que nombre d'entre nous avaient 0:18:36.500,0:18:39.851 que la technologie sera toujours[br]une force du bien, 0:18:39.875,0:18:42.851 qu'il ne faut ne pas s'arrêter,[br]aller aussi vite que possible 0:18:42.875,0:18:45.320 et ne pas prêter attention[br]à certaines conséquences, 0:18:45.320,0:18:46.934 ce n'est même pas une option. 0:18:46.958,0:18:48.893 Nous pouvons le faire. 0:18:48.917,0:18:50.184 Si nous le faisons, 0:18:50.208,0:18:51.643 il faudra accepter 0:18:51.667,0:18:54.196 certaines choses très désagréables 0:18:54.196,0:18:56.500 et faire la course à l'armement[br]avec nous-mêmes : 0:18:56.500,0:18:58.930 si vous voulez le pouvoir,[br]vous devriez le confiner, 0:18:58.930,0:19:00.934 vous devriez trouver comment le confiner. 0:19:00.958,0:19:04.434 NB : Je pense que c'est une option, 0:19:04.458,0:19:07.226 une option très tentante,[br]dans un sens la plus simple 0:19:07.250,0:19:08.652 et cela pourrait fonctionner, 0:19:08.652,0:19:13.351 mais nous sommes alors vulnérables[br]à l'extraction d'une boule noire. 0:19:13.375,0:19:15.518 Avec un peu de coordination -- 0:19:15.542,0:19:18.268 en résolvant ce problème[br]de macro gouvernance 0:19:18.268,0:19:19.917 et celui de micro gouvernance -- 0:19:19.917,0:19:22.310 nous pourrions extraire[br]toutes les boules de l'urne 0:19:22.310,0:19:24.518 et nous en bénéficierons grandement. 0:19:24.542,0:19:27.976 CA : Si nous vivons dans une simulation,[br]cela importe-t-il ? 0:19:28.000,0:19:29.309 Nous recommençons. 0:19:29.333,0:19:30.601 (Rires) 0:19:30.625,0:19:32.268 NB : Alors... je... 0:19:32.292,0:19:34.768 (Rires) 0:19:34.792,0:19:36.208 Je ne l'ai pas vu arriver. 0:19:38.125,0:19:39.607 CA : Quelle est votre opinion ? 0:19:39.607,0:19:41.720 En rassemblant toutes les pièces, 0:19:41.720,0:19:44.250 quelle est notre probabilité[br]d'être condamnés ? 0:19:44.250,0:19:46.208 (Rires) 0:19:47.042,0:19:49.434 J'adore comment les gens rient[br]à cette question. 0:19:49.458,0:19:50.809 NB : A un niveau individuel, 0:19:50.833,0:19:54.684 nous semblons condamnés,[br]juste d'un point de vue de l'échéance, 0:19:54.708,0:19:57.309 nous nous décomposons et vieillissons. 0:19:57.333,0:19:58.934 (Rires) 0:19:58.958,0:20:00.643 C'est délicat. 0:20:00.667,0:20:03.434 Si vous voulez y attacher une probabilité, 0:20:03.458,0:20:04.940 tout d'abord, qui sommes-nous ? 0:20:04.940,0:20:07.476 Si vous êtes vieux,[br]vous mourrez de causes naturelles. 0:20:07.500,0:20:09.851 Si vous êtes jeune,[br]vous avez 100 ans peut-être, 0:20:09.875,0:20:12.018 selon à qui vous demandez. 0:20:12.042,0:20:16.268 Le seuil : qu'est-ce qui compte[br]comme un dévaste civilisationnel ? 0:20:16.292,0:20:21.934 Dans l'article, je n'ai pas besoin[br]d'une catastrophe civilisationnelle 0:20:21.958,0:20:23.393 pour que cela compte. 0:20:23.417,0:20:25.101 C'est une question de définition. 0:20:25.125,0:20:26.434 Je dis un milliard de morts 0:20:26.458,0:20:28.518 ou une diminution du PIB mondial de 50%, 0:20:28.542,0:20:30.768 mais selon le seuil que vous donnez, 0:20:30.792,0:20:32.768 vous aurez une probabilité différente. 0:20:32.792,0:20:37.309 Vous pourriez dire que je suis[br]un optimiste effrayé. 0:20:37.333,0:20:38.434 (Rires) 0:20:38.458,0:20:40.125 CA : Vous êtes un optimiste effrayé 0:20:40.125,0:20:45.708 et vous venez de créer un grand nombre[br]d'autres personnes effrayées. 0:20:45.708,0:20:46.768 (Rires) 0:20:46.792,0:20:48.059 NB : Dans la simulation. 0:20:48.083,0:20:49.351 CA : Dans une simulation. 0:20:49.375,0:20:51.059 Nick Bostrom, votre esprit m'épate. 0:20:51.083,0:20:53.976 Merci beaucoup de nous avoir effrayés. 0:20:54.000,0:20:56.375 (Applaudissements)