French feliratok

← Comment la civilisation pourrait s'autodétruire et quatre façons de l'éviter

Beágyazókód kérése
23 Languages

Showing Revision 11 created 01/03/2020 by eric vautier.

  1. Chris Anderson : Nick Bostrom.
  2. Vous nous avez déjà offert
    tant d'idées folles.
  3. Je pense à il y a environ 20 ans,
  4. vous avez avancé que nous pourrions
    tous vivre dans une simulation
  5. ou que c'était probablement le cas.
  6. Plus récemment,
  7. vous avez dépeint les exemples
    les plus saisissants
  8. quant à comment une intelligence
    générale artificielle
  9. pourrait terriblement mal tourner.
  10. Cette année,
  11. vous êtes sur le point de publier
  12. un article qui présente une chose appelée
    l'hypothèse du monde vulnérable.
  13. Notre rôle ce soir est d'offrir
    un guide illustré à ce sujet.
  14. Allons-y.
  15. Quelle est cette hypothèse ?
  16. Nick Bostrom :
    C'est une tentative de réflexion

  17. sur une caractéristique structurelle
    de la condition humaine actuelle.
  18. Vous aimez la métaphore de l'urne
  19. alors je vais l'utiliser pour expliquer.
  20. Imaginez une grande urne remplie de boules
  21. représentant des idées, des méthodes,
    des technologies possibles.
  22. Vous pouvez voir l'histoire
    de la créativité humaine
  23. comme le fait de plonger
    la main dans l'urne
  24. et d'en sortir une boule après l'autre,
  25. et le résultat jusqu'ici
    a été extrêmement bénéfique.
  26. Nous avons extrait
    de nombreuses boules blanches,
  27. quelques grises
    dont les bienfaits sont mitigés.
  28. Jusqu'ici, nous n'avons pas
    sorti la boule noire --
  29. une technologie qui détruit invariablement
    la civilisation qui la découvre.
  30. La publication essaye de réfléchir
    à ce qu'une balle noire pourrait être.
  31. CA : Vous définissez cette boule

  32. comme étant celle menant invariablement
    à la destruction de la civilisation.
  33. NB : A moins que nous ne sortions

  34. de ce que j'appelle la condition
    semi-anarchique par défaut.
  35. Mais par défaut.
  36. CA : Vous présentez
    un argumentaire convaincant

  37. en montrant des contre-exemples
  38. où vous croyez que jusqu'ici,
    nous avons eu de la chance,
  39. que nous pourrions avoir sorti
    la boule de la mort
  40. sans même le savoir.
  41. Il y a cette citation, quelle est-elle ?
  42. NB : Je suppose
    qu'elle est censée illustrer

  43. la difficulté liée à la prédiction
  44. de ce à quoi mèneront
    des découvertes élémentaires.
  45. Nous n'avons simplement pas
    cette capacité.
  46. Car nous sommes devenus bons
    dans l'extraction de boules
  47. mais nous n'avons pas la capacité
    de remettre la boule dans l'urne.
  48. Nous pouvons inventer
    mais nous ne pouvons pas désinventer.
  49. Notre stratégie actuelle
  50. est d'espérer qu'il n'y pas
    de boule noire dans l'urne.
  51. CA : Une fois sortie, elle est sortie
    et vous ne pouvez pas la remettre,

  52. et vous nous pensez chanceux.
  53. Expliquez-nous quelques-uns
    de ces exemples.
  54. Vous parlez de différents types
    de vulnérabilités.
  55. NB : Le type le plus simple à comprendre

  56. est une technologie qui rend
    la destruction massive très facile.
  57. La biologie synthétique pourrait être
    une source féconde d'une telle boule,
  58. mais nombre d'autres choses
    que nous pourrions --
  59. pensez à la géo-ingénierie,
    c'est génial, non ?
  60. Nous pourrions contrer
    le réchauffement climatique
  61. mais nous ne voulons pas
    que ce soit trop simple
  62. et qu'un individu quelconque
    et sa grand-mère
  63. aient la capacité d'altérer radicalement
    le climat terrestre.
  64. Ou peut-être les drones autonomes mortels,
  65. des essaims de robots tueurs
  66. de la taille d'un moustique
    et produits en masse.
  67. La nanotechnologie,
    l'intelligence générale artificielle.
  68. CA : Vous avancez

  69. que c'est une question de chance
    que quand nous avons découvert
  70. que la puissance nucléaire
    pouvait créer une bombe,
  71. il aurait pu arriver
  72. que nous puissions créer une bombe
  73. avec des ressources bien plus simples
    d'accès pour quiconque.
  74. NB : Repensez aux années 30,

  75. où pour la première fois nous avons fait
  76. des découvertes capitales
    en physique nucléaire,
  77. un génie découvre qu'il est possible
  78. d'entraîner une réaction
    nucléaire en chaîne
  79. puis réalise que cela pourrait
    mener à la bombe.
  80. Nous continuons à y travailler
  81. et il s'avère qu'il vous faut,
    pour une bombe nucléaire,
  82. de l'uranium ou du plutonium
    hautement enrichi,
  83. qui sont très difficiles à obtenir.
  84. Vous avez besoin d'ultracentrifugeuses,
  85. de réacteurs et de quantités
    massives d'énergie.
  86. Mais supposez qu'au lieu de cela,
  87. il y ait eu une façon simple
    de libérer l'énergie de l'atome.
  88. Peut-être qu'en cuisant du sable
    dans un four micro-ondes
  89. ou quelque chose du genre,
  90. vous auriez pu causer
    une détonation nucléaire.
  91. Nous savons que c'est
    physiquement impossible.
  92. Mais avant de faire les calculs adéquats,
  93. comment savoir
    comment cela allait tourner ?
  94. CA : Ne pourriez-vous pas avancer
    que pour que la vie évolue sur Terre,

  95. cela suppose un environnement stable,
  96. que s'il était possible de causer
    des réactions nucléaires massives
  97. relativement facilement,
  98. la Terre n'aurait jamais été stable,
  99. nous ne serions pas là.
  100. NB : Oui, à moins qu'il y ait une chose
    facile à faire volontairement

  101. mais qui n'arriverait pas par hasard.
  102. Des choses faciles à faire,
  103. comme empiler 10 cubes
    les uns sur les autres,
  104. mais dans la nature, vous ne trouverez pas
    une pile de 10 cubes.
  105. CA : C'est probablement la chose

  106. qui inquiète le plus
    la majorité d'entre nous
  107. et oui, la biologie synthétique
    est peut-être le chemin le plus rapide
  108. qui, nous pouvons envisager,
    nous y mènera dans un avenir proche.
  109. NB : Réfléchissez
    à ce que cela aurait signifié

  110. si, disons, quiconque travaillant
    dans sa cuisine pendant un après-midi
  111. pouvait détruire une ville.
  112. Il est difficile de voir comment
    la civilisation moderne actuelle
  113. aurait pu survivre à cela.
  114. Car dans toute population
    d'un million de personnes,
  115. il y aura toujours quelqu'un
    qui, peu importe la raison,
  116. choisira d'utiliser
    ce pouvoir destructeur.
  117. Si ce résidu apocalyptique
  118. décidait de détruire une ville, ou pire,
  119. des villes seraient détruites.
  120. CA : Voici un autre type de vulnérabilité.

  121. Parlez-en.
  122. NB : En plus de ces types
    de balles noires évidents

  123. qui rendraient possible
    de faire exploser plein de choses,
  124. d'autres types agiraient en créant
    de mauvaises incitations
  125. pour que les humains
    fassent des choses nuisibles.
  126. Le type 2a, nous pouvons l'appeler ainsi,
  127. c'est réfléchir à une technologie
    qui invite les grandes puissances
  128. à utiliser leurs forces massives
    pour causer de la destruction.
  129. Les armes nucléaires
    en étaient très proches.
  130. Nous avons dépensé
    plus de 10 billions de dollars
  131. pour fabriquer 70 000 ogives nucléaires
  132. et les placer en état
    d'alerte instantanée.
  133. A plusieurs reprises
    durant la Guerre froide,
  134. on a failli se faire sauter.
  135. Non pas que beaucoup de gens pensaient
    que ce serait une super idée
  136. de dépenser 10 billions de dollars
    pour se faire sauter,
  137. mais les incitations étaient telles
    que nous nous trouvions --
  138. cela aurait pu être pire.
  139. Imaginez s'il y a avait eu
    un premier coup assuré.
  140. Cela aurait pu être très délicat,
  141. dans une situation de crise,
  142. de s'abstenir de lancer
    tous les missiles nucléaires.
  143. A défaut d'autre chose,
  144. car vous craindriez
    que l'autre camp ne le fasse.
  145. CA : La destruction mutuelle assurée

  146. a maintenu la Guerre froide
    relativement stable.
  147. Sans cela, nous pourrions ne pas être là.
  148. NB : Cela aurait pu être
    plus instable que cela.

  149. Il pourrait y avoir
    d'autres propriétés technologiques.
  150. Il aurait pu être plus dur
    d'avoir des traités
  151. si au lieu des armes nucléaires,
  152. cela avait été une chose plus petite
    ou moins distinctive.
  153. CA : Avec les mauvaises incitations
    pour les acteurs puissants,

  154. vous vous inquiétez de telles incitations
    pour nous tous, le type 2b.
  155. NB : Nous pourrions prendre le cas
    du réchauffement climatique.

  156. Il y a beaucoup de petits conforts
  157. qui mènent chacun d'entre nous
    à faire des choses
  158. qui, individuellement,
    n'ont pas d'effet significatif.
  159. Mais si des milliards de gens le font,
  160. cumulativement, cela a
    un effet préjudiciable.
  161. Le réchauffement climatique
    aurait pu être pire qu'il ne l'est.
  162. Nous avons le paramètre
    de sensibilité climatique.
  163. C'est un paramètre
    qui indique le réchauffement
  164. si on émet une certaine quantité
    de gaz à effet de serre.
  165. Mais supposez que la situation
  166. soit qu'avec les quantités
    de gaz à effet de serre émis,
  167. au lieu d'une température augmentant
    d'entre 3 et 4,5 degrés d'ici 2100,
  168. imaginez que c'eût été 15 ou 20 degrés.
  169. La situation aurait alors
    été très mauvaise.
  170. Imaginez que les énergies renouvelables
    aient été bien plus complexes.
  171. Ou qu'il y ait eu
    plus de carburants fossiles.
  172. CA : Ne pourriez-vous pas avancer
    que dans ce cas de --

  173. si ce que nous faisons aujourd'hui
  174. avait entraîné une différence de 10 degrés
    sur une période que nous pourrions voir,
  175. l'humanité se serait bougé le cul
    et y aurait fait quelque chose.
  176. Nous sommes stupides,
    mais peut-être pas autant.
  177. Ou peut-être que si.
  178. NB : Je ne parierais pas.

  179. (Rires)

  180. Vous pourriez imaginer d'autres options.

  181. Actuellement, c'est un peu difficile
    de passer aux énergies renouvelables,
  182. mais c'est possible.
  183. Cela aurait pu être que,
    avec une physique légèrement différente,
  184. il aurait été bien plus cher
    de faire ces choses-là.
  185. CA : Quelle est votre opinion ?

  186. Pensez-vous, en réunissant
    ces possibilités,
  187. cette Terre, l'humanité que nous sommes,
  188. nous sommes un monde vulnérable ?
  189. Qu'il y a une boule de la mort
    dans notre futur ?
  190. NB : C'est difficile à dire.

  191. Je pense qu'il pourrait y avoir
    diverses boules noires dans l'urne,
  192. c'est ce qu'il semble.
  193. Il pourrait aussi y avoir
    des boules dorées
  194. qui nous aideraient
    à nous protéger des boules noires.
  195. Je ne sais pas dans quel ordre
    elles vont sortir.
  196. CA : Une critique philosophique
    possible de cette idée,

  197. c'est que cela implique une vision
    de l'avenir qui est globalement établie.
  198. Soit cette boule est là,
    soit elle ne l'est pas.
  199. D'une certaine façon,
    ce n'est pas une vision de l'avenir
  200. en laquelle je veux croire.
  201. Je veux croire que l'avenir
    est indéterminé,
  202. que nos décisions
    aujourd'hui détermineront
  203. quel genre de boules
    nous sortons de l'urne.
  204. NB : Si nous continuons à inventer,

  205. nous finirons par sortir
    toutes les boules.
  206. Je pense qu'il y a une forme
    de déterminisme technologique
  207. qui est assez plausible.
  208. Vous avez peu de probabilités
    de rencontrer une société
  209. qui utilise des haches en silex
    et des avions à réaction.
  210. Vous pouvez presque voir la technologie
    comme un ensemble de potentialités.
  211. La technologie est la chose
    nous permettant de faire diverses choses
  212. et d'obtenir divers effets sur le monde.
  213. Comment nous allons l'utiliser
    dépend des choix humains.
  214. Mais si vous pensez
    à ces trois types de vulnérabilités,
  215. elles ne supposent pas tant
    de comment nous choisirions de l'utiliser.
  216. Une vulnérabilité de type 1,
    cet énorme pouvoir destructeur,
  217. ce n'est pas une hypothèse forte
  218. de penser que dans une population
    de millions de gens
  219. il y en aurait qui choisiraient
    de l'utiliser pour détruire.
  220. CA : Pour moi, l'argument
    qui me perturbe le plus,

  221. c'est que nous pourrions
    avoir un aperçu de l'urne
  222. qui rendrait très probable
    que nous soyons condamnés.
  223. Si vous croyez au pouvoir accélérateur,
  224. qu'intrinsèquement,
    la technologie accélère,
  225. que nous créons les outils
    nous rendant plus puissants,
  226. vous finissez par en arriver à un point
  227. où chaque individu peut tous nous éliminer
  228. et il semble alors que nous soyons foutus.
  229. Cet argument n'est-il pas alarmant ?
  230. NB : Oui.

  231. (Rires)

  232. Je pense --

  233. Nous avons de plus en plus de pouvoir
  234. et il est de plus en plus simple
    d'utiliser ce pouvoir,
  235. mais nous pouvons aussi
    inventer des technologies
  236. qui nous aident à contrôler l'utilisation
    que les gens font de ce pouvoir.
  237. CA : Parlons de cela,
    parlons de la réponse.

  238. Supposons que réfléchir
    à toutes les possibilités
  239. qu'il y a actuellement --
  240. ce n'est pas que la biologie synthétique,
    ce sont les cyberguerres,
  241. l'intelligence artificielle
    et ainsi de suite --
  242. qu'il y a une condamnation
    sérieuse dans notre avenir.
  243. Quelles sont les réponses possibles ?
  244. Vous avez parlé
    de quatre réponses possibles.
  245. NB : Restreindre
    le développement technologique

  246. ne semble pas prometteur
  247. si nous parlons
    d'une interruption générale
  248. des progrès technologiques.
  249. Ce n'est ni faisable ni désirable,
  250. même si nous le pouvions.
  251. Je pense qu'il y a
    des domaines très limités
  252. où vous pourriez vouloir
    ralentir les progrès technologiques.
  253. Vous ne voulez pas de progrès
    plus rapides pour les armes biologiques
  254. ou la séparation d'isotope,
  255. ce qui faciliterait la création
    de bombes nucléaires.
  256. CA : Avant, j'étais
    complètement d'accord avec cela.

  257. Mais j'aimerais prendre un instant
    pour contre-argumenter.
  258. Tout d'abord,
  259. si vous considérez l'histoire
    des dernières décennies,
  260. il y a toujours eu une évolution
    vers l'avant à pleine vitesse,
  261. ça va, c'est notre seul choix.
  262. Mais si vous considérez la mondialisation
    et son accélération rapide,
  263. si vous considérez la stratégie
    d' « avancer vite et casser des trucs »
  264. et ce qui est arrivé,
  265. puis que vous considérez le potentiel
    de la biologie synthétique,
  266. je ne sais pas si nous devrions
    avancer rapidement
  267. ou sans aucune restriction
  268. vers un monde où vous pourriez avoir
    une imprimante d'ADN à la maison
  269. et dans les lycées.
  270. Il y a des restrictions, non ?
  271. NB : Il y a la première partie :
    l'infaisabilité.

  272. Si vous pensez qu'il serait
    désirable d'arrêter,
  273. il y a le problème de faisabilité.
  274. Cela n'aide pas vraiment si une nation --
  275. CA : Cela n'aide pas si une nation arrête,

  276. mais nous avons eu des traités auparavant.
  277. C'est ainsi que nous avons survécu
    à la menace nucléaire,
  278. c'est en en passant par le processus
    douloureux des négociations.
  279. Je me demande si la logique n'est pas
    que nous, en termes de priorité mondiale,
  280. nous ne devrions pas essayer,
  281. commencer à négocier maintenant
    des règles très strictes
  282. sur les lieux de conduite
    de recherches biologiques.
  283. Ce n'est pas une chose
    que vous voulez démocratiser, si ?
  284. NB : Je suis complètement d'accord --

  285. il serait désirable, par exemple,
  286. d'avoir des machines de synthèse d'ADN,
  287. pas en tant que produit pour lequel
    chaque labo a son appareil,
  288. mais en tant que service.
  289. Il pourrait y avoir
    quatre ou cinq endroits au monde
  290. où vous pourriez envoyer
    un modèle numérique
  291. et l'ADN arriverait à vous.
  292. Vous auriez la capacité,
  293. si un jour cela semblait
    vraiment nécessaire,
  294. il y aurait un ensemble fini
    de goulots d'étranglement.
  295. Je pense que vous voulez considérer
    des opportunités particulières
  296. où vous pourriez avoir
    un contrôle plus strict.
  297. CA : Vous croyez, au fond,

  298. que nous ne réussirons pas
    à contenir les choses.
  299. Quelqu'un, quelque part --
    en Corée du Nord --
  300. quelqu'un va y arriver
    et découvrir ce savoir,
  301. s'il est à découvrir.
  302. NB : C'est plausible
    dans les conditions actuelles.

  303. Ce n'est pas que la biologie synthétique.
  304. N'importe quel genre
    de changement profond et nouveau
  305. pourrait être une boule noire.
  306. CA : Considérons
    une autre réponse possible.

  307. NB : Ceci, à mon avis,
    a un potentiel limité.

  308. Avec la vulnérabilité de type 1,
  309. si vous pouvez réduire le nombre
    de personnes qui sont motivées
  310. à détruire le monde,
  311. si elles seules avaient
    l'accès et les moyens,
  312. ce serait bien.
  313. CA : Dans cette image,

  314. vous imaginez ces drones
    volant à travers le monde
  315. avec une reconnaissance faciale.
  316. Quand ils repèrent quelqu'un
    présentant un comportement sociopathe,
  317. ils le couvrent d'amour, le rétablissent.
  318. NB : C'est une image hybride.

  319. Éliminer peut signifier
    soit incarcérer ou tuer,
  320. soit les persuader d'avoir
    une meilleure vision du monde.
  321. Le principe, c'est :
  322. imaginez être extrêmement performant
  323. et réduire le nombre
    de tels individus de moitié.
  324. Si vous voulez le faire via la persuasion,
  325. vous rivalisez contre
    toutes les grandes forces
  326. qui essayent de persuader les gens,
  327. les partis, la religion,
    le système éducatif.
  328. Supposez pouvoir le réduire de moitié,
  329. le risque ne serait pas réduit de moitié.
  330. Peut-être de 5% ou 10%.
  331. CA : Vous ne recommandez pas
    que l'on parie l'avenir de l'humanité

  332. sur la seconde réponse.
  333. NB : C'est bien d'essayer
    de dissuader et persuader les gens,

  334. mais pas miser dessus
    comme seul dispositif de sécurité.
  335. CA : Et la troisième réponse ?

  336. NB : Il y a deux méthodes générales

  337. que nous pourrions utiliser pour parvenir
    à la capacité de stabiliser le monde
  338. face à l'éventail complet
    des vulnérabilités possibles.
  339. Nous aurions besoin des deux.
  340. Une est une capacité optimale
  341. de prévention policière.
  342. Afin de pouvoir intercepter.
  343. Si quiconque entamait
    cette chose dangereuse,
  344. vous pourriez l'intercepter
    en temps réel et l'arrêter.
  345. Cela nécessiterait
    une surveillance omniprésente,
  346. tout le monde serait
    constamment surveillé.
  347. CA : C'est en gros
    une forme de « Minority Report ».

  348. NB : Vous auriez des algorithmes d'IA,

  349. de gros centres de liberté
    qui examineraient cela, et ainsi de suite.
  350. CA : La surveillance de masse
    n'est pas très populaire en ce moment.

  351. (Rires)

  352. NB : Ce petit dispositif,

  353. imaginez ce genre de collier
    que vous devriez porter tout le temps,
  354. avec des caméras multidirectionnelles.
  355. Mais pour que cela passe mieux,
  356. appelez-le la « balise
    de la liberté » ou autre.
  357. (Rires)

  358. CA : D'accord.

  359. C'est la conversation --
  360. c'est pour cela que c'est
    une conversation si époustouflante.
  361. NB : Il y a toute une conversation
    à ce sujet-là en particulier.

  362. Il y a de gros problèmes
    et risques avec cela.
  363. Nous y reviendrons peut-être.
  364. L'autre, la dernière,
  365. l'autre capacité de stabilisation générale
    comble un autre vide dans la gouvernance.
  366. La surveillance comblerait pour un vide
    dans la gouvernance à un niveau micro :
  367. empêcher quiconque de faire
    quoi que ce soit de hautement illégal.
  368. Il y un vide équivalent
    dans la gouvernance
  369. au niveau macro, au niveau mondial.
  370. Il vous faudrait la capacité fiable
  371. d'empêcher les pires types
    d'échecs de coordination mondiale,
  372. d'éviter les guerres
    entre les grandes puissances,
  373. les courses à l'armement,
  374. les problèmes communs cataclysmiques,
  375. afin de faire face
    aux vulnérabilités de type 2a.
  376. CA : La gouvernance mondiale est un terme

  377. qui n'est plus du tout
    à la mode actuellement,
  378. mais vous pourriez avancer
    qu'au cours de l'histoire,
  379. de l'histoire de l'humanité,
  380. à chaque moment de montée
    du pouvoir technologique,
  381. les gens se sont réorganisés
    et ont centralisé le pouvoir.
  382. Par exemple, quand un groupe
    de criminels itinérants
  383. pouvait prendre le contrôle d'une société,
  384. la réponse a été d'avoir un État-nation
  385. et une force centralisée,
    policière ou militaire,
  386. pour que ce ne soit pas possible.
  387. La logique d'avoir une seule personne
    ou un seul groupe
  388. capable d'éradiquer l'humanité
  389. signifie qu'à un moment,
    nous devrons emprunter ce chemin,
  390. sous une certaine forme, non ?
  391. NB : Il est vrai que l'échelle
    de l'organisation politique a augmenté

  392. au cours de l'histoire humaine.
  393. C'était un groupe de chasseurs-cueilleurs,
  394. puis des chefferies,
    des cité-États, des nations,
  395. maintenant il y a des organisations
    internationales et ainsi de suite.
  396. Je veux juste m'assurer
  397. d'avoir l'opportunité d'insister
  398. qu'il y a évidemment
    d'énormes inconvénients
  399. et d'énormes risques
  400. dans la surveillance de masse
    et la gouvernance mondiale.
  401. Je vais faire remarquer
    que si nous sommes chanceux,
  402. le monde pourrait être tel
    que ce seraient les seules façons
  403. de survivre à une boule noire.
  404. CA : La logique de cette théorie,

  405. me semble-t-il,
  406. c'est que nous devons reconnaître
    que nous ne pouvons pas tout avoir.
  407. C'est le genre
  408. de rêve naïf, si je puis dire,
    que nombre d'entre nous avaient
  409. que la technologie sera toujours
    une force du bien,
  410. qu'il ne faut ne pas s'arrêter,
    aller aussi vite que possible
  411. et ne pas prêter attention
    à certaines conséquences,
  412. ce n'est même pas une option.
  413. Nous pouvons le faire.
  414. Si nous le faisons,
  415. il faudra accepter
  416. certaines choses très désagréables
  417. et faire la course à l'armement
    avec nous-mêmes :
  418. si vous voulez le pouvoir,
    vous devriez le confiner,
  419. vous devriez trouver comment le confiner.
  420. NB : Je pense que c'est une option,

  421. une option très tentante,
    dans un sens la plus simple
  422. et cela pourrait fonctionner,
  423. mais nous sommes alors vulnérables
    à l'extraction d'une boule noire.
  424. Avec un peu de coordination --
  425. en résolvant ce problème
    de macro gouvernance
  426. et celui de micro gouvernance --
  427. nous pourrions extraire
    toutes les boules de l'urne
  428. et nous en bénéficierons grandement.
  429. CA : Si nous vivons dans une simulation,
    cela importe-t-il ?

  430. Nous recommençons.
  431. (Rires)

  432. NB : Alors... je...

  433. (Rires)

  434. Je ne l'ai pas vu arriver.
  435. CA : Quelle est votre opinion ?

  436. En rassemblant toutes les pièces,
  437. quelle est notre probabilité
    d'être condamnés ?
  438. (Rires)

  439. J'adore comment les gens rient
    à cette question.

  440. NB : A un niveau individuel,

  441. nous semblons condamnés,
    juste d'un point de vue de l'échéance,
  442. nous nous décomposons et vieillissons.
  443. (Rires)

  444. C'est délicat.

  445. Si vous voulez y attacher une probabilité,
  446. tout d'abord, qui sommes-nous ?
  447. Si vous êtes vieux,
    vous mourrez de causes naturelles.
  448. Si vous êtes jeune,
    vous avez 100 ans peut-être,
  449. selon à qui vous demandez.
  450. Le seuil : qu'est-ce qui compte
    comme un dévaste civilisationnel ?
  451. Dans l'article, je n'ai pas besoin
    d'une catastrophe civilisationnelle
  452. pour que cela compte.
  453. C'est une question de définition.
  454. Je dis un milliard de morts
  455. ou une diminution du PIB mondial de 50%,
  456. mais selon le seuil que vous donnez,
  457. vous aurez une probabilité différente.
  458. Vous pourriez dire que je suis
    un optimiste effrayé.
  459. (Rires)

  460. CA : Vous êtes un optimiste effrayé

  461. et vous venez de créer un grand nombre
    d'autres personnes effrayées.
  462. (Rires)

  463. NB : Dans la simulation.

  464. CA : Dans une simulation.

  465. Nick Bostrom, votre esprit m'épate.
  466. Merci beaucoup de nous avoir effrayés.
  467. (Applaudissements)