Comment la civilisation pourrait s'autodétruire et quatre façons de l'éviter
-
0:01 - 0:03Chris Anderson : Nick Bostrom.
-
0:03 - 0:07Vous nous avez déjà offert
tant d'idées folles. -
0:07 - 0:09Je pense à il y a environ 20 ans,
-
0:09 - 0:12vous avez avancé que nous pourrions
tous vivre dans une simulation -
0:12 - 0:13ou que c'était probablement le cas.
-
0:13 - 0:15Plus récemment,
-
0:15 - 0:17vous avez dépeint les exemples
les plus saisissants -
0:17 - 0:20quant à comment une intelligence
générale artificielle -
0:20 - 0:21pourrait terriblement mal tourner.
-
0:22 - 0:23Cette année,
-
0:23 - 0:25vous êtes sur le point de publier
-
0:25 - 0:29un article qui présente une chose appelée
l'hypothèse du monde vulnérable. -
0:29 - 0:34Notre rôle ce soir est d'offrir
un guide illustré à ce sujet. -
0:34 - 0:36Allons-y.
-
0:37 - 0:39Quelle est cette hypothèse ?
-
0:40 - 0:42Nick Bostrom :
C'est une tentative de réflexion -
0:42 - 0:46sur une caractéristique structurelle
de la condition humaine actuelle. -
0:47 - 0:49Vous aimez la métaphore de l'urne
-
0:50 - 0:51alors je vais l'utiliser pour expliquer.
-
0:51 - 0:56Imaginez une grande urne remplie de boules
-
0:56 - 1:00représentant des idées, des méthodes,
des technologies possibles. -
1:01 - 1:05Vous pouvez voir l'histoire
de la créativité humaine -
1:05 - 1:07comme le fait de plonger
la main dans l'urne -
1:07 - 1:09et d'en sortir une boule après l'autre,
-
1:09 - 1:12et le résultat jusqu'ici
a été extrêmement bénéfique. -
1:12 - 1:14Nous avons extrait
de nombreuses boules blanches, -
1:14 - 1:17quelques grises
dont les bienfaits sont mitigés. -
1:18 - 1:21Jusqu'ici, nous n'avons pas
sorti la boule noire -- -
1:22 - 1:28une technologie qui détruit invariablement
la civilisation qui la découvre. -
1:28 - 1:31La publication essaye de réfléchir
à ce qu'une balle noire pourrait être. -
1:31 - 1:33CA : Vous définissez cette boule
-
1:33 - 1:37comme étant celle menant invariablement
à la destruction de la civilisation. -
1:37 - 1:39NB : A moins que nous ne sortions
-
1:39 - 1:42de ce que j'appelle la condition
semi-anarchique par défaut. -
1:42 - 1:43Mais par défaut.
-
1:44 - 1:48CA : Vous présentez
un argumentaire convaincant -
1:48 - 1:50en montrant des contre-exemples
-
1:50 - 1:53où vous croyez que jusqu'ici,
nous avons eu de la chance, -
1:53 - 1:56que nous pourrions avoir sorti
la boule de la mort -
1:56 - 1:57sans même le savoir.
-
1:57 - 2:00Il y a cette citation, quelle est-elle ?
-
2:01 - 2:03NB : Je suppose
qu'elle est censée illustrer -
2:03 - 2:05la difficulté liée à la prédiction
-
2:05 - 2:08de ce à quoi mèneront
des découvertes élémentaires. -
2:08 - 2:11Nous n'avons simplement pas
cette capacité. -
2:11 - 2:15Car nous sommes devenus bons
dans l'extraction de boules -
2:15 - 2:18mais nous n'avons pas la capacité
de remettre la boule dans l'urne. -
2:18 - 2:21Nous pouvons inventer
mais nous ne pouvons pas désinventer. -
2:22 - 2:24Notre stratégie actuelle
-
2:24 - 2:27est d'espérer qu'il n'y pas
de boule noire dans l'urne. -
2:27 - 2:31CA : Une fois sortie, elle est sortie
et vous ne pouvez pas la remettre, -
2:31 - 2:32et vous nous pensez chanceux.
-
2:32 - 2:35Expliquez-nous quelques-uns
de ces exemples. -
2:35 - 2:38Vous parlez de différents types
de vulnérabilités. -
2:38 - 2:40NB : Le type le plus simple à comprendre
-
2:40 - 2:46est une technologie qui rend
la destruction massive très facile. -
2:47 - 2:51La biologie synthétique pourrait être
une source féconde d'une telle boule, -
2:51 - 2:54mais nombre d'autres choses
que nous pourrions -- -
2:54 - 2:56pensez à la géo-ingénierie,
c'est génial, non ? -
2:56 - 2:58Nous pourrions contrer
le réchauffement climatique -
2:58 - 3:01mais nous ne voulons pas
que ce soit trop simple -
3:01 - 3:03et qu'un individu quelconque
et sa grand-mère -
3:03 - 3:06aient la capacité d'altérer radicalement
le climat terrestre. -
3:06 - 3:10Ou peut-être les drones autonomes mortels,
-
3:10 - 3:11des essaims de robots tueurs
-
3:11 - 3:14de la taille d'un moustique
et produits en masse. -
3:14 - 3:17La nanotechnologie,
l'intelligence générale artificielle. -
3:17 - 3:19CA : Vous avancez
-
3:19 - 3:22que c'est une question de chance
que quand nous avons découvert -
3:22 - 3:25que la puissance nucléaire
pouvait créer une bombe, -
3:25 - 3:26il aurait pu arriver
-
3:26 - 3:28que nous puissions créer une bombe
-
3:28 - 3:32avec des ressources bien plus simples
d'accès pour quiconque. -
3:32 - 3:35NB : Repensez aux années 30,
-
3:35 - 3:37où pour la première fois nous avons fait
-
3:37 - 3:40des découvertes capitales
en physique nucléaire, -
3:40 - 3:42un génie découvre qu'il est possible
-
3:42 - 3:44d'entraîner une réaction
nucléaire en chaîne -
3:44 - 3:47puis réalise que cela pourrait
mener à la bombe. -
3:47 - 3:49Nous continuons à y travailler
-
3:49 - 3:52et il s'avère qu'il vous faut,
pour une bombe nucléaire, -
3:52 - 3:54de l'uranium ou du plutonium
hautement enrichi, -
3:54 - 3:56qui sont très difficiles à obtenir.
-
3:56 - 3:58Vous avez besoin d'ultracentrifugeuses,
-
3:58 - 4:02de réacteurs et de quantités
massives d'énergie. -
4:02 - 4:04Mais supposez qu'au lieu de cela,
-
4:04 - 4:08il y ait eu une façon simple
de libérer l'énergie de l'atome. -
4:08 - 4:11Peut-être qu'en cuisant du sable
dans un four micro-ondes -
4:11 - 4:12ou quelque chose du genre,
-
4:12 - 4:14vous auriez pu causer
une détonation nucléaire. -
4:14 - 4:16Nous savons que c'est
physiquement impossible. -
4:16 - 4:18Mais avant de faire les calculs adéquats,
-
4:18 - 4:20comment savoir
comment cela allait tourner ? -
4:21 - 4:24CA : Ne pourriez-vous pas avancer
que pour que la vie évolue sur Terre, -
4:24 - 4:27cela suppose un environnement stable,
-
4:27 - 4:30que s'il était possible de causer
des réactions nucléaires massives -
4:30 - 4:32relativement facilement,
-
4:32 - 4:33la Terre n'aurait jamais été stable,
-
4:33 - 4:35nous ne serions pas là.
-
4:35 - 4:38NB : Oui, à moins qu'il y ait une chose
facile à faire volontairement -
4:38 - 4:41mais qui n'arriverait pas par hasard.
-
4:41 - 4:43Des choses faciles à faire,
-
4:43 - 4:45comme empiler 10 cubes
les uns sur les autres, -
4:45 - 4:48mais dans la nature, vous ne trouverez pas
une pile de 10 cubes. -
4:48 - 4:50CA : C'est probablement la chose
-
4:50 - 4:52qui inquiète le plus
la majorité d'entre nous -
4:52 - 4:55et oui, la biologie synthétique
est peut-être le chemin le plus rapide -
4:55 - 4:58qui, nous pouvons envisager,
nous y mènera dans un avenir proche. -
4:58 - 5:01NB : Réfléchissez
à ce que cela aurait signifié -
5:01 - 5:05si, disons, quiconque travaillant
dans sa cuisine pendant un après-midi -
5:05 - 5:07pouvait détruire une ville.
-
5:07 - 5:10Il est difficile de voir comment
la civilisation moderne actuelle -
5:10 - 5:12aurait pu survivre à cela.
-
5:12 - 5:14Car dans toute population
d'un million de personnes, -
5:14 - 5:17il y aura toujours quelqu'un
qui, peu importe la raison, -
5:17 - 5:19choisira d'utiliser
ce pouvoir destructeur. -
5:20 - 5:23Si ce résidu apocalyptique
-
5:23 - 5:25décidait de détruire une ville, ou pire,
-
5:25 - 5:26des villes seraient détruites.
-
5:26 - 5:29CA : Voici un autre type de vulnérabilité.
-
5:29 - 5:31Parlez-en.
-
5:31 - 5:35NB : En plus de ces types
de balles noires évidents -
5:35 - 5:37qui rendraient possible
de faire exploser plein de choses, -
5:37 - 5:42d'autres types agiraient en créant
de mauvaises incitations -
5:42 - 5:44pour que les humains
fassent des choses nuisibles. -
5:44 - 5:48Le type 2a, nous pouvons l'appeler ainsi,
-
5:48 - 5:53c'est réfléchir à une technologie
qui invite les grandes puissances -
5:53 - 5:57à utiliser leurs forces massives
pour causer de la destruction. -
5:57 - 6:00Les armes nucléaires
en étaient très proches. -
6:02 - 6:05Nous avons dépensé
plus de 10 billions de dollars -
6:05 - 6:08pour fabriquer 70 000 ogives nucléaires
-
6:08 - 6:10et les placer en état
d'alerte instantanée. -
6:10 - 6:12A plusieurs reprises
durant la Guerre froide, -
6:12 - 6:14on a failli se faire sauter.
-
6:14 - 6:17Non pas que beaucoup de gens pensaient
que ce serait une super idée -
6:17 - 6:20de dépenser 10 billions de dollars
pour se faire sauter, -
6:20 - 6:23mais les incitations étaient telles
que nous nous trouvions -- -
6:23 - 6:24cela aurait pu être pire.
-
6:24 - 6:26Imaginez s'il y a avait eu
un premier coup assuré. -
6:26 - 6:29Cela aurait pu être très délicat,
-
6:29 - 6:30dans une situation de crise,
-
6:30 - 6:33de s'abstenir de lancer
tous les missiles nucléaires. -
6:33 - 6:34A défaut d'autre chose,
-
6:34 - 6:36car vous craindriez
que l'autre camp ne le fasse. -
6:36 - 6:38CA : La destruction mutuelle assurée
-
6:38 - 6:41a maintenu la Guerre froide
relativement stable. -
6:41 - 6:43Sans cela, nous pourrions ne pas être là.
-
6:43 - 6:45NB : Cela aurait pu être
plus instable que cela. -
6:45 - 6:47Il pourrait y avoir
d'autres propriétés technologiques. -
6:47 - 6:50Il aurait pu être plus dur
d'avoir des traités -
6:50 - 6:51si au lieu des armes nucléaires,
-
6:51 - 6:54cela avait été une chose plus petite
ou moins distinctive. -
6:54 - 6:57CA : Avec les mauvaises incitations
pour les acteurs puissants, -
6:57 - 7:00vous vous inquiétez de telles incitations
pour nous tous, le type 2b. -
7:00 - 7:05NB : Nous pourrions prendre le cas
du réchauffement climatique. -
7:07 - 7:09Il y a beaucoup de petits conforts
-
7:09 - 7:11qui mènent chacun d'entre nous
à faire des choses -
7:11 - 7:14qui, individuellement,
n'ont pas d'effet significatif. -
7:14 - 7:16Mais si des milliards de gens le font,
-
7:16 - 7:18cumulativement, cela a
un effet préjudiciable. -
7:18 - 7:21Le réchauffement climatique
aurait pu être pire qu'il ne l'est. -
7:21 - 7:24Nous avons le paramètre
de sensibilité climatique. -
7:24 - 7:28C'est un paramètre
qui indique le réchauffement -
7:28 - 7:30si on émet une certaine quantité
de gaz à effet de serre. -
7:30 - 7:33Mais supposez que la situation
-
7:33 - 7:35soit qu'avec les quantités
de gaz à effet de serre émis, -
7:35 - 7:41au lieu d'une température augmentant
d'entre 3 et 4,5 degrés d'ici 2100, -
7:41 - 7:44imaginez que c'eût été 15 ou 20 degrés.
-
7:44 - 7:47La situation aurait alors
été très mauvaise. -
7:47 - 7:50Imaginez que les énergies renouvelables
aient été bien plus complexes. -
7:50 - 7:53Ou qu'il y ait eu
plus de carburants fossiles. -
7:53 - 7:55CA : Ne pourriez-vous pas avancer
que dans ce cas de -- -
7:55 - 7:57si ce que nous faisons aujourd'hui
-
7:57 - 8:02avait entraîné une différence de 10 degrés
sur une période que nous pourrions voir, -
8:02 - 8:05l'humanité se serait bougé le cul
et y aurait fait quelque chose. -
8:06 - 8:08Nous sommes stupides,
mais peut-être pas autant. -
8:08 - 8:10Ou peut-être que si.
-
8:10 - 8:11NB : Je ne parierais pas.
-
8:11 - 8:13(Rires)
-
8:13 - 8:15Vous pourriez imaginer d'autres options.
-
8:15 - 8:20Actuellement, c'est un peu difficile
de passer aux énergies renouvelables, -
8:20 - 8:22mais c'est possible.
-
8:22 - 8:25Cela aurait pu être que,
avec une physique légèrement différente, -
8:25 - 8:27il aurait été bien plus cher
de faire ces choses-là. -
8:28 - 8:30CA : Quelle est votre opinion ?
-
8:30 - 8:32Pensez-vous, en réunissant
ces possibilités, -
8:32 - 8:37cette Terre, l'humanité que nous sommes,
-
8:37 - 8:38nous sommes un monde vulnérable ?
-
8:38 - 8:41Qu'il y a une boule de la mort
dans notre futur ? -
8:44 - 8:45NB : C'est difficile à dire.
-
8:45 - 8:50Je pense qu'il pourrait y avoir
diverses boules noires dans l'urne, -
8:50 - 8:52c'est ce qu'il semble.
-
8:52 - 8:54Il pourrait aussi y avoir
des boules dorées -
8:54 - 8:58qui nous aideraient
à nous protéger des boules noires. -
8:58 - 9:01Je ne sais pas dans quel ordre
elles vont sortir. -
9:01 - 9:04CA : Une critique philosophique
possible de cette idée, -
9:04 - 9:10c'est que cela implique une vision
de l'avenir qui est globalement établie. -
9:10 - 9:13Soit cette boule est là,
soit elle ne l'est pas. -
9:13 - 9:17D'une certaine façon,
ce n'est pas une vision de l'avenir -
9:17 - 9:18en laquelle je veux croire.
-
9:18 - 9:21Je veux croire que l'avenir
est indéterminé, -
9:21 - 9:23que nos décisions
aujourd'hui détermineront -
9:23 - 9:25quel genre de boules
nous sortons de l'urne. -
9:26 - 9:30NB : Si nous continuons à inventer,
-
9:30 - 9:32nous finirons par sortir
toutes les boules. -
9:33 - 9:36Je pense qu'il y a une forme
de déterminisme technologique -
9:36 - 9:38qui est assez plausible.
-
9:38 - 9:40Vous avez peu de probabilités
de rencontrer une société -
9:40 - 9:43qui utilise des haches en silex
et des avions à réaction. -
9:44 - 9:48Vous pouvez presque voir la technologie
comme un ensemble de potentialités. -
9:48 - 9:51La technologie est la chose
nous permettant de faire diverses choses -
9:51 - 9:53et d'obtenir divers effets sur le monde.
-
9:53 - 9:56Comment nous allons l'utiliser
dépend des choix humains. -
9:56 - 9:59Mais si vous pensez
à ces trois types de vulnérabilités, -
9:59 - 10:02elles ne supposent pas tant
de comment nous choisirions de l'utiliser. -
10:02 - 10:06Une vulnérabilité de type 1,
cet énorme pouvoir destructeur, -
10:06 - 10:07ce n'est pas une hypothèse forte
-
10:07 - 10:10de penser que dans une population
de millions de gens -
10:10 - 10:13il y en aurait qui choisiraient
de l'utiliser pour détruire. -
10:13 - 10:15CA : Pour moi, l'argument
qui me perturbe le plus, -
10:15 - 10:20c'est que nous pourrions
avoir un aperçu de l'urne -
10:20 - 10:23qui rendrait très probable
que nous soyons condamnés. -
10:23 - 10:28Si vous croyez au pouvoir accélérateur,
-
10:28 - 10:30qu'intrinsèquement,
la technologie accélère, -
10:30 - 10:33que nous créons les outils
nous rendant plus puissants, -
10:33 - 10:35vous finissez par en arriver à un point
-
10:35 - 10:38où chaque individu peut tous nous éliminer
-
10:38 - 10:41et il semble alors que nous soyons foutus.
-
10:41 - 10:44Cet argument n'est-il pas alarmant ?
-
10:44 - 10:46NB : Oui.
-
10:47 - 10:48(Rires)
-
10:48 - 10:49Je pense --
-
10:51 - 10:53Nous avons de plus en plus de pouvoir
-
10:53 - 10:56et il est de plus en plus simple
d'utiliser ce pouvoir, -
10:56 - 10:59mais nous pouvons aussi
inventer des technologies -
10:59 - 11:02qui nous aident à contrôler l'utilisation
que les gens font de ce pouvoir. -
11:02 - 11:05CA : Parlons de cela,
parlons de la réponse. -
11:05 - 11:07Supposons que réfléchir
à toutes les possibilités -
11:07 - 11:09qu'il y a actuellement --
-
11:09 - 11:13ce n'est pas que la biologie synthétique,
ce sont les cyberguerres, -
11:13 - 11:17l'intelligence artificielle
et ainsi de suite -- -
11:17 - 11:21qu'il y a une condamnation
sérieuse dans notre avenir. -
11:21 - 11:23Quelles sont les réponses possibles ?
-
11:23 - 11:28Vous avez parlé
de quatre réponses possibles. -
11:28 - 11:30NB : Restreindre
le développement technologique -
11:30 - 11:31ne semble pas prometteur
-
11:31 - 11:33si nous parlons
d'une interruption générale -
11:33 - 11:35des progrès technologiques.
-
11:35 - 11:36Ce n'est ni faisable ni désirable,
-
11:36 - 11:38même si nous le pouvions.
-
11:38 - 11:41Je pense qu'il y a
des domaines très limités -
11:41 - 11:44où vous pourriez vouloir
ralentir les progrès technologiques. -
11:44 - 11:47Vous ne voulez pas de progrès
plus rapides pour les armes biologiques -
11:47 - 11:49ou la séparation d'isotope,
-
11:49 - 11:52ce qui faciliterait la création
de bombes nucléaires. -
11:53 - 11:56CA : Avant, j'étais
complètement d'accord avec cela. -
11:56 - 11:59Mais j'aimerais prendre un instant
pour contre-argumenter. -
11:59 - 12:01Tout d'abord,
-
12:01 - 12:03si vous considérez l'histoire
des dernières décennies, -
12:03 - 12:07il y a toujours eu une évolution
vers l'avant à pleine vitesse, -
12:07 - 12:09ça va, c'est notre seul choix.
-
12:09 - 12:13Mais si vous considérez la mondialisation
et son accélération rapide, -
12:13 - 12:16si vous considérez la stratégie
d' « avancer vite et casser des trucs » -
12:16 - 12:19et ce qui est arrivé,
-
12:19 - 12:22puis que vous considérez le potentiel
de la biologie synthétique, -
12:22 - 12:26je ne sais pas si nous devrions
avancer rapidement -
12:26 - 12:27ou sans aucune restriction
-
12:27 - 12:31vers un monde où vous pourriez avoir
une imprimante d'ADN à la maison -
12:31 - 12:32et dans les lycées.
-
12:33 - 12:35Il y a des restrictions, non ?
-
12:35 - 12:38NB : Il y a la première partie :
l'infaisabilité. -
12:38 - 12:40Si vous pensez qu'il serait
désirable d'arrêter, -
12:40 - 12:41il y a le problème de faisabilité.
-
12:42 - 12:44Cela n'aide pas vraiment si une nation --
-
12:44 - 12:46CA : Cela n'aide pas si une nation arrête,
-
12:46 - 12:49mais nous avons eu des traités auparavant.
-
12:49 - 12:53C'est ainsi que nous avons survécu
à la menace nucléaire, -
12:53 - 12:57c'est en en passant par le processus
douloureux des négociations. -
12:57 - 13:02Je me demande si la logique n'est pas
que nous, en termes de priorité mondiale, -
13:02 - 13:04nous ne devrions pas essayer,
-
13:04 - 13:06commencer à négocier maintenant
des règles très strictes -
13:06 - 13:09sur les lieux de conduite
de recherches biologiques. -
13:09 - 13:12Ce n'est pas une chose
que vous voulez démocratiser, si ? -
13:12 - 13:14NB : Je suis complètement d'accord --
-
13:14 - 13:18il serait désirable, par exemple,
-
13:18 - 13:22d'avoir des machines de synthèse d'ADN,
-
13:22 - 13:25pas en tant que produit pour lequel
chaque labo a son appareil, -
13:25 - 13:27mais en tant que service.
-
13:27 - 13:29Il pourrait y avoir
quatre ou cinq endroits au monde -
13:29 - 13:31où vous pourriez envoyer
un modèle numérique -
13:31 - 13:33et l'ADN arriverait à vous.
-
13:33 - 13:35Vous auriez la capacité,
-
13:35 - 13:37si un jour cela semblait
vraiment nécessaire, -
13:37 - 13:40il y aurait un ensemble fini
de goulots d'étranglement. -
13:40 - 13:43Je pense que vous voulez considérer
des opportunités particulières -
13:43 - 13:45où vous pourriez avoir
un contrôle plus strict. -
13:45 - 13:47CA : Vous croyez, au fond,
-
13:47 - 13:50que nous ne réussirons pas
à contenir les choses. -
13:50 - 13:52Quelqu'un, quelque part --
en Corée du Nord -- -
13:52 - 13:56quelqu'un va y arriver
et découvrir ce savoir, -
13:56 - 13:57s'il est à découvrir.
-
13:57 - 14:00NB : C'est plausible
dans les conditions actuelles. -
14:00 - 14:02Ce n'est pas que la biologie synthétique.
-
14:02 - 14:04N'importe quel genre
de changement profond et nouveau -
14:04 - 14:06pourrait être une boule noire.
-
14:06 - 14:08CA : Considérons
une autre réponse possible. -
14:08 - 14:10NB : Ceci, à mon avis,
a un potentiel limité. -
14:10 - 14:14Avec la vulnérabilité de type 1,
-
14:14 - 14:18si vous pouvez réduire le nombre
de personnes qui sont motivées -
14:18 - 14:19à détruire le monde,
-
14:19 - 14:22si elles seules avaient
l'accès et les moyens, -
14:22 - 14:23ce serait bien.
-
14:23 - 14:25CA : Dans cette image,
-
14:25 - 14:27vous imaginez ces drones
volant à travers le monde -
14:27 - 14:29avec une reconnaissance faciale.
-
14:29 - 14:32Quand ils repèrent quelqu'un
présentant un comportement sociopathe, -
14:32 - 14:34ils le couvrent d'amour, le rétablissent.
-
14:34 - 14:36NB : C'est une image hybride.
-
14:36 - 14:40Éliminer peut signifier
soit incarcérer ou tuer, -
14:40 - 14:43soit les persuader d'avoir
une meilleure vision du monde. -
14:43 - 14:45Le principe, c'est :
-
14:45 - 14:47imaginez être extrêmement performant
-
14:47 - 14:50et réduire le nombre
de tels individus de moitié. -
14:50 - 14:52Si vous voulez le faire via la persuasion,
-
14:52 - 14:54vous rivalisez contre
toutes les grandes forces -
14:54 - 14:56qui essayent de persuader les gens,
-
14:56 - 14:58les partis, la religion,
le système éducatif. -
14:58 - 15:00Supposez pouvoir le réduire de moitié,
-
15:00 - 15:02le risque ne serait pas réduit de moitié.
-
15:02 - 15:04Peut-être de 5% ou 10%.
-
15:04 - 15:07CA : Vous ne recommandez pas
que l'on parie l'avenir de l'humanité -
15:07 - 15:08sur la seconde réponse.
-
15:08 - 15:11NB : C'est bien d'essayer
de dissuader et persuader les gens, -
15:11 - 15:14mais pas miser dessus
comme seul dispositif de sécurité. -
15:14 - 15:16CA : Et la troisième réponse ?
-
15:16 - 15:18NB : Il y a deux méthodes générales
-
15:18 - 15:22que nous pourrions utiliser pour parvenir
à la capacité de stabiliser le monde -
15:22 - 15:25face à l'éventail complet
des vulnérabilités possibles. -
15:25 - 15:27Nous aurions besoin des deux.
-
15:27 - 15:31Une est une capacité optimale
-
15:32 - 15:33de prévention policière.
-
15:33 - 15:35Afin de pouvoir intercepter.
-
15:35 - 15:38Si quiconque entamait
cette chose dangereuse, -
15:38 - 15:40vous pourriez l'intercepter
en temps réel et l'arrêter. -
15:40 - 15:43Cela nécessiterait
une surveillance omniprésente, -
15:43 - 15:45tout le monde serait
constamment surveillé. -
15:46 - 15:49CA : C'est en gros
une forme de « Minority Report ». -
15:49 - 15:51NB : Vous auriez des algorithmes d'IA,
-
15:51 - 15:55de gros centres de liberté
qui examineraient cela, et ainsi de suite. -
15:57 - 16:01CA : La surveillance de masse
n'est pas très populaire en ce moment. -
16:01 - 16:02(Rires)
-
16:03 - 16:05NB : Ce petit dispositif,
-
16:05 - 16:09imaginez ce genre de collier
que vous devriez porter tout le temps, -
16:09 - 16:11avec des caméras multidirectionnelles.
-
16:12 - 16:14Mais pour que cela passe mieux,
-
16:14 - 16:16appelez-le la « balise
de la liberté » ou autre. -
16:16 - 16:18(Rires)
-
16:18 - 16:19CA : D'accord.
-
16:20 - 16:22C'est la conversation --
-
16:22 - 16:25c'est pour cela que c'est
une conversation si époustouflante. -
16:25 - 16:29NB : Il y a toute une conversation
à ce sujet-là en particulier. -
16:29 - 16:32Il y a de gros problèmes
et risques avec cela. -
16:32 - 16:33Nous y reviendrons peut-être.
-
16:33 - 16:34L'autre, la dernière,
-
16:34 - 16:39l'autre capacité de stabilisation générale
comble un autre vide dans la gouvernance. -
16:39 - 16:43La surveillance comblerait pour un vide
dans la gouvernance à un niveau micro : -
16:43 - 16:46empêcher quiconque de faire
quoi que ce soit de hautement illégal. -
16:46 - 16:49Il y un vide équivalent
dans la gouvernance -
16:49 - 16:51au niveau macro, au niveau mondial.
-
16:51 - 16:54Il vous faudrait la capacité fiable
-
16:54 - 16:57d'empêcher les pires types
d'échecs de coordination mondiale, -
16:57 - 17:01d'éviter les guerres
entre les grandes puissances, -
17:01 - 17:02les courses à l'armement,
-
17:04 - 17:06les problèmes communs cataclysmiques,
-
17:08 - 17:12afin de faire face
aux vulnérabilités de type 2a. -
17:12 - 17:14CA : La gouvernance mondiale est un terme
-
17:14 - 17:16qui n'est plus du tout
à la mode actuellement, -
17:16 - 17:19mais vous pourriez avancer
qu'au cours de l'histoire, -
17:19 - 17:20de l'histoire de l'humanité,
-
17:20 - 17:25à chaque moment de montée
du pouvoir technologique, -
17:25 - 17:29les gens se sont réorganisés
et ont centralisé le pouvoir. -
17:29 - 17:32Par exemple, quand un groupe
de criminels itinérants -
17:32 - 17:34pouvait prendre le contrôle d'une société,
-
17:34 - 17:36la réponse a été d'avoir un État-nation
-
17:36 - 17:38et une force centralisée,
policière ou militaire, -
17:39 - 17:40pour que ce ne soit pas possible.
-
17:40 - 17:45La logique d'avoir une seule personne
ou un seul groupe -
17:45 - 17:46capable d'éradiquer l'humanité
-
17:46 - 17:49signifie qu'à un moment,
nous devrons emprunter ce chemin, -
17:49 - 17:51sous une certaine forme, non ?
-
17:51 - 17:54NB : Il est vrai que l'échelle
de l'organisation politique a augmenté -
17:54 - 17:56au cours de l'histoire humaine.
-
17:56 - 17:59C'était un groupe de chasseurs-cueilleurs,
-
17:59 - 18:01puis des chefferies,
des cité-États, des nations, -
18:02 - 18:05maintenant il y a des organisations
internationales et ainsi de suite. -
18:06 - 18:07Je veux juste m'assurer
-
18:07 - 18:09d'avoir l'opportunité d'insister
-
18:09 - 18:11qu'il y a évidemment
d'énormes inconvénients -
18:11 - 18:12et d'énormes risques
-
18:12 - 18:16dans la surveillance de masse
et la gouvernance mondiale. -
18:16 - 18:18Je vais faire remarquer
que si nous sommes chanceux, -
18:18 - 18:21le monde pourrait être tel
que ce seraient les seules façons -
18:21 - 18:22de survivre à une boule noire.
-
18:22 - 18:25CA : La logique de cette théorie,
-
18:25 - 18:26me semble-t-il,
-
18:26 - 18:30c'est que nous devons reconnaître
que nous ne pouvons pas tout avoir. -
18:30 - 18:32C'est le genre
-
18:34 - 18:36de rêve naïf, si je puis dire,
que nombre d'entre nous avaient -
18:36 - 18:40que la technologie sera toujours
une force du bien, -
18:40 - 18:43qu'il ne faut ne pas s'arrêter,
aller aussi vite que possible -
18:43 - 18:45et ne pas prêter attention
à certaines conséquences, -
18:45 - 18:47ce n'est même pas une option.
-
18:47 - 18:49Nous pouvons le faire.
-
18:49 - 18:50Si nous le faisons,
-
18:50 - 18:52il faudra accepter
-
18:52 - 18:54certaines choses très désagréables
-
18:54 - 18:56et faire la course à l'armement
avec nous-mêmes : -
18:56 - 18:59si vous voulez le pouvoir,
vous devriez le confiner, -
18:59 - 19:01vous devriez trouver comment le confiner.
-
19:01 - 19:04NB : Je pense que c'est une option,
-
19:04 - 19:07une option très tentante,
dans un sens la plus simple -
19:07 - 19:09et cela pourrait fonctionner,
-
19:09 - 19:13mais nous sommes alors vulnérables
à l'extraction d'une boule noire. -
19:13 - 19:16Avec un peu de coordination --
-
19:16 - 19:18en résolvant ce problème
de macro gouvernance -
19:18 - 19:20et celui de micro gouvernance --
-
19:20 - 19:22nous pourrions extraire
toutes les boules de l'urne -
19:22 - 19:25et nous en bénéficierons grandement.
-
19:25 - 19:28CA : Si nous vivons dans une simulation,
cela importe-t-il ? -
19:28 - 19:29Nous recommençons.
-
19:29 - 19:31(Rires)
-
19:31 - 19:32NB : Alors... je...
-
19:32 - 19:35(Rires)
-
19:35 - 19:36Je ne l'ai pas vu arriver.
-
19:38 - 19:40CA : Quelle est votre opinion ?
-
19:40 - 19:42En rassemblant toutes les pièces,
-
19:42 - 19:44quelle est notre probabilité
d'être condamnés ? -
19:44 - 19:46(Rires)
-
19:47 - 19:49J'adore comment les gens rient
à cette question. -
19:49 - 19:51NB : A un niveau individuel,
-
19:51 - 19:55nous semblons condamnés,
juste d'un point de vue de l'échéance, -
19:55 - 19:57nous nous décomposons et vieillissons.
-
19:57 - 19:59(Rires)
-
19:59 - 20:01C'est délicat.
-
20:01 - 20:03Si vous voulez y attacher une probabilité,
-
20:03 - 20:05tout d'abord, qui sommes-nous ?
-
20:05 - 20:07Si vous êtes vieux,
vous mourrez de causes naturelles. -
20:08 - 20:10Si vous êtes jeune,
vous avez 100 ans peut-être, -
20:10 - 20:12selon à qui vous demandez.
-
20:12 - 20:16Le seuil : qu'est-ce qui compte
comme un dévaste civilisationnel ? -
20:16 - 20:22Dans l'article, je n'ai pas besoin
d'une catastrophe civilisationnelle -
20:22 - 20:23pour que cela compte.
-
20:23 - 20:25C'est une question de définition.
-
20:25 - 20:26Je dis un milliard de morts
-
20:26 - 20:29ou une diminution du PIB mondial de 50%,
-
20:29 - 20:31mais selon le seuil que vous donnez,
-
20:31 - 20:33vous aurez une probabilité différente.
-
20:33 - 20:37Vous pourriez dire que je suis
un optimiste effrayé. -
20:37 - 20:38(Rires)
-
20:38 - 20:40CA : Vous êtes un optimiste effrayé
-
20:40 - 20:46et vous venez de créer un grand nombre
d'autres personnes effrayées. -
20:46 - 20:47(Rires)
-
20:47 - 20:48NB : Dans la simulation.
-
20:48 - 20:49CA : Dans une simulation.
-
20:49 - 20:51Nick Bostrom, votre esprit m'épate.
-
20:51 - 20:54Merci beaucoup de nous avoir effrayés.
-
20:54 - 20:56(Applaudissements)
- Title:
- Comment la civilisation pourrait s'autodétruire et quatre façons de l'éviter
- Speaker:
- Nick Bostrom
- Description:
-
L'humanité est en route pour créer une « boule noire » : une technologie révolutionnaire qui pourrait tous nous détruire, dit le philosophe Nick Bostrom. Dans cette conversation incisive et surprenamment légère avec le dirigeant de TED, Chris Anderson, il décrit les vulnérabilités auxquelles nous pourrions faire face si nos inventions échappaient à notre contrôle. Il explore également comment nous pouvons éviter notre future disparition.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
eric vautier approved French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
eric vautier edited French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
eric vautier edited French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Claire Ghyselen accepted French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Claire Ghyselen edited French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Claire Ghyselen edited French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Claire Ghyselen edited French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Morgane Quilfen edited French subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |