Return to Video

Comment la civilisation pourrait s'autodétruire et quatre façons de l'éviter

  • 0:01 - 0:03
    Chris Anderson : Nick Bostrom.
  • 0:03 - 0:07
    Vous nous avez déjà offert
    tant d'idées folles.
  • 0:07 - 0:09
    Je pense à il y a environ 20 ans,
  • 0:09 - 0:12
    vous avez avancé que nous pourrions
    tous vivre dans une simulation
  • 0:12 - 0:13
    ou que c'était probablement le cas.
  • 0:13 - 0:15
    Plus récemment,
  • 0:15 - 0:17
    vous avez dépeint les exemples
    les plus saisissants
  • 0:17 - 0:20
    quant à comment une intelligence
    générale artificielle
  • 0:20 - 0:21
    pourrait terriblement mal tourner.
  • 0:22 - 0:23
    Cette année,
  • 0:23 - 0:25
    vous êtes sur le point de publier
  • 0:25 - 0:29
    un article qui présente une chose appelée
    l'hypothèse du monde vulnérable.
  • 0:29 - 0:34
    Notre rôle ce soir est d'offrir
    un guide illustré à ce sujet.
  • 0:34 - 0:36
    Allons-y.
  • 0:37 - 0:39
    Quelle est cette hypothèse ?
  • 0:40 - 0:42
    Nick Bostrom :
    C'est une tentative de réflexion
  • 0:42 - 0:46
    sur une caractéristique structurelle
    de la condition humaine actuelle.
  • 0:47 - 0:49
    Vous aimez la métaphore de l'urne
  • 0:50 - 0:51
    alors je vais l'utiliser pour expliquer.
  • 0:51 - 0:56
    Imaginez une grande urne remplie de boules
  • 0:56 - 1:00
    représentant des idées, des méthodes,
    des technologies possibles.
  • 1:01 - 1:05
    Vous pouvez voir l'histoire
    de la créativité humaine
  • 1:05 - 1:07
    comme le fait de plonger
    la main dans l'urne
  • 1:07 - 1:09
    et d'en sortir une boule après l'autre,
  • 1:09 - 1:12
    et le résultat jusqu'ici
    a été extrêmement bénéfique.
  • 1:12 - 1:14
    Nous avons extrait
    de nombreuses boules blanches,
  • 1:14 - 1:17
    quelques grises
    dont les bienfaits sont mitigés.
  • 1:18 - 1:21
    Jusqu'ici, nous n'avons pas
    sorti la boule noire --
  • 1:22 - 1:28
    une technologie qui détruit invariablement
    la civilisation qui la découvre.
  • 1:28 - 1:31
    La publication essaye de réfléchir
    à ce qu'une balle noire pourrait être.
  • 1:31 - 1:33
    CA : Vous définissez cette boule
  • 1:33 - 1:37
    comme étant celle menant invariablement
    à la destruction de la civilisation.
  • 1:37 - 1:39
    NB : A moins que nous ne sortions
  • 1:39 - 1:42
    de ce que j'appelle la condition
    semi-anarchique par défaut.
  • 1:42 - 1:43
    Mais par défaut.
  • 1:44 - 1:48
    CA : Vous présentez
    un argumentaire convaincant
  • 1:48 - 1:50
    en montrant des contre-exemples
  • 1:50 - 1:53
    où vous croyez que jusqu'ici,
    nous avons eu de la chance,
  • 1:53 - 1:56
    que nous pourrions avoir sorti
    la boule de la mort
  • 1:56 - 1:57
    sans même le savoir.
  • 1:57 - 2:00
    Il y a cette citation, quelle est-elle ?
  • 2:01 - 2:03
    NB : Je suppose
    qu'elle est censée illustrer
  • 2:03 - 2:05
    la difficulté liée à la prédiction
  • 2:05 - 2:08
    de ce à quoi mèneront
    des découvertes élémentaires.
  • 2:08 - 2:11
    Nous n'avons simplement pas
    cette capacité.
  • 2:11 - 2:15
    Car nous sommes devenus bons
    dans l'extraction de boules
  • 2:15 - 2:18
    mais nous n'avons pas la capacité
    de remettre la boule dans l'urne.
  • 2:18 - 2:21
    Nous pouvons inventer
    mais nous ne pouvons pas désinventer.
  • 2:22 - 2:24
    Notre stratégie actuelle
  • 2:24 - 2:27
    est d'espérer qu'il n'y pas
    de boule noire dans l'urne.
  • 2:27 - 2:31
    CA : Une fois sortie, elle est sortie
    et vous ne pouvez pas la remettre,
  • 2:31 - 2:32
    et vous nous pensez chanceux.
  • 2:32 - 2:35
    Expliquez-nous quelques-uns
    de ces exemples.
  • 2:35 - 2:38
    Vous parlez de différents types
    de vulnérabilités.
  • 2:38 - 2:40
    NB : Le type le plus simple à comprendre
  • 2:40 - 2:46
    est une technologie qui rend
    la destruction massive très facile.
  • 2:47 - 2:51
    La biologie synthétique pourrait être
    une source féconde d'une telle boule,
  • 2:51 - 2:54
    mais nombre d'autres choses
    que nous pourrions --
  • 2:54 - 2:56
    pensez à la géo-ingénierie,
    c'est génial, non ?
  • 2:56 - 2:58
    Nous pourrions contrer
    le réchauffement climatique
  • 2:58 - 3:01
    mais nous ne voulons pas
    que ce soit trop simple
  • 3:01 - 3:03
    et qu'un individu quelconque
    et sa grand-mère
  • 3:03 - 3:06
    aient la capacité d'altérer radicalement
    le climat terrestre.
  • 3:06 - 3:10
    Ou peut-être les drones autonomes mortels,
  • 3:10 - 3:11
    des essaims de robots tueurs
  • 3:11 - 3:14
    de la taille d'un moustique
    et produits en masse.
  • 3:14 - 3:17
    La nanotechnologie,
    l'intelligence générale artificielle.
  • 3:17 - 3:19
    CA : Vous avancez
  • 3:19 - 3:22
    que c'est une question de chance
    que quand nous avons découvert
  • 3:22 - 3:25
    que la puissance nucléaire
    pouvait créer une bombe,
  • 3:25 - 3:26
    il aurait pu arriver
  • 3:26 - 3:28
    que nous puissions créer une bombe
  • 3:28 - 3:32
    avec des ressources bien plus simples
    d'accès pour quiconque.
  • 3:32 - 3:35
    NB : Repensez aux années 30,
  • 3:35 - 3:37
    où pour la première fois nous avons fait
  • 3:37 - 3:40
    des découvertes capitales
    en physique nucléaire,
  • 3:40 - 3:42
    un génie découvre qu'il est possible
  • 3:42 - 3:44
    d'entraîner une réaction
    nucléaire en chaîne
  • 3:44 - 3:47
    puis réalise que cela pourrait
    mener à la bombe.
  • 3:47 - 3:49
    Nous continuons à y travailler
  • 3:49 - 3:52
    et il s'avère qu'il vous faut,
    pour une bombe nucléaire,
  • 3:52 - 3:54
    de l'uranium ou du plutonium
    hautement enrichi,
  • 3:54 - 3:56
    qui sont très difficiles à obtenir.
  • 3:56 - 3:58
    Vous avez besoin d'ultracentrifugeuses,
  • 3:58 - 4:02
    de réacteurs et de quantités
    massives d'énergie.
  • 4:02 - 4:04
    Mais supposez qu'au lieu de cela,
  • 4:04 - 4:08
    il y ait eu une façon simple
    de libérer l'énergie de l'atome.
  • 4:08 - 4:11
    Peut-être qu'en cuisant du sable
    dans un four micro-ondes
  • 4:11 - 4:12
    ou quelque chose du genre,
  • 4:12 - 4:14
    vous auriez pu causer
    une détonation nucléaire.
  • 4:14 - 4:16
    Nous savons que c'est
    physiquement impossible.
  • 4:16 - 4:18
    Mais avant de faire les calculs adéquats,
  • 4:18 - 4:20
    comment savoir
    comment cela allait tourner ?
  • 4:21 - 4:24
    CA : Ne pourriez-vous pas avancer
    que pour que la vie évolue sur Terre,
  • 4:24 - 4:27
    cela suppose un environnement stable,
  • 4:27 - 4:30
    que s'il était possible de causer
    des réactions nucléaires massives
  • 4:30 - 4:32
    relativement facilement,
  • 4:32 - 4:33
    la Terre n'aurait jamais été stable,
  • 4:33 - 4:35
    nous ne serions pas là.
  • 4:35 - 4:38
    NB : Oui, à moins qu'il y ait une chose
    facile à faire volontairement
  • 4:38 - 4:41
    mais qui n'arriverait pas par hasard.
  • 4:41 - 4:43
    Des choses faciles à faire,
  • 4:43 - 4:45
    comme empiler 10 cubes
    les uns sur les autres,
  • 4:45 - 4:48
    mais dans la nature, vous ne trouverez pas
    une pile de 10 cubes.
  • 4:48 - 4:50
    CA : C'est probablement la chose
  • 4:50 - 4:52
    qui inquiète le plus
    la majorité d'entre nous
  • 4:52 - 4:55
    et oui, la biologie synthétique
    est peut-être le chemin le plus rapide
  • 4:55 - 4:58
    qui, nous pouvons envisager,
    nous y mènera dans un avenir proche.
  • 4:58 - 5:01
    NB : Réfléchissez
    à ce que cela aurait signifié
  • 5:01 - 5:05
    si, disons, quiconque travaillant
    dans sa cuisine pendant un après-midi
  • 5:05 - 5:07
    pouvait détruire une ville.
  • 5:07 - 5:10
    Il est difficile de voir comment
    la civilisation moderne actuelle
  • 5:10 - 5:12
    aurait pu survivre à cela.
  • 5:12 - 5:14
    Car dans toute population
    d'un million de personnes,
  • 5:14 - 5:17
    il y aura toujours quelqu'un
    qui, peu importe la raison,
  • 5:17 - 5:19
    choisira d'utiliser
    ce pouvoir destructeur.
  • 5:20 - 5:23
    Si ce résidu apocalyptique
  • 5:23 - 5:25
    décidait de détruire une ville, ou pire,
  • 5:25 - 5:26
    des villes seraient détruites.
  • 5:26 - 5:29
    CA : Voici un autre type de vulnérabilité.
  • 5:29 - 5:31
    Parlez-en.
  • 5:31 - 5:35
    NB : En plus de ces types
    de balles noires évidents
  • 5:35 - 5:37
    qui rendraient possible
    de faire exploser plein de choses,
  • 5:37 - 5:42
    d'autres types agiraient en créant
    de mauvaises incitations
  • 5:42 - 5:44
    pour que les humains
    fassent des choses nuisibles.
  • 5:44 - 5:48
    Le type 2a, nous pouvons l'appeler ainsi,
  • 5:48 - 5:53
    c'est réfléchir à une technologie
    qui invite les grandes puissances
  • 5:53 - 5:57
    à utiliser leurs forces massives
    pour causer de la destruction.
  • 5:57 - 6:00
    Les armes nucléaires
    en étaient très proches.
  • 6:02 - 6:05
    Nous avons dépensé
    plus de 10 billions de dollars
  • 6:05 - 6:08
    pour fabriquer 70 000 ogives nucléaires
  • 6:08 - 6:10
    et les placer en état
    d'alerte instantanée.
  • 6:10 - 6:12
    A plusieurs reprises
    durant la Guerre froide,
  • 6:12 - 6:14
    on a failli se faire sauter.
  • 6:14 - 6:17
    Non pas que beaucoup de gens pensaient
    que ce serait une super idée
  • 6:17 - 6:20
    de dépenser 10 billions de dollars
    pour se faire sauter,
  • 6:20 - 6:23
    mais les incitations étaient telles
    que nous nous trouvions --
  • 6:23 - 6:24
    cela aurait pu être pire.
  • 6:24 - 6:26
    Imaginez s'il y a avait eu
    un premier coup assuré.
  • 6:26 - 6:29
    Cela aurait pu être très délicat,
  • 6:29 - 6:30
    dans une situation de crise,
  • 6:30 - 6:33
    de s'abstenir de lancer
    tous les missiles nucléaires.
  • 6:33 - 6:34
    A défaut d'autre chose,
  • 6:34 - 6:36
    car vous craindriez
    que l'autre camp ne le fasse.
  • 6:36 - 6:38
    CA : La destruction mutuelle assurée
  • 6:38 - 6:41
    a maintenu la Guerre froide
    relativement stable.
  • 6:41 - 6:43
    Sans cela, nous pourrions ne pas être là.
  • 6:43 - 6:45
    NB : Cela aurait pu être
    plus instable que cela.
  • 6:45 - 6:47
    Il pourrait y avoir
    d'autres propriétés technologiques.
  • 6:47 - 6:50
    Il aurait pu être plus dur
    d'avoir des traités
  • 6:50 - 6:51
    si au lieu des armes nucléaires,
  • 6:51 - 6:54
    cela avait été une chose plus petite
    ou moins distinctive.
  • 6:54 - 6:57
    CA : Avec les mauvaises incitations
    pour les acteurs puissants,
  • 6:57 - 7:00
    vous vous inquiétez de telles incitations
    pour nous tous, le type 2b.
  • 7:00 - 7:05
    NB : Nous pourrions prendre le cas
    du réchauffement climatique.
  • 7:07 - 7:09
    Il y a beaucoup de petits conforts
  • 7:09 - 7:11
    qui mènent chacun d'entre nous
    à faire des choses
  • 7:11 - 7:14
    qui, individuellement,
    n'ont pas d'effet significatif.
  • 7:14 - 7:16
    Mais si des milliards de gens le font,
  • 7:16 - 7:18
    cumulativement, cela a
    un effet préjudiciable.
  • 7:18 - 7:21
    Le réchauffement climatique
    aurait pu être pire qu'il ne l'est.
  • 7:21 - 7:24
    Nous avons le paramètre
    de sensibilité climatique.
  • 7:24 - 7:28
    C'est un paramètre
    qui indique le réchauffement
  • 7:28 - 7:30
    si on émet une certaine quantité
    de gaz à effet de serre.
  • 7:30 - 7:33
    Mais supposez que la situation
  • 7:33 - 7:35
    soit qu'avec les quantités
    de gaz à effet de serre émis,
  • 7:35 - 7:41
    au lieu d'une température augmentant
    d'entre 3 et 4,5 degrés d'ici 2100,
  • 7:41 - 7:44
    imaginez que c'eût été 15 ou 20 degrés.
  • 7:44 - 7:47
    La situation aurait alors
    été très mauvaise.
  • 7:47 - 7:50
    Imaginez que les énergies renouvelables
    aient été bien plus complexes.
  • 7:50 - 7:53
    Ou qu'il y ait eu
    plus de carburants fossiles.
  • 7:53 - 7:55
    CA : Ne pourriez-vous pas avancer
    que dans ce cas de --
  • 7:55 - 7:57
    si ce que nous faisons aujourd'hui
  • 7:57 - 8:02
    avait entraîné une différence de 10 degrés
    sur une période que nous pourrions voir,
  • 8:02 - 8:05
    l'humanité se serait bougé le cul
    et y aurait fait quelque chose.
  • 8:06 - 8:08
    Nous sommes stupides,
    mais peut-être pas autant.
  • 8:08 - 8:10
    Ou peut-être que si.
  • 8:10 - 8:11
    NB : Je ne parierais pas.
  • 8:11 - 8:13
    (Rires)
  • 8:13 - 8:15
    Vous pourriez imaginer d'autres options.
  • 8:15 - 8:20
    Actuellement, c'est un peu difficile
    de passer aux énergies renouvelables,
  • 8:20 - 8:22
    mais c'est possible.
  • 8:22 - 8:25
    Cela aurait pu être que,
    avec une physique légèrement différente,
  • 8:25 - 8:27
    il aurait été bien plus cher
    de faire ces choses-là.
  • 8:28 - 8:30
    CA : Quelle est votre opinion ?
  • 8:30 - 8:32
    Pensez-vous, en réunissant
    ces possibilités,
  • 8:32 - 8:37
    cette Terre, l'humanité que nous sommes,
  • 8:37 - 8:38
    nous sommes un monde vulnérable ?
  • 8:38 - 8:41
    Qu'il y a une boule de la mort
    dans notre futur ?
  • 8:44 - 8:45
    NB : C'est difficile à dire.
  • 8:45 - 8:50
    Je pense qu'il pourrait y avoir
    diverses boules noires dans l'urne,
  • 8:50 - 8:52
    c'est ce qu'il semble.
  • 8:52 - 8:54
    Il pourrait aussi y avoir
    des boules dorées
  • 8:54 - 8:58
    qui nous aideraient
    à nous protéger des boules noires.
  • 8:58 - 9:01
    Je ne sais pas dans quel ordre
    elles vont sortir.
  • 9:01 - 9:04
    CA : Une critique philosophique
    possible de cette idée,
  • 9:04 - 9:10
    c'est que cela implique une vision
    de l'avenir qui est globalement établie.
  • 9:10 - 9:13
    Soit cette boule est là,
    soit elle ne l'est pas.
  • 9:13 - 9:17
    D'une certaine façon,
    ce n'est pas une vision de l'avenir
  • 9:17 - 9:18
    en laquelle je veux croire.
  • 9:18 - 9:21
    Je veux croire que l'avenir
    est indéterminé,
  • 9:21 - 9:23
    que nos décisions
    aujourd'hui détermineront
  • 9:23 - 9:25
    quel genre de boules
    nous sortons de l'urne.
  • 9:26 - 9:30
    NB : Si nous continuons à inventer,
  • 9:30 - 9:32
    nous finirons par sortir
    toutes les boules.
  • 9:33 - 9:36
    Je pense qu'il y a une forme
    de déterminisme technologique
  • 9:36 - 9:38
    qui est assez plausible.
  • 9:38 - 9:40
    Vous avez peu de probabilités
    de rencontrer une société
  • 9:40 - 9:43
    qui utilise des haches en silex
    et des avions à réaction.
  • 9:44 - 9:48
    Vous pouvez presque voir la technologie
    comme un ensemble de potentialités.
  • 9:48 - 9:51
    La technologie est la chose
    nous permettant de faire diverses choses
  • 9:51 - 9:53
    et d'obtenir divers effets sur le monde.
  • 9:53 - 9:56
    Comment nous allons l'utiliser
    dépend des choix humains.
  • 9:56 - 9:59
    Mais si vous pensez
    à ces trois types de vulnérabilités,
  • 9:59 - 10:02
    elles ne supposent pas tant
    de comment nous choisirions de l'utiliser.
  • 10:02 - 10:06
    Une vulnérabilité de type 1,
    cet énorme pouvoir destructeur,
  • 10:06 - 10:07
    ce n'est pas une hypothèse forte
  • 10:07 - 10:10
    de penser que dans une population
    de millions de gens
  • 10:10 - 10:13
    il y en aurait qui choisiraient
    de l'utiliser pour détruire.
  • 10:13 - 10:15
    CA : Pour moi, l'argument
    qui me perturbe le plus,
  • 10:15 - 10:20
    c'est que nous pourrions
    avoir un aperçu de l'urne
  • 10:20 - 10:23
    qui rendrait très probable
    que nous soyons condamnés.
  • 10:23 - 10:28
    Si vous croyez au pouvoir accélérateur,
  • 10:28 - 10:30
    qu'intrinsèquement,
    la technologie accélère,
  • 10:30 - 10:33
    que nous créons les outils
    nous rendant plus puissants,
  • 10:33 - 10:35
    vous finissez par en arriver à un point
  • 10:35 - 10:38
    où chaque individu peut tous nous éliminer
  • 10:38 - 10:41
    et il semble alors que nous soyons foutus.
  • 10:41 - 10:44
    Cet argument n'est-il pas alarmant ?
  • 10:44 - 10:46
    NB : Oui.
  • 10:47 - 10:48
    (Rires)
  • 10:48 - 10:49
    Je pense --
  • 10:51 - 10:53
    Nous avons de plus en plus de pouvoir
  • 10:53 - 10:56
    et il est de plus en plus simple
    d'utiliser ce pouvoir,
  • 10:56 - 10:59
    mais nous pouvons aussi
    inventer des technologies
  • 10:59 - 11:02
    qui nous aident à contrôler l'utilisation
    que les gens font de ce pouvoir.
  • 11:02 - 11:05
    CA : Parlons de cela,
    parlons de la réponse.
  • 11:05 - 11:07
    Supposons que réfléchir
    à toutes les possibilités
  • 11:07 - 11:09
    qu'il y a actuellement --
  • 11:09 - 11:13
    ce n'est pas que la biologie synthétique,
    ce sont les cyberguerres,
  • 11:13 - 11:17
    l'intelligence artificielle
    et ainsi de suite --
  • 11:17 - 11:21
    qu'il y a une condamnation
    sérieuse dans notre avenir.
  • 11:21 - 11:23
    Quelles sont les réponses possibles ?
  • 11:23 - 11:28
    Vous avez parlé
    de quatre réponses possibles.
  • 11:28 - 11:30
    NB : Restreindre
    le développement technologique
  • 11:30 - 11:31
    ne semble pas prometteur
  • 11:31 - 11:33
    si nous parlons
    d'une interruption générale
  • 11:33 - 11:35
    des progrès technologiques.
  • 11:35 - 11:36
    Ce n'est ni faisable ni désirable,
  • 11:36 - 11:38
    même si nous le pouvions.
  • 11:38 - 11:41
    Je pense qu'il y a
    des domaines très limités
  • 11:41 - 11:44
    où vous pourriez vouloir
    ralentir les progrès technologiques.
  • 11:44 - 11:47
    Vous ne voulez pas de progrès
    plus rapides pour les armes biologiques
  • 11:47 - 11:49
    ou la séparation d'isotope,
  • 11:49 - 11:52
    ce qui faciliterait la création
    de bombes nucléaires.
  • 11:53 - 11:56
    CA : Avant, j'étais
    complètement d'accord avec cela.
  • 11:56 - 11:59
    Mais j'aimerais prendre un instant
    pour contre-argumenter.
  • 11:59 - 12:01
    Tout d'abord,
  • 12:01 - 12:03
    si vous considérez l'histoire
    des dernières décennies,
  • 12:03 - 12:07
    il y a toujours eu une évolution
    vers l'avant à pleine vitesse,
  • 12:07 - 12:09
    ça va, c'est notre seul choix.
  • 12:09 - 12:13
    Mais si vous considérez la mondialisation
    et son accélération rapide,
  • 12:13 - 12:16
    si vous considérez la stratégie
    d' « avancer vite et casser des trucs »
  • 12:16 - 12:19
    et ce qui est arrivé,
  • 12:19 - 12:22
    puis que vous considérez le potentiel
    de la biologie synthétique,
  • 12:22 - 12:26
    je ne sais pas si nous devrions
    avancer rapidement
  • 12:26 - 12:27
    ou sans aucune restriction
  • 12:27 - 12:31
    vers un monde où vous pourriez avoir
    une imprimante d'ADN à la maison
  • 12:31 - 12:32
    et dans les lycées.
  • 12:33 - 12:35
    Il y a des restrictions, non ?
  • 12:35 - 12:38
    NB : Il y a la première partie :
    l'infaisabilité.
  • 12:38 - 12:40
    Si vous pensez qu'il serait
    désirable d'arrêter,
  • 12:40 - 12:41
    il y a le problème de faisabilité.
  • 12:42 - 12:44
    Cela n'aide pas vraiment si une nation --
  • 12:44 - 12:46
    CA : Cela n'aide pas si une nation arrête,
  • 12:46 - 12:49
    mais nous avons eu des traités auparavant.
  • 12:49 - 12:53
    C'est ainsi que nous avons survécu
    à la menace nucléaire,
  • 12:53 - 12:57
    c'est en en passant par le processus
    douloureux des négociations.
  • 12:57 - 13:02
    Je me demande si la logique n'est pas
    que nous, en termes de priorité mondiale,
  • 13:02 - 13:04
    nous ne devrions pas essayer,
  • 13:04 - 13:06
    commencer à négocier maintenant
    des règles très strictes
  • 13:06 - 13:09
    sur les lieux de conduite
    de recherches biologiques.
  • 13:09 - 13:12
    Ce n'est pas une chose
    que vous voulez démocratiser, si ?
  • 13:12 - 13:14
    NB : Je suis complètement d'accord --
  • 13:14 - 13:18
    il serait désirable, par exemple,
  • 13:18 - 13:22
    d'avoir des machines de synthèse d'ADN,
  • 13:22 - 13:25
    pas en tant que produit pour lequel
    chaque labo a son appareil,
  • 13:25 - 13:27
    mais en tant que service.
  • 13:27 - 13:29
    Il pourrait y avoir
    quatre ou cinq endroits au monde
  • 13:29 - 13:31
    où vous pourriez envoyer
    un modèle numérique
  • 13:31 - 13:33
    et l'ADN arriverait à vous.
  • 13:33 - 13:35
    Vous auriez la capacité,
  • 13:35 - 13:37
    si un jour cela semblait
    vraiment nécessaire,
  • 13:37 - 13:40
    il y aurait un ensemble fini
    de goulots d'étranglement.
  • 13:40 - 13:43
    Je pense que vous voulez considérer
    des opportunités particulières
  • 13:43 - 13:45
    où vous pourriez avoir
    un contrôle plus strict.
  • 13:45 - 13:47
    CA : Vous croyez, au fond,
  • 13:47 - 13:50
    que nous ne réussirons pas
    à contenir les choses.
  • 13:50 - 13:52
    Quelqu'un, quelque part --
    en Corée du Nord --
  • 13:52 - 13:56
    quelqu'un va y arriver
    et découvrir ce savoir,
  • 13:56 - 13:57
    s'il est à découvrir.
  • 13:57 - 14:00
    NB : C'est plausible
    dans les conditions actuelles.
  • 14:00 - 14:02
    Ce n'est pas que la biologie synthétique.
  • 14:02 - 14:04
    N'importe quel genre
    de changement profond et nouveau
  • 14:04 - 14:06
    pourrait être une boule noire.
  • 14:06 - 14:08
    CA : Considérons
    une autre réponse possible.
  • 14:08 - 14:10
    NB : Ceci, à mon avis,
    a un potentiel limité.
  • 14:10 - 14:14
    Avec la vulnérabilité de type 1,
  • 14:14 - 14:18
    si vous pouvez réduire le nombre
    de personnes qui sont motivées
  • 14:18 - 14:19
    à détruire le monde,
  • 14:19 - 14:22
    si elles seules avaient
    l'accès et les moyens,
  • 14:22 - 14:23
    ce serait bien.
  • 14:23 - 14:25
    CA : Dans cette image,
  • 14:25 - 14:27
    vous imaginez ces drones
    volant à travers le monde
  • 14:27 - 14:29
    avec une reconnaissance faciale.
  • 14:29 - 14:32
    Quand ils repèrent quelqu'un
    présentant un comportement sociopathe,
  • 14:32 - 14:34
    ils le couvrent d'amour, le rétablissent.
  • 14:34 - 14:36
    NB : C'est une image hybride.
  • 14:36 - 14:40
    Éliminer peut signifier
    soit incarcérer ou tuer,
  • 14:40 - 14:43
    soit les persuader d'avoir
    une meilleure vision du monde.
  • 14:43 - 14:45
    Le principe, c'est :
  • 14:45 - 14:47
    imaginez être extrêmement performant
  • 14:47 - 14:50
    et réduire le nombre
    de tels individus de moitié.
  • 14:50 - 14:52
    Si vous voulez le faire via la persuasion,
  • 14:52 - 14:54
    vous rivalisez contre
    toutes les grandes forces
  • 14:54 - 14:56
    qui essayent de persuader les gens,
  • 14:56 - 14:58
    les partis, la religion,
    le système éducatif.
  • 14:58 - 15:00
    Supposez pouvoir le réduire de moitié,
  • 15:00 - 15:02
    le risque ne serait pas réduit de moitié.
  • 15:02 - 15:04
    Peut-être de 5% ou 10%.
  • 15:04 - 15:07
    CA : Vous ne recommandez pas
    que l'on parie l'avenir de l'humanité
  • 15:07 - 15:08
    sur la seconde réponse.
  • 15:08 - 15:11
    NB : C'est bien d'essayer
    de dissuader et persuader les gens,
  • 15:11 - 15:14
    mais pas miser dessus
    comme seul dispositif de sécurité.
  • 15:14 - 15:16
    CA : Et la troisième réponse ?
  • 15:16 - 15:18
    NB : Il y a deux méthodes générales
  • 15:18 - 15:22
    que nous pourrions utiliser pour parvenir
    à la capacité de stabiliser le monde
  • 15:22 - 15:25
    face à l'éventail complet
    des vulnérabilités possibles.
  • 15:25 - 15:27
    Nous aurions besoin des deux.
  • 15:27 - 15:31
    Une est une capacité optimale
  • 15:32 - 15:33
    de prévention policière.
  • 15:33 - 15:35
    Afin de pouvoir intercepter.
  • 15:35 - 15:38
    Si quiconque entamait
    cette chose dangereuse,
  • 15:38 - 15:40
    vous pourriez l'intercepter
    en temps réel et l'arrêter.
  • 15:40 - 15:43
    Cela nécessiterait
    une surveillance omniprésente,
  • 15:43 - 15:45
    tout le monde serait
    constamment surveillé.
  • 15:46 - 15:49
    CA : C'est en gros
    une forme de « Minority Report ».
  • 15:49 - 15:51
    NB : Vous auriez des algorithmes d'IA,
  • 15:51 - 15:55
    de gros centres de liberté
    qui examineraient cela, et ainsi de suite.
  • 15:57 - 16:01
    CA : La surveillance de masse
    n'est pas très populaire en ce moment.
  • 16:01 - 16:02
    (Rires)
  • 16:03 - 16:05
    NB : Ce petit dispositif,
  • 16:05 - 16:09
    imaginez ce genre de collier
    que vous devriez porter tout le temps,
  • 16:09 - 16:11
    avec des caméras multidirectionnelles.
  • 16:12 - 16:14
    Mais pour que cela passe mieux,
  • 16:14 - 16:16
    appelez-le la « balise
    de la liberté » ou autre.
  • 16:16 - 16:18
    (Rires)
  • 16:18 - 16:19
    CA : D'accord.
  • 16:20 - 16:22
    C'est la conversation --
  • 16:22 - 16:25
    c'est pour cela que c'est
    une conversation si époustouflante.
  • 16:25 - 16:29
    NB : Il y a toute une conversation
    à ce sujet-là en particulier.
  • 16:29 - 16:32
    Il y a de gros problèmes
    et risques avec cela.
  • 16:32 - 16:33
    Nous y reviendrons peut-être.
  • 16:33 - 16:34
    L'autre, la dernière,
  • 16:34 - 16:39
    l'autre capacité de stabilisation générale
    comble un autre vide dans la gouvernance.
  • 16:39 - 16:43
    La surveillance comblerait pour un vide
    dans la gouvernance à un niveau micro :
  • 16:43 - 16:46
    empêcher quiconque de faire
    quoi que ce soit de hautement illégal.
  • 16:46 - 16:49
    Il y un vide équivalent
    dans la gouvernance
  • 16:49 - 16:51
    au niveau macro, au niveau mondial.
  • 16:51 - 16:54
    Il vous faudrait la capacité fiable
  • 16:54 - 16:57
    d'empêcher les pires types
    d'échecs de coordination mondiale,
  • 16:57 - 17:01
    d'éviter les guerres
    entre les grandes puissances,
  • 17:01 - 17:02
    les courses à l'armement,
  • 17:04 - 17:06
    les problèmes communs cataclysmiques,
  • 17:08 - 17:12
    afin de faire face
    aux vulnérabilités de type 2a.
  • 17:12 - 17:14
    CA : La gouvernance mondiale est un terme
  • 17:14 - 17:16
    qui n'est plus du tout
    à la mode actuellement,
  • 17:16 - 17:19
    mais vous pourriez avancer
    qu'au cours de l'histoire,
  • 17:19 - 17:20
    de l'histoire de l'humanité,
  • 17:20 - 17:25
    à chaque moment de montée
    du pouvoir technologique,
  • 17:25 - 17:29
    les gens se sont réorganisés
    et ont centralisé le pouvoir.
  • 17:29 - 17:32
    Par exemple, quand un groupe
    de criminels itinérants
  • 17:32 - 17:34
    pouvait prendre le contrôle d'une société,
  • 17:34 - 17:36
    la réponse a été d'avoir un État-nation
  • 17:36 - 17:38
    et une force centralisée,
    policière ou militaire,
  • 17:39 - 17:40
    pour que ce ne soit pas possible.
  • 17:40 - 17:45
    La logique d'avoir une seule personne
    ou un seul groupe
  • 17:45 - 17:46
    capable d'éradiquer l'humanité
  • 17:46 - 17:49
    signifie qu'à un moment,
    nous devrons emprunter ce chemin,
  • 17:49 - 17:51
    sous une certaine forme, non ?
  • 17:51 - 17:54
    NB : Il est vrai que l'échelle
    de l'organisation politique a augmenté
  • 17:54 - 17:56
    au cours de l'histoire humaine.
  • 17:56 - 17:59
    C'était un groupe de chasseurs-cueilleurs,
  • 17:59 - 18:01
    puis des chefferies,
    des cité-États, des nations,
  • 18:02 - 18:05
    maintenant il y a des organisations
    internationales et ainsi de suite.
  • 18:06 - 18:07
    Je veux juste m'assurer
  • 18:07 - 18:09
    d'avoir l'opportunité d'insister
  • 18:09 - 18:11
    qu'il y a évidemment
    d'énormes inconvénients
  • 18:11 - 18:12
    et d'énormes risques
  • 18:12 - 18:16
    dans la surveillance de masse
    et la gouvernance mondiale.
  • 18:16 - 18:18
    Je vais faire remarquer
    que si nous sommes chanceux,
  • 18:18 - 18:21
    le monde pourrait être tel
    que ce seraient les seules façons
  • 18:21 - 18:22
    de survivre à une boule noire.
  • 18:22 - 18:25
    CA : La logique de cette théorie,
  • 18:25 - 18:26
    me semble-t-il,
  • 18:26 - 18:30
    c'est que nous devons reconnaître
    que nous ne pouvons pas tout avoir.
  • 18:30 - 18:32
    C'est le genre
  • 18:34 - 18:36
    de rêve naïf, si je puis dire,
    que nombre d'entre nous avaient
  • 18:36 - 18:40
    que la technologie sera toujours
    une force du bien,
  • 18:40 - 18:43
    qu'il ne faut ne pas s'arrêter,
    aller aussi vite que possible
  • 18:43 - 18:45
    et ne pas prêter attention
    à certaines conséquences,
  • 18:45 - 18:47
    ce n'est même pas une option.
  • 18:47 - 18:49
    Nous pouvons le faire.
  • 18:49 - 18:50
    Si nous le faisons,
  • 18:50 - 18:52
    il faudra accepter
  • 18:52 - 18:54
    certaines choses très désagréables
  • 18:54 - 18:56
    et faire la course à l'armement
    avec nous-mêmes :
  • 18:56 - 18:59
    si vous voulez le pouvoir,
    vous devriez le confiner,
  • 18:59 - 19:01
    vous devriez trouver comment le confiner.
  • 19:01 - 19:04
    NB : Je pense que c'est une option,
  • 19:04 - 19:07
    une option très tentante,
    dans un sens la plus simple
  • 19:07 - 19:09
    et cela pourrait fonctionner,
  • 19:09 - 19:13
    mais nous sommes alors vulnérables
    à l'extraction d'une boule noire.
  • 19:13 - 19:16
    Avec un peu de coordination --
  • 19:16 - 19:18
    en résolvant ce problème
    de macro gouvernance
  • 19:18 - 19:20
    et celui de micro gouvernance --
  • 19:20 - 19:22
    nous pourrions extraire
    toutes les boules de l'urne
  • 19:22 - 19:25
    et nous en bénéficierons grandement.
  • 19:25 - 19:28
    CA : Si nous vivons dans une simulation,
    cela importe-t-il ?
  • 19:28 - 19:29
    Nous recommençons.
  • 19:29 - 19:31
    (Rires)
  • 19:31 - 19:32
    NB : Alors... je...
  • 19:32 - 19:35
    (Rires)
  • 19:35 - 19:36
    Je ne l'ai pas vu arriver.
  • 19:38 - 19:40
    CA : Quelle est votre opinion ?
  • 19:40 - 19:42
    En rassemblant toutes les pièces,
  • 19:42 - 19:44
    quelle est notre probabilité
    d'être condamnés ?
  • 19:44 - 19:46
    (Rires)
  • 19:47 - 19:49
    J'adore comment les gens rient
    à cette question.
  • 19:49 - 19:51
    NB : A un niveau individuel,
  • 19:51 - 19:55
    nous semblons condamnés,
    juste d'un point de vue de l'échéance,
  • 19:55 - 19:57
    nous nous décomposons et vieillissons.
  • 19:57 - 19:59
    (Rires)
  • 19:59 - 20:01
    C'est délicat.
  • 20:01 - 20:03
    Si vous voulez y attacher une probabilité,
  • 20:03 - 20:05
    tout d'abord, qui sommes-nous ?
  • 20:05 - 20:07
    Si vous êtes vieux,
    vous mourrez de causes naturelles.
  • 20:08 - 20:10
    Si vous êtes jeune,
    vous avez 100 ans peut-être,
  • 20:10 - 20:12
    selon à qui vous demandez.
  • 20:12 - 20:16
    Le seuil : qu'est-ce qui compte
    comme un dévaste civilisationnel ?
  • 20:16 - 20:22
    Dans l'article, je n'ai pas besoin
    d'une catastrophe civilisationnelle
  • 20:22 - 20:23
    pour que cela compte.
  • 20:23 - 20:25
    C'est une question de définition.
  • 20:25 - 20:26
    Je dis un milliard de morts
  • 20:26 - 20:29
    ou une diminution du PIB mondial de 50%,
  • 20:29 - 20:31
    mais selon le seuil que vous donnez,
  • 20:31 - 20:33
    vous aurez une probabilité différente.
  • 20:33 - 20:37
    Vous pourriez dire que je suis
    un optimiste effrayé.
  • 20:37 - 20:38
    (Rires)
  • 20:38 - 20:40
    CA : Vous êtes un optimiste effrayé
  • 20:40 - 20:46
    et vous venez de créer un grand nombre
    d'autres personnes effrayées.
  • 20:46 - 20:47
    (Rires)
  • 20:47 - 20:48
    NB : Dans la simulation.
  • 20:48 - 20:49
    CA : Dans une simulation.
  • 20:49 - 20:51
    Nick Bostrom, votre esprit m'épate.
  • 20:51 - 20:54
    Merci beaucoup de nous avoir effrayés.
  • 20:54 - 20:56
    (Applaudissements)
Title:
Comment la civilisation pourrait s'autodétruire et quatre façons de l'éviter
Speaker:
Nick Bostrom
Description:

L'humanité est en route pour créer une « boule noire » : une technologie révolutionnaire qui pourrait tous nous détruire, dit le philosophe Nick Bostrom. Dans cette conversation incisive et surprenamment légère avec le dirigeant de TED, Chris Anderson, il décrit les vulnérabilités auxquelles nous pourrions faire face si nos inventions échappaient à notre contrôle. Il explore également comment nous pouvons éviter notre future disparition.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

French subtitles

Revisions