Return to Video

What happens when our computers get smarter than we are?

  • 0:01 - 0:05
    Je travaille avec des mathématiciens,
    philosophes et informaticiens,
  • 0:05 - 0:10
    et nous nous réunissons pour imaginer
    le futur de l'intelligence artificielle,
  • 0:10 - 0:12
    entre autres choses.
  • 0:12 - 0:17
    Certains pensent que
    c'est un peu de la science-fiction,
  • 0:17 - 0:20
    complètement éloigné du réel.
  • 0:20 - 0:21
    Mais j'aime dire,
  • 0:21 - 0:25
    d'accord, jetons un coup d'oeil
    à la condition humaine moderne.
  • 0:25 - 0:27
    (Rires)
  • 0:27 - 0:29
    C'est la façon normale d'être des choses.
  • 0:29 - 0:31
    Mais si on y pense,
  • 0:31 - 0:35
    nous ne sommes en fait que des invités
    récemment arrivés sur cette planète,
  • 0:35 - 0:37
    l'espèce humaine.
  • 0:37 - 0:41
    Imaginez si la Terre
    avait été créée il y a un an,
  • 0:41 - 0:45
    l'espèce humaine existerait alors
    depuis dix minutes.
  • 0:45 - 0:48
    L'ère industrielle a débuté
    il y a deux secondes.
  • 0:49 - 0:52
    Une autre façon de voir est de calculer
  • 0:52 - 0:55
    le PIB mondial
    des 10 000 dernières années.
  • 0:55 - 0:58
    J'ai vraiment pris le temps
    de faire un graphe pour vous.
  • 0:58 - 0:59
    Il ressemble à ça.
  • 0:59 - 1:01
    (Rires)
  • 1:01 - 1:03
    Drôle de courbe
    pour une condition normale.
  • 1:03 - 1:05
    Je ne voudrais pas lui tourner le dos.
  • 1:05 - 1:07
    (Rires)
  • 1:07 - 1:12
    Demandons-nous, quelle est la cause
    de cette anomalie ?
  • 1:12 - 1:14
    Certains diront que c'est la technologie.
  • 1:14 - 1:19
    C'est vrai, la technologie s'est accumulée
    au cours de l'histoire humaine,
  • 1:19 - 1:24
    et aujourd'hui, la technologie
    progresse très rapidement --
  • 1:24 - 1:25
    c'est la cause la plus proche,
  • 1:25 - 1:28
    c'est pourquoi nous sommes
    si productifs de nos jours.
  • 1:28 - 1:32
    Mais je préfère réfléchir en remontant
    à la cause fondamentale.
  • 1:33 - 1:37
    Regardez ces deux messieurs
    très distingués :
  • 1:37 - 1:38
    Nous avons Kanzi --
  • 1:38 - 1:43
    il maîtrise 200 symboles lexicaux,
    un exploit incroyable.
  • 1:43 - 1:47
    Et Ed Witten a déclenché
    la seconde révolution des supercordes.
  • 1:47 - 1:49
    Si nous regardons sous la capuche,
    voici ce que l'on trouve :
  • 1:49 - 1:51
    en gros, la même chose.
  • 1:51 - 1:53
    L'un est un peu plus grand,
  • 1:53 - 1:55
    il y a peut-être aussi quelques
    subtilités de câblage.
  • 1:55 - 1:59
    Ces différences invisibles ne peuvent
    être trop compliquées quoi qu'il en soit,
  • 1:59 - 2:03
    car il n'y a eu que
    250 000 générations
  • 2:03 - 2:05
    depuis notre dernier ancêtre commun.
  • 2:05 - 2:09
    Nous savons que les mécanismes compliqués
    demandent beaucoup de temps pour évoluer.
  • 2:10 - 2:12
    Donc des changements relativement mineurs
  • 2:12 - 2:16
    nous emmènent de Kanzi à Witten,
  • 2:16 - 2:20
    de branches arrachées aux arbres aux
    missiles balistiques intercontinentaux.
  • 2:21 - 2:25
    Il semble alors assez évident
    que tout ce que nous avons réalisé,
  • 2:25 - 2:26
    et ce que nous chérissons,
  • 2:26 - 2:30
    dépend principalement de quelques
    changements mineurs
  • 2:30 - 2:33
    qui ont aboutit à l'esprit humain.
  • 2:33 - 2:36
    Le corollaire, bien sûr,
    est que tout changement à venir
  • 2:36 - 2:40
    qui pourrait changer significativement
    le substrat de la pensée
  • 2:40 - 2:43
    pourrait avoir potentiellement
    d'énormes conséquences.
  • 2:44 - 2:47
    Certains de mes collègues
    pensent que nous sommes sur le point
  • 2:47 - 2:51
    de développer quelque chose qui pourrait
    causer un tel changement dans ce substrat,
  • 2:51 - 2:54
    et c'est la super
    intelligence artificielle.
  • 2:54 - 2:59
    Avant, l'intelligence artificielle consistait
    à mettre des commandes dans une boîte.
  • 2:59 - 3:01
    Il y avait des programmeurs humains
  • 3:01 - 3:04
    qui fabriquaient minutieusement
    des objets savants.
  • 3:04 - 3:06
    On construisait ces systèmes experts,
  • 3:06 - 3:08
    et ils étaient utiles
    pour certains buts,
  • 3:08 - 3:11
    mais ils étaient très fragiles,
    on ne pouvait pas les agrandir.
  • 3:11 - 3:14
    En gros, vous n'aviez que
    ce que vous aviez mis dedans.
  • 3:14 - 3:15
    Mais depuis,
  • 3:15 - 3:19
    une révolution conceptuelle s'est opérée
    dans le domaine de l'I.A..
  • 3:19 - 3:22
    Aujourd'hui, l'action est centré sur
    l'apprentissage machine.
  • 3:22 - 3:28
    Plutôt que de coder à la main des
    programmes et leurs caractéristiques,
  • 3:29 - 3:31
    on crée des algorithmes qui apprennent,
  • 3:31 - 3:34
    souvent à partir
    des données brutes perçues.
  • 3:34 - 3:39
    En gros, la même chose que fait un enfant.
  • 3:39 - 3:43
    Le résultat est une I.A.
    qui n'est pas limitée à un domaine --
  • 3:43 - 3:48
    le même système peut apprendre à traduire
    n'importe quel couple de langues,
  • 3:48 - 3:53
    ou apprendre à jouer n'importe quel jeu
    sur la console Atari.
  • 3:53 - 3:55
    Bien sûr,
  • 3:55 - 3:59
    l'I.A. est toujours loin d'avoir
    la capacité puissante et transversale
  • 3:59 - 4:02
    à apprendre et planifier
    d'un être humain.
  • 4:02 - 4:04
    Le cortex a encore des
    secrets algorithmiques
  • 4:04 - 4:07
    que nous ne savons pas
    intégrer dans les machines.
  • 4:08 - 4:10
    Donc la question est,
  • 4:10 - 4:13
    combien de temps nous faudra-t-il
    pour réussir à les intégrer ?
  • 4:14 - 4:15
    Il y a quelques années,
  • 4:15 - 4:18
    nous avons fait un sondage
    auprès des experts mondiaux des I.A.,
  • 4:18 - 4:21
    pour voir ce qu'ils pensaient,
    et une des questions posées était,
  • 4:21 - 4:25
    « En quelle année pensez-vous
    qu'il y aura 50% de chance
  • 4:25 - 4:28
    qu'une I.A. atteigne le niveau
    d'une intelligence humaine ? »
  • 4:29 - 4:33
    Nous définissons ici le seuil à atteindre
    par la capacité de l'I.A. à réaliser
  • 4:33 - 4:36
    presque toutes les tâches
    au moins aussi bien qu'un adulte,
  • 4:36 - 4:40
    donc réellement comme un humain,
    pas seulement dans un domaine limité.
  • 4:40 - 4:43
    La réponse médiane était 2040 ou 2050,
  • 4:43 - 4:46
    en fonction du groupe d'experts
    que nous interrogions.
  • 4:46 - 4:50
    Ça pourrait se produire
    bien plus tard ou bien plus tôt,
  • 4:50 - 4:52
    la vérité est que personne ne le sait.
  • 4:53 - 4:58
    Ce que nous savons est que la limite
    de traitement de l'information
  • 4:58 - 5:03
    dans une machine est bien supérieure
    à celle d'un tissu biologique.
  • 5:03 - 5:06
    Ça s'explique par la physique.
  • 5:06 - 5:10
    Un neurone biologique "décharge"
    environ à 200 hertz, 200 fois par seconde.
  • 5:10 - 5:14
    Mais, même un transistor actuel
    fonctionne au gigahertz.
  • 5:14 - 5:19
    L'information se propage dans les neurones
    le long d'axones à 100 m/s maximum.
  • 5:19 - 5:23
    Mais dans les ordinateurs, le signal
    peut voyager à la vitesse de la lumière.
  • 5:23 - 5:25
    Il y a aussi des limitations de taille,
  • 5:25 - 5:28
    car le cerveau humain
    doit rentrer dans la boîte crânienne,
  • 5:28 - 5:33
    mais un ordinateur peut être
    de la taille d'un entrepôt ou plus grand.
  • 5:33 - 5:38
    Donc le potentiel de super intelligence
    est en sommeil dans la matière,
  • 5:38 - 5:44
    tout comme la puissance de l'atome
    est restée en sommeil
  • 5:44 - 5:48
    tout au long de l'histoire humaine,
    attendant patiemment jusqu'en 1945.
  • 5:48 - 5:52
    Au cours de ce siècle, il se peut
    que les scientifiques apprennent
  • 5:52 - 5:54
    à réveiller la puissance de l'I.A..
  • 5:54 - 5:58
    Je pense que nous pourrions alors
    assister à une explosion d'intelligence.
  • 5:58 - 6:02
    La plupart des gens, quand ils pensent
    à ce qui est bête ou intelligent
  • 6:02 - 6:05
    ont une image de ce genre en tête.
  • 6:05 - 6:08
    À une extrémité on a l'idiot du village,
  • 6:08 - 6:10
    et à l'autre bout
  • 6:10 - 6:15
    on a Ed Witten, ou Albert Einstein,
    ou votre gourou, qui qu'il soit.
  • 6:15 - 6:19
    Mais je pense que du point de vue
    de l'intelligence artificielle,
  • 6:19 - 6:23
    la véritable image est plus probablement
    comme ceci, en réalité :
  • 6:23 - 6:27
    l'I.A. commence à cet endroit,
    à zéro intelligence,
  • 6:27 - 6:30
    et ensuite, après de nombreuses
    années de dur labeur,
  • 6:30 - 6:33
    peut-être, arrivons-nous au niveau
    de l'intelligence d'une souris,
  • 6:33 - 6:36
    quelque chose qui peut naviguer
    dans des environnements encombrés
  • 6:36 - 6:38
    aussi bien qu'une souris.
  • 6:38 - 6:42
    Ensuite, après encore plus d'années de
    dur labeur et beaucoup d'investissements,
  • 6:42 - 6:47
    peut-être, finalement, arrivons-nous
    au niveau d'intelligence d'un chimpanzé.
  • 6:47 - 6:50
    Ensuite, après toujours plus d'années
    de vraiment très dur labeur,
  • 6:50 - 6:53
    nous arrivons au niveau d'intelligence
    de l'idiot du village.
  • 6:53 - 6:56
    Et quelques mois plus tard,
    nous sommes après Ed Witten.
  • 6:56 - 6:59
    Le train ne s'arrête pas
    à la station Humainville.
  • 6:59 - 7:02
    Il va plutôt passer à fond devant.
  • 7:02 - 7:04
    Il y a là de profondes implications,
  • 7:04 - 7:08
    en particulier quand il est question
    de pouvoir.
  • 7:08 - 7:10
    Par exemple, les chimpanzés sont forts --
  • 7:10 - 7:15
    à poids équivalent, un chimpanzé est
    deux fois plus fort qu'un homme adulte.
  • 7:15 - 7:20
    Pourtant, le destin de Kanzi
    et de ses congénères dépend beaucoup plus
  • 7:20 - 7:24
    de ce que font les humains que de ce que
    les chimpanzés font eux-mêmes.
  • 7:25 - 7:28
    Une fois que la super intelligence
    sera là,
  • 7:28 - 7:31
    le destin de l'humanité pourrait dépendre
    des actions de cette super intelligence.
  • 7:32 - 7:34
    Pensez-y :
  • 7:34 - 7:38
    l'I.A. est la dernière invention que
    l'homme aura jamais besoin de faire.
  • 7:38 - 7:42
    Les machines seront alors de meilleurs
    inventeurs que nous le sommes,
  • 7:42 - 7:44
    et elles inventeront sur des échelles
    de temps numériques.
  • 7:44 - 7:49
    Ça veut dire un télescopage avec le futur.
  • 7:49 - 7:52
    Pensez à toutes les technologies
    incroyables que vous avez imaginées,
  • 7:52 - 7:55
    que les hommes pourraient
    avoir développées avec le temps :
  • 7:55 - 7:59
    plus de vieillissement,
    colonisation de l'espace,
  • 7:59 - 8:00
    nano-robots auto-répliquants,
  • 8:00 - 8:02
    téléchargement d'esprits humains
    dans des ordinateurs,
  • 8:02 - 8:04
    plein de technologies de science-fiction
  • 8:04 - 8:07
    qui sont néanmoins cohérentes
    avec les lois de la physique.
  • 8:07 - 8:11
    Toute cette super intelligence pourrait
    se développer assez rapidement.
  • 8:12 - 8:16
    Bon, une super intelligence avec
    une telle maturité technologique
  • 8:16 - 8:18
    serait extrêmement puissante,
  • 8:18 - 8:23
    et au moins dans certains scénarios,
    serait capable d'obtenir ce qu'elle veut.
  • 8:23 - 8:28
    Nous aurions alors un futur modelé
    par les préférences de cette I.A.
  • 8:30 - 8:34
    Une bonne question est,
    quelles sont ces préférences ?
  • 8:34 - 8:36
    C'est là que ça devient délicat.
  • 8:36 - 8:37
    Pour progresser là-dessus,
  • 8:37 - 8:41
    nous devons tout d'abord
    éviter tout anthropomorphisme.
  • 8:42 - 8:45
    C'est ironique car dans tous
    les articles de journaux
  • 8:45 - 8:49
    qui parle de l'avenir de l'I.A.
    comportent une image de ceci.
  • 8:50 - 8:54
    Je pense que nous devons concevoir
    ce problème de manière plus abstraite,
  • 8:54 - 8:57
    et non en scénario hollywoodien fertile.
  • 8:57 - 9:01
    Nous devons penser à l'intelligence
    comme un processus d'optimisation,
  • 9:01 - 9:06
    un processus qui guide le futur
    dans un certain jeu de configurations.
  • 9:06 - 9:10
    Une super intelligence est un
    processus d'optimisation très fort.
  • 9:10 - 9:14
    Elle est très douée pour utiliser les
    moyens disponibles pour atteindre un état
  • 9:14 - 9:16
    dans lequel son but est réalisé.
  • 9:16 - 9:19
    Ça signifie qu'il n'y a pas
    de nécessaire connexion entre
  • 9:19 - 9:22
    le fait d'être très intelligent
    dans ce sens,
  • 9:22 - 9:27
    et avoir un objectif que nous, humains,
    trouverions utile ou significatif.
  • 9:27 - 9:31
    Supposons qu'on donne comme but
    à une I.A. de faire sourire les humains.
  • 9:31 - 9:34
    Quand l'I.A. est faible, elle réalise
    des actions utiles ou amusantes
  • 9:34 - 9:37
    qui provoque le sourire de l'utilisateur.
  • 9:37 - 9:39
    Quand l'I.A. devient super intelligente,
  • 9:39 - 9:43
    elle réalise qu'il y a un moyen
    plus efficace d'atteindre son objectif :
  • 9:43 - 9:44
    prendre le contrôle du monde
  • 9:44 - 9:48
    et implanter des électrodes
    dans les muscles faciaux des humains
  • 9:48 - 9:51
    pour provoquer des sourires
    rayonnants et constants.
  • 9:51 - 9:51
    Un autre exemple,
  • 9:51 - 9:55
    supposons qu'on demande à une I.A.
    de résoudre un problème de math très dur.
  • 9:55 - 9:57
    Quand l'I.A. devient super intelligente,
  • 9:57 - 10:01
    elle réalise que le moyen le plus efficace
    pour résoudre ce problème
  • 10:01 - 10:04
    est de transformer la planète
    en un ordinateur géant,
  • 10:04 - 10:06
    pour augmenter sa capacité de calcul.
  • 10:06 - 10:09
    Remarquez que ça donne aux I.A.s
    une raison pratique
  • 10:09 - 10:12
    de faire des choses
    que nous pourrions ne pas approuver.
  • 10:12 - 10:14
    Les humains sont des menaces
    dans ce modèle,
  • 10:14 - 10:16
    car nous pourrions empêcher
    la résolution du problème.
  • 10:17 - 10:21
    Bien sûr, les choses perceptibles
    ne tourneront pas mal de ces façons-là ;
  • 10:21 - 10:22
    ce sont des exemples caricaturés.
  • 10:22 - 10:24
    Mais l'argument général est important :
  • 10:24 - 10:27
    si vous créez un processus d'optimisation
    très puissant
  • 10:27 - 10:30
    pour maximiser les chances
    d'atteindre l'objectif x,
  • 10:30 - 10:32
    vous devez vous assurer
    que votre définition de x
  • 10:32 - 10:34
    incorpore tout ce à quoi vous tenez.
  • 10:35 - 10:39
    C'est une leçon qui est enseignée
    dans de nombreux mythes.
  • 10:39 - 10:45
    Le roi Midas souhaitait que tout
    ce qu'il touche se transforme en or.
  • 10:45 - 10:47
    Il touche sa fille,
    elle se transforme en or.
  • 10:47 - 10:50
    Il touche sa nourriture,
    elle se transforme en or.
  • 10:50 - 10:53
    Ça pourrait devenir
    pertinent en pratique,
  • 10:53 - 10:55
    ne pas se limiter à une métaphore
    de la cupidité
  • 10:55 - 10:57
    mais illustrer ce qui arrive
  • 10:57 - 10:59
    si vous créez un processus
    d'optimisation puissant
  • 10:59 - 11:04
    et lui donnez des objectifs
    mal conçus ou trop vagues.
  • 11:04 - 11:09
    Vous pourriez dire que si un ordinateur
    commence à nous implanter des électrodes,
  • 11:09 - 11:12
    nous le débrancherions.
  • 11:13 - 11:18
    A, ce n'est pas forcément si facile
    à faire si nous sommes devenus dépendants,
  • 11:18 - 11:21
    par exemple,
    comment arrête-t-on internet ?
  • 11:21 - 11:26
    B, pourquoi les chimpanzés
    ou les Neandertals
  • 11:26 - 11:27
    n'ont-ils pas
    empêché l'humanité ?
  • 11:27 - 11:30
    Ils avaient de bonnes raisons.
  • 11:30 - 11:33
    Nous avons un interrupteur,
    par exemple, juste ici.
  • 11:33 - 11:34
    (Suffocation)
  • 11:34 - 11:37
    La raison est que nous sommes
    un adversaire intelligent ;
  • 11:37 - 11:40
    nous pouvons anticiper les menaces
    et planifier des solutions.
  • 11:40 - 11:43
    Mais une super intelligence
    pourrait le faire aussi,
  • 11:43 - 11:46
    et elle le ferait bien mieux que nous.
  • 11:46 - 11:53
    L'important est que nous ne devrions pas
    croire que nous avons tout sous contrôle.
  • 11:53 - 11:56
    Nous pourrions tenter
    de nous faciliter la tâche, disons
  • 11:56 - 11:58
    en mettant l'I.A. dans une boîte,
  • 11:58 - 12:00
    comme un environnement logiciel sûr,
  • 12:00 - 12:03
    une simulation de la réalité
    d'où elle ne peut s'échapper.
  • 12:03 - 12:07
    Mais à quel point sommes-nous sûrs
    qu'elle ne trouvera pas un bug.
  • 12:07 - 12:10
    Étant donné que de simples hackers humains
    trouvent toujours des bugs,
  • 12:10 - 12:13
    je dirais, probablement pas très sûrs.
  • 12:14 - 12:19
    Donc on déconnecte le câble Ethernet
    pour créer une séparation physique,
  • 12:19 - 12:21
    mais encore une fois,
    comme de simples hackers humains
  • 12:21 - 12:25
    transgressent les séparations physiques
    grâce à l'ingéniérie sociale.
  • 12:25 - 12:27
    À l'heure où je vous parle,
    en ce moment-même,
  • 12:27 - 12:29
    je suis sûr qu'il y a un employé,
    quelque part
  • 12:29 - 12:32
    à qui quelqu'un prétendant être
    du département informatique
  • 12:32 - 12:34
    a demandé de donner
    son identifiant et son mot de passe.
  • 12:34 - 12:37
    Des scénarios plus créatifs
    sont aussi possibles,
  • 12:37 - 12:38
    par exemple, si vous êtes une I.A.
  • 12:38 - 12:42
    vous pouvez déplacer des électrodes
    dans vos circuits internes
  • 12:42 - 12:45
    pour créer des ondes radio que vous
    utiliserez pour communiquer.
  • 12:45 - 12:47
    Ou vous pouvez prétendre
    dysfonctionner,
  • 12:47 - 12:51
    et quand les ingénieurs vous ouvrent
    pour voir ce qui ne marche pas,
  • 12:51 - 12:53
    ils regardent votre code source
    -- Vlan ! --
  • 12:53 - 12:55
    la manipulation peut commencer.
  • 12:55 - 12:59
    Ou elle pourrait produire le plan
    d'une nouvelle technologie géniale,
  • 12:59 - 13:00
    et quand nous l'implementons,
  • 13:00 - 13:05
    elle a quelques effets secondaires furtifs
    planifiés par l'I.A.
  • 13:05 - 13:08
    Donc nous ne devrions pas
    faire confiance à notre capacité
  • 13:08 - 13:12
    à garder un génie super intelligent
    prisonnier dans sa lampe éternellement.
  • 13:12 - 13:14
    À un moment donné, il va s'échapper.
  • 13:15 - 13:18
    Je crois que la réponse à ça
    est de découvrir
  • 13:18 - 13:23
    comment créer une super intelligence
    telle que même si ou quand elle s'échappe,
  • 13:23 - 13:26
    on est toujours en sécurité car
    elle est fondamentalement de notre côté
  • 13:26 - 13:28
    car elle partage nos valeurs.
  • 13:28 - 13:32
    Je ne vois aucune solution à ce problème.
  • 13:33 - 13:36
    Mais je suis plutôt optimiste quant le fait
    que ce problème peut être résolu.
  • 13:36 - 13:40
    Nous n'aurions pas à écrire une longue
    liste de tout ce que nous chérissons,
  • 13:40 - 13:44
    ou, encore pire, devoir le coder
    en language informatique
  • 13:44 - 13:45
    comme C++ ou Python,
  • 13:45 - 13:48
    ce qui serait une tâche sans espoir.
  • 13:48 - 13:52
    Au lieu de ça, nous créerions une I.A.
    qui utilise son intelligence
  • 13:52 - 13:55
    pour apprendre nos valeurs,
  • 13:55 - 14:01
    et son système de motivation est construit
    de telle sorte qu'elle est motivée
  • 14:01 - 14:06
    par la recherche de valeurs ou d'actions
    qu'elle prédit que nous approuverions.
  • 14:06 - 14:09
    Nous pourrions ainsi influencer
    son intelligence autant que possible
  • 14:09 - 14:12
    à résoudre des problèmes importants.
  • 14:13 - 14:14
    Ça peut arriver,
  • 14:14 - 14:18
    et le résultat en serait très positif
    pour l'humanité.
  • 14:18 - 14:22
    Mais ça n'arrive pas automatiquement.
  • 14:22 - 14:25
    Les conditions initiales
    de l'explosion de l'intelligence
  • 14:25 - 14:28
    devront être programmées
    de manière précise
  • 14:28 - 14:31
    si nous voulons obtenir
    une détonation contrôlée.
  • 14:31 - 14:34
    Les valeurs de l'I.A. devront
    correspondre aux nôtres,
  • 14:34 - 14:36
    pas seulement dans un contexte familier,
  • 14:36 - 14:38
    où il est facile de contrôler
    comment l'I.A. se comporte,
  • 14:38 - 14:41
    mais aussi dans de nouveaux contextes
    que l'I.A. pourrait rencontrer
  • 14:41 - 14:43
    dans un futur indéfini.
  • 14:43 - 14:47
    Il y a aussi des problèmes ésotériques
    qui devront être résolus :
  • 14:47 - 14:50
    les détails exacts
    de sa théorie de décision,
  • 14:50 - 14:52
    comment gérer l'incertitude logique
    et ainsi de suite.
  • 14:53 - 14:56
    Les problèmes techniques qui doivent
    être surmontés pour que ça marche
  • 14:56 - 14:58
    semblent ardus--
  • 14:58 - 15:01
    pas autant que de faire
    une I.A. super intelligente,
  • 15:01 - 15:04
    mais assez ardus.
  • 15:04 - 15:05
    Là où c'est inquiétant, c'est que
  • 15:05 - 15:10
    faire une I.A. super intelligente
    est un défi vraiment difficile.
  • 15:10 - 15:13
    Faire une I.A. super intelligente
    qui soit sûre
  • 15:13 - 15:15
    implique quelques
    défis supplémentaires.
  • 15:16 - 15:20
    Le risque est que si quelqu'un trouve
    comment résoudre le premier défi
  • 15:20 - 15:23
    sans avoir aussi résolu
  • 15:23 - 15:25
    l'autre défi, celui d'assurer
    une sécurité parfaite.
  • 15:25 - 15:29
    Je pense que nous devrions donc
    commencer à résoudre
  • 15:29 - 15:32
    le problème de contrôle d'abord,
  • 15:32 - 15:34
    pour qu'il soit disponible
    quand on en aura besoin.
  • 15:35 - 15:38
    On ne pourra peut-être pas résoudre
    tout le problème du contrôle à l'avance
  • 15:38 - 15:41
    car certains éléments ne peuvent
    être mis en place
  • 15:41 - 15:45
    qu'une fois qu'on connait les détails
    de l'architecture où ce sera implémenté.
  • 15:45 - 15:49
    Mais plus nous résolvons ce problème
    de contrôle à l'avance,
  • 15:49 - 15:53
    meilleure sera notre chance
    que la transition vers l'ère de l'I.A.
  • 15:53 - 15:54
    se passera bien.
  • 15:54 - 15:59
    Pour moi, ça semble valoir la peine
  • 15:59 - 16:02
    et j'imaginer que,
    si tout se passe bien,
  • 16:02 - 16:07
    les gens, dans un million d'années,
    penseront peut-être
  • 16:07 - 16:11
    que la chose qui a vraiment été
    importante dans notre siècle
  • 16:11 - 16:13
    était de faire ça bien.
  • 16:13 - 16:14
    Merci.
  • 16:14 - 16:17
    (Applaudissements)
Title:
What happens when our computers get smarter than we are?
Speaker:
Que se passera-t-il quand nos ordinateurs deviendront plus intelligents que nous ?
Description:

L'intelligence artificielle devient plus maline en progressant par bonds -- d'ici à la fin du siècle, les recherches suggèrent qu'une intelligence artificielle informatique pourrait être aussi "intelligente" qu'un être humain. Nick Bostrom dit qu'alors, elle nous dépasserait : « L'intelligence machine est la dernière invention que l'humanité aura jamais besoin de faire. » Philosophe et technologue, il nous demande de bien réfléchir au monde que nous bâtissons, régit par l'intelligence machine. Nous machines intelligentes nous aideront-elles à préserver l'humanité et ses valeurs ou auront elles les leurs ?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

French subtitles

Revisions