What happens when our computers get smarter than we are?
-
0:01 - 0:05Je travaille avec des mathématiciens,
philosophes et informaticiens, -
0:05 - 0:10et nous nous réunissons pour imaginer
le futur de l'intelligence artificielle, -
0:10 - 0:12entre autres choses.
-
0:12 - 0:17Certains pensent que
c'est un peu de la science-fiction, -
0:17 - 0:20complètement éloigné du réel.
-
0:20 - 0:21Mais j'aime dire,
-
0:21 - 0:25d'accord, jetons un coup d'oeil
à la condition humaine moderne. -
0:25 - 0:27(Rires)
-
0:27 - 0:29C'est la façon normale d'être des choses.
-
0:29 - 0:31Mais si on y pense,
-
0:31 - 0:35nous ne sommes en fait que des invités
récemment arrivés sur cette planète, -
0:35 - 0:37l'espèce humaine.
-
0:37 - 0:41Imaginez si la Terre
avait été créée il y a un an, -
0:41 - 0:45l'espèce humaine existerait alors
depuis dix minutes. -
0:45 - 0:48L'ère industrielle a débuté
il y a deux secondes. -
0:49 - 0:52Une autre façon de voir est de calculer
-
0:52 - 0:55le PIB mondial
des 10 000 dernières années. -
0:55 - 0:58J'ai vraiment pris le temps
de faire un graphe pour vous. -
0:58 - 0:59Il ressemble à ça.
-
0:59 - 1:01(Rires)
-
1:01 - 1:03Drôle de courbe
pour une condition normale. -
1:03 - 1:05Je ne voudrais pas lui tourner le dos.
-
1:05 - 1:07(Rires)
-
1:07 - 1:12Demandons-nous, quelle est la cause
de cette anomalie ? -
1:12 - 1:14Certains diront que c'est la technologie.
-
1:14 - 1:19C'est vrai, la technologie s'est accumulée
au cours de l'histoire humaine, -
1:19 - 1:24et aujourd'hui, la technologie
progresse très rapidement -- -
1:24 - 1:25c'est la cause la plus proche,
-
1:25 - 1:28c'est pourquoi nous sommes
si productifs de nos jours. -
1:28 - 1:32Mais je préfère réfléchir en remontant
à la cause fondamentale. -
1:33 - 1:37Regardez ces deux messieurs
très distingués : -
1:37 - 1:38Nous avons Kanzi --
-
1:38 - 1:43il maîtrise 200 symboles lexicaux,
un exploit incroyable. -
1:43 - 1:47Et Ed Witten a déclenché
la seconde révolution des supercordes. -
1:47 - 1:49Si nous regardons sous la capuche,
voici ce que l'on trouve : -
1:49 - 1:51en gros, la même chose.
-
1:51 - 1:53L'un est un peu plus grand,
-
1:53 - 1:55il y a peut-être aussi quelques
subtilités de câblage. -
1:55 - 1:59Ces différences invisibles ne peuvent
être trop compliquées quoi qu'il en soit, -
1:59 - 2:03car il n'y a eu que
250 000 générations -
2:03 - 2:05depuis notre dernier ancêtre commun.
-
2:05 - 2:09Nous savons que les mécanismes compliqués
demandent beaucoup de temps pour évoluer. -
2:10 - 2:12Donc des changements relativement mineurs
-
2:12 - 2:16nous emmènent de Kanzi à Witten,
-
2:16 - 2:20de branches arrachées aux arbres aux
missiles balistiques intercontinentaux. -
2:21 - 2:25Il semble alors assez évident
que tout ce que nous avons réalisé, -
2:25 - 2:26et ce que nous chérissons,
-
2:26 - 2:30dépend principalement de quelques
changements mineurs -
2:30 - 2:33qui ont aboutit à l'esprit humain.
-
2:33 - 2:36Le corollaire, bien sûr,
est que tout changement à venir -
2:36 - 2:40qui pourrait changer significativement
le substrat de la pensée -
2:40 - 2:43pourrait avoir potentiellement
d'énormes conséquences. -
2:44 - 2:47Certains de mes collègues
pensent que nous sommes sur le point -
2:47 - 2:51de développer quelque chose qui pourrait
causer un tel changement dans ce substrat, -
2:51 - 2:54et c'est la super
intelligence artificielle. -
2:54 - 2:59Avant, l'intelligence artificielle consistait
à mettre des commandes dans une boîte. -
2:59 - 3:01Il y avait des programmeurs humains
-
3:01 - 3:04qui fabriquaient minutieusement
des objets savants. -
3:04 - 3:06On construisait ces systèmes experts,
-
3:06 - 3:08et ils étaient utiles
pour certains buts, -
3:08 - 3:11mais ils étaient très fragiles,
on ne pouvait pas les agrandir. -
3:11 - 3:14En gros, vous n'aviez que
ce que vous aviez mis dedans. -
3:14 - 3:15Mais depuis,
-
3:15 - 3:19une révolution conceptuelle s'est opérée
dans le domaine de l'I.A.. -
3:19 - 3:22Aujourd'hui, l'action est centré sur
l'apprentissage machine. -
3:22 - 3:28Plutôt que de coder à la main des
programmes et leurs caractéristiques, -
3:29 - 3:31on crée des algorithmes qui apprennent,
-
3:31 - 3:34souvent à partir
des données brutes perçues. -
3:34 - 3:39En gros, la même chose que fait un enfant.
-
3:39 - 3:43Le résultat est une I.A.
qui n'est pas limitée à un domaine -- -
3:43 - 3:48le même système peut apprendre à traduire
n'importe quel couple de langues, -
3:48 - 3:53ou apprendre à jouer n'importe quel jeu
sur la console Atari. -
3:53 - 3:55Bien sûr,
-
3:55 - 3:59l'I.A. est toujours loin d'avoir
la capacité puissante et transversale -
3:59 - 4:02à apprendre et planifier
d'un être humain. -
4:02 - 4:04Le cortex a encore des
secrets algorithmiques -
4:04 - 4:07que nous ne savons pas
intégrer dans les machines. -
4:08 - 4:10Donc la question est,
-
4:10 - 4:13combien de temps nous faudra-t-il
pour réussir à les intégrer ? -
4:14 - 4:15Il y a quelques années,
-
4:15 - 4:18nous avons fait un sondage
auprès des experts mondiaux des I.A., -
4:18 - 4:21pour voir ce qu'ils pensaient,
et une des questions posées était, -
4:21 - 4:25« En quelle année pensez-vous
qu'il y aura 50% de chance -
4:25 - 4:28qu'une I.A. atteigne le niveau
d'une intelligence humaine ? » -
4:29 - 4:33Nous définissons ici le seuil à atteindre
par la capacité de l'I.A. à réaliser -
4:33 - 4:36presque toutes les tâches
au moins aussi bien qu'un adulte, -
4:36 - 4:40donc réellement comme un humain,
pas seulement dans un domaine limité. -
4:40 - 4:43La réponse médiane était 2040 ou 2050,
-
4:43 - 4:46en fonction du groupe d'experts
que nous interrogions. -
4:46 - 4:50Ça pourrait se produire
bien plus tard ou bien plus tôt, -
4:50 - 4:52la vérité est que personne ne le sait.
-
4:53 - 4:58Ce que nous savons est que la limite
de traitement de l'information -
4:58 - 5:03dans une machine est bien supérieure
à celle d'un tissu biologique. -
5:03 - 5:06Ça s'explique par la physique.
-
5:06 - 5:10Un neurone biologique "décharge"
environ à 200 hertz, 200 fois par seconde. -
5:10 - 5:14Mais, même un transistor actuel
fonctionne au gigahertz. -
5:14 - 5:19L'information se propage dans les neurones
le long d'axones à 100 m/s maximum. -
5:19 - 5:23Mais dans les ordinateurs, le signal
peut voyager à la vitesse de la lumière. -
5:23 - 5:25Il y a aussi des limitations de taille,
-
5:25 - 5:28car le cerveau humain
doit rentrer dans la boîte crânienne, -
5:28 - 5:33mais un ordinateur peut être
de la taille d'un entrepôt ou plus grand. -
5:33 - 5:38Donc le potentiel de super intelligence
est en sommeil dans la matière, -
5:38 - 5:44tout comme la puissance de l'atome
est restée en sommeil -
5:44 - 5:48tout au long de l'histoire humaine,
attendant patiemment jusqu'en 1945. -
5:48 - 5:52Au cours de ce siècle, il se peut
que les scientifiques apprennent -
5:52 - 5:54à réveiller la puissance de l'I.A..
-
5:54 - 5:58Je pense que nous pourrions alors
assister à une explosion d'intelligence. -
5:58 - 6:02La plupart des gens, quand ils pensent
à ce qui est bête ou intelligent -
6:02 - 6:05ont une image de ce genre en tête.
-
6:05 - 6:08À une extrémité on a l'idiot du village,
-
6:08 - 6:10et à l'autre bout
-
6:10 - 6:15on a Ed Witten, ou Albert Einstein,
ou votre gourou, qui qu'il soit. -
6:15 - 6:19Mais je pense que du point de vue
de l'intelligence artificielle, -
6:19 - 6:23la véritable image est plus probablement
comme ceci, en réalité : -
6:23 - 6:27l'I.A. commence à cet endroit,
à zéro intelligence, -
6:27 - 6:30et ensuite, après de nombreuses
années de dur labeur, -
6:30 - 6:33peut-être, arrivons-nous au niveau
de l'intelligence d'une souris, -
6:33 - 6:36quelque chose qui peut naviguer
dans des environnements encombrés -
6:36 - 6:38aussi bien qu'une souris.
-
6:38 - 6:42Ensuite, après encore plus d'années de
dur labeur et beaucoup d'investissements, -
6:42 - 6:47peut-être, finalement, arrivons-nous
au niveau d'intelligence d'un chimpanzé. -
6:47 - 6:50Ensuite, après toujours plus d'années
de vraiment très dur labeur, -
6:50 - 6:53nous arrivons au niveau d'intelligence
de l'idiot du village. -
6:53 - 6:56Et quelques mois plus tard,
nous sommes après Ed Witten. -
6:56 - 6:59Le train ne s'arrête pas
à la station Humainville. -
6:59 - 7:02Il va plutôt passer à fond devant.
-
7:02 - 7:04Il y a là de profondes implications,
-
7:04 - 7:08en particulier quand il est question
de pouvoir. -
7:08 - 7:10Par exemple, les chimpanzés sont forts --
-
7:10 - 7:15à poids équivalent, un chimpanzé est
deux fois plus fort qu'un homme adulte. -
7:15 - 7:20Pourtant, le destin de Kanzi
et de ses congénères dépend beaucoup plus -
7:20 - 7:24de ce que font les humains que de ce que
les chimpanzés font eux-mêmes. -
7:25 - 7:28Une fois que la super intelligence
sera là, -
7:28 - 7:31le destin de l'humanité pourrait dépendre
des actions de cette super intelligence. -
7:32 - 7:34Pensez-y :
-
7:34 - 7:38l'I.A. est la dernière invention que
l'homme aura jamais besoin de faire. -
7:38 - 7:42Les machines seront alors de meilleurs
inventeurs que nous le sommes, -
7:42 - 7:44et elles inventeront sur des échelles
de temps numériques. -
7:44 - 7:49Ça veut dire un télescopage avec le futur.
-
7:49 - 7:52Pensez à toutes les technologies
incroyables que vous avez imaginées, -
7:52 - 7:55que les hommes pourraient
avoir développées avec le temps : -
7:55 - 7:59plus de vieillissement,
colonisation de l'espace, -
7:59 - 8:00nano-robots auto-répliquants,
-
8:00 - 8:02téléchargement d'esprits humains
dans des ordinateurs, -
8:02 - 8:04plein de technologies de science-fiction
-
8:04 - 8:07qui sont néanmoins cohérentes
avec les lois de la physique. -
8:07 - 8:11Toute cette super intelligence pourrait
se développer assez rapidement. -
8:12 - 8:16Bon, une super intelligence avec
une telle maturité technologique -
8:16 - 8:18serait extrêmement puissante,
-
8:18 - 8:23et au moins dans certains scénarios,
serait capable d'obtenir ce qu'elle veut. -
8:23 - 8:28Nous aurions alors un futur modelé
par les préférences de cette I.A. -
8:30 - 8:34Une bonne question est,
quelles sont ces préférences ? -
8:34 - 8:36C'est là que ça devient délicat.
-
8:36 - 8:37Pour progresser là-dessus,
-
8:37 - 8:41nous devons tout d'abord
éviter tout anthropomorphisme. -
8:42 - 8:45C'est ironique car dans tous
les articles de journaux -
8:45 - 8:49qui parle de l'avenir de l'I.A.
comportent une image de ceci. -
8:50 - 8:54Je pense que nous devons concevoir
ce problème de manière plus abstraite, -
8:54 - 8:57et non en scénario hollywoodien fertile.
-
8:57 - 9:01Nous devons penser à l'intelligence
comme un processus d'optimisation, -
9:01 - 9:06un processus qui guide le futur
dans un certain jeu de configurations. -
9:06 - 9:10Une super intelligence est un
processus d'optimisation très fort. -
9:10 - 9:14Elle est très douée pour utiliser les
moyens disponibles pour atteindre un état -
9:14 - 9:16dans lequel son but est réalisé.
-
9:16 - 9:19Ça signifie qu'il n'y a pas
de nécessaire connexion entre -
9:19 - 9:22le fait d'être très intelligent
dans ce sens, -
9:22 - 9:27et avoir un objectif que nous, humains,
trouverions utile ou significatif. -
9:27 - 9:31Supposons qu'on donne comme but
à une I.A. de faire sourire les humains. -
9:31 - 9:34Quand l'I.A. est faible, elle réalise
des actions utiles ou amusantes -
9:34 - 9:37qui provoque le sourire de l'utilisateur.
-
9:37 - 9:39Quand l'I.A. devient super intelligente,
-
9:39 - 9:43elle réalise qu'il y a un moyen
plus efficace d'atteindre son objectif : -
9:43 - 9:44prendre le contrôle du monde
-
9:44 - 9:48et implanter des électrodes
dans les muscles faciaux des humains -
9:48 - 9:51pour provoquer des sourires
rayonnants et constants. -
9:51 - 9:51Un autre exemple,
-
9:51 - 9:55supposons qu'on demande à une I.A.
de résoudre un problème de math très dur. -
9:55 - 9:57Quand l'I.A. devient super intelligente,
-
9:57 - 10:01elle réalise que le moyen le plus efficace
pour résoudre ce problème -
10:01 - 10:04est de transformer la planète
en un ordinateur géant, -
10:04 - 10:06pour augmenter sa capacité de calcul.
-
10:06 - 10:09Remarquez que ça donne aux I.A.s
une raison pratique -
10:09 - 10:12de faire des choses
que nous pourrions ne pas approuver. -
10:12 - 10:14Les humains sont des menaces
dans ce modèle, -
10:14 - 10:16car nous pourrions empêcher
la résolution du problème. -
10:17 - 10:21Bien sûr, les choses perceptibles
ne tourneront pas mal de ces façons-là ; -
10:21 - 10:22ce sont des exemples caricaturés.
-
10:22 - 10:24Mais l'argument général est important :
-
10:24 - 10:27si vous créez un processus d'optimisation
très puissant -
10:27 - 10:30pour maximiser les chances
d'atteindre l'objectif x, -
10:30 - 10:32vous devez vous assurer
que votre définition de x -
10:32 - 10:34incorpore tout ce à quoi vous tenez.
-
10:35 - 10:39C'est une leçon qui est enseignée
dans de nombreux mythes. -
10:39 - 10:45Le roi Midas souhaitait que tout
ce qu'il touche se transforme en or. -
10:45 - 10:47Il touche sa fille,
elle se transforme en or. -
10:47 - 10:50Il touche sa nourriture,
elle se transforme en or. -
10:50 - 10:53Ça pourrait devenir
pertinent en pratique, -
10:53 - 10:55ne pas se limiter à une métaphore
de la cupidité -
10:55 - 10:57mais illustrer ce qui arrive
-
10:57 - 10:59si vous créez un processus
d'optimisation puissant -
10:59 - 11:04et lui donnez des objectifs
mal conçus ou trop vagues. -
11:04 - 11:09Vous pourriez dire que si un ordinateur
commence à nous implanter des électrodes, -
11:09 - 11:12nous le débrancherions.
-
11:13 - 11:18A, ce n'est pas forcément si facile
à faire si nous sommes devenus dépendants, -
11:18 - 11:21par exemple,
comment arrête-t-on internet ? -
11:21 - 11:26B, pourquoi les chimpanzés
ou les Neandertals -
11:26 - 11:27n'ont-ils pas
empêché l'humanité ? -
11:27 - 11:30Ils avaient de bonnes raisons.
-
11:30 - 11:33Nous avons un interrupteur,
par exemple, juste ici. -
11:33 - 11:34(Suffocation)
-
11:34 - 11:37La raison est que nous sommes
un adversaire intelligent ; -
11:37 - 11:40nous pouvons anticiper les menaces
et planifier des solutions. -
11:40 - 11:43Mais une super intelligence
pourrait le faire aussi, -
11:43 - 11:46et elle le ferait bien mieux que nous.
-
11:46 - 11:53L'important est que nous ne devrions pas
croire que nous avons tout sous contrôle. -
11:53 - 11:56Nous pourrions tenter
de nous faciliter la tâche, disons -
11:56 - 11:58en mettant l'I.A. dans une boîte,
-
11:58 - 12:00comme un environnement logiciel sûr,
-
12:00 - 12:03une simulation de la réalité
d'où elle ne peut s'échapper. -
12:03 - 12:07Mais à quel point sommes-nous sûrs
qu'elle ne trouvera pas un bug. -
12:07 - 12:10Étant donné que de simples hackers humains
trouvent toujours des bugs, -
12:10 - 12:13je dirais, probablement pas très sûrs.
-
12:14 - 12:19Donc on déconnecte le câble Ethernet
pour créer une séparation physique, -
12:19 - 12:21mais encore une fois,
comme de simples hackers humains -
12:21 - 12:25transgressent les séparations physiques
grâce à l'ingéniérie sociale. -
12:25 - 12:27À l'heure où je vous parle,
en ce moment-même, -
12:27 - 12:29je suis sûr qu'il y a un employé,
quelque part -
12:29 - 12:32à qui quelqu'un prétendant être
du département informatique -
12:32 - 12:34a demandé de donner
son identifiant et son mot de passe. -
12:34 - 12:37Des scénarios plus créatifs
sont aussi possibles, -
12:37 - 12:38par exemple, si vous êtes une I.A.
-
12:38 - 12:42vous pouvez déplacer des électrodes
dans vos circuits internes -
12:42 - 12:45pour créer des ondes radio que vous
utiliserez pour communiquer. -
12:45 - 12:47Ou vous pouvez prétendre
dysfonctionner, -
12:47 - 12:51et quand les ingénieurs vous ouvrent
pour voir ce qui ne marche pas, -
12:51 - 12:53ils regardent votre code source
-- Vlan ! -- -
12:53 - 12:55la manipulation peut commencer.
-
12:55 - 12:59Ou elle pourrait produire le plan
d'une nouvelle technologie géniale, -
12:59 - 13:00et quand nous l'implementons,
-
13:00 - 13:05elle a quelques effets secondaires furtifs
planifiés par l'I.A. -
13:05 - 13:08Donc nous ne devrions pas
faire confiance à notre capacité -
13:08 - 13:12à garder un génie super intelligent
prisonnier dans sa lampe éternellement. -
13:12 - 13:14À un moment donné, il va s'échapper.
-
13:15 - 13:18Je crois que la réponse à ça
est de découvrir -
13:18 - 13:23comment créer une super intelligence
telle que même si ou quand elle s'échappe, -
13:23 - 13:26on est toujours en sécurité car
elle est fondamentalement de notre côté -
13:26 - 13:28car elle partage nos valeurs.
-
13:28 - 13:32Je ne vois aucune solution à ce problème.
-
13:33 - 13:36Mais je suis plutôt optimiste quant le fait
que ce problème peut être résolu. -
13:36 - 13:40Nous n'aurions pas à écrire une longue
liste de tout ce que nous chérissons, -
13:40 - 13:44ou, encore pire, devoir le coder
en language informatique -
13:44 - 13:45comme C++ ou Python,
-
13:45 - 13:48ce qui serait une tâche sans espoir.
-
13:48 - 13:52Au lieu de ça, nous créerions une I.A.
qui utilise son intelligence -
13:52 - 13:55pour apprendre nos valeurs,
-
13:55 - 14:01et son système de motivation est construit
de telle sorte qu'elle est motivée -
14:01 - 14:06par la recherche de valeurs ou d'actions
qu'elle prédit que nous approuverions. -
14:06 - 14:09Nous pourrions ainsi influencer
son intelligence autant que possible -
14:09 - 14:12à résoudre des problèmes importants.
-
14:13 - 14:14Ça peut arriver,
-
14:14 - 14:18et le résultat en serait très positif
pour l'humanité. -
14:18 - 14:22Mais ça n'arrive pas automatiquement.
-
14:22 - 14:25Les conditions initiales
de l'explosion de l'intelligence -
14:25 - 14:28devront être programmées
de manière précise -
14:28 - 14:31si nous voulons obtenir
une détonation contrôlée. -
14:31 - 14:34Les valeurs de l'I.A. devront
correspondre aux nôtres, -
14:34 - 14:36pas seulement dans un contexte familier,
-
14:36 - 14:38où il est facile de contrôler
comment l'I.A. se comporte, -
14:38 - 14:41mais aussi dans de nouveaux contextes
que l'I.A. pourrait rencontrer -
14:41 - 14:43dans un futur indéfini.
-
14:43 - 14:47Il y a aussi des problèmes ésotériques
qui devront être résolus : -
14:47 - 14:50les détails exacts
de sa théorie de décision, -
14:50 - 14:52comment gérer l'incertitude logique
et ainsi de suite. -
14:53 - 14:56Les problèmes techniques qui doivent
être surmontés pour que ça marche -
14:56 - 14:58semblent ardus--
-
14:58 - 15:01pas autant que de faire
une I.A. super intelligente, -
15:01 - 15:04mais assez ardus.
-
15:04 - 15:05Là où c'est inquiétant, c'est que
-
15:05 - 15:10faire une I.A. super intelligente
est un défi vraiment difficile. -
15:10 - 15:13Faire une I.A. super intelligente
qui soit sûre -
15:13 - 15:15implique quelques
défis supplémentaires. -
15:16 - 15:20Le risque est que si quelqu'un trouve
comment résoudre le premier défi -
15:20 - 15:23sans avoir aussi résolu
-
15:23 - 15:25l'autre défi, celui d'assurer
une sécurité parfaite. -
15:25 - 15:29Je pense que nous devrions donc
commencer à résoudre -
15:29 - 15:32le problème de contrôle d'abord,
-
15:32 - 15:34pour qu'il soit disponible
quand on en aura besoin. -
15:35 - 15:38On ne pourra peut-être pas résoudre
tout le problème du contrôle à l'avance -
15:38 - 15:41car certains éléments ne peuvent
être mis en place -
15:41 - 15:45qu'une fois qu'on connait les détails
de l'architecture où ce sera implémenté. -
15:45 - 15:49Mais plus nous résolvons ce problème
de contrôle à l'avance, -
15:49 - 15:53meilleure sera notre chance
que la transition vers l'ère de l'I.A. -
15:53 - 15:54se passera bien.
-
15:54 - 15:59Pour moi, ça semble valoir la peine
-
15:59 - 16:02et j'imaginer que,
si tout se passe bien, -
16:02 - 16:07les gens, dans un million d'années,
penseront peut-être -
16:07 - 16:11que la chose qui a vraiment été
importante dans notre siècle -
16:11 - 16:13était de faire ça bien.
-
16:13 - 16:14Merci.
-
16:14 - 16:17(Applaudissements)
- Title:
- What happens when our computers get smarter than we are?
- Speaker:
- Que se passera-t-il quand nos ordinateurs deviendront plus intelligents que nous ?
- Description:
-
L'intelligence artificielle devient plus maline en progressant par bonds -- d'ici à la fin du siècle, les recherches suggèrent qu'une intelligence artificielle informatique pourrait être aussi "intelligente" qu'un être humain. Nick Bostrom dit qu'alors, elle nous dépasserait : « L'intelligence machine est la dernière invention que l'humanité aura jamais besoin de faire. » Philosophe et technologue, il nous demande de bien réfléchir au monde que nous bâtissons, régit par l'intelligence machine. Nous machines intelligentes nous aideront-elles à préserver l'humanité et ses valeurs ou auront elles les leurs ?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Elisabeth Buffard approved French subtitles for What happens when our computers get smarter than we are? | ||
Elisabeth Buffard edited French subtitles for What happens when our computers get smarter than we are? | ||
Elisabeth Buffard edited French subtitles for What happens when our computers get smarter than we are? | ||
Elisabeth Buffard edited French subtitles for What happens when our computers get smarter than we are? | ||
Elisabeth Buffard accepted French subtitles for What happens when our computers get smarter than we are? | ||
Elisabeth Buffard edited French subtitles for What happens when our computers get smarter than we are? | ||
Elisabeth Buffard edited French subtitles for What happens when our computers get smarter than we are? | ||
Vincent LECOANET edited French subtitles for What happens when our computers get smarter than we are? |