0:00:00.960,0:00:03.936 Cette histoire commence en 1985 0:00:03.960,0:00:05.936 quand, à l'âge de 22 ans, 0:00:05.960,0:00:08.336 je suis devenu champion du monde d'échecs 0:00:08.360,0:00:11.560 en battant Anatoly Karpov. 0:00:12.480,0:00:13.736 Plus tôt cette même année, 0:00:13.760,0:00:17.376 j'ai participé à ce qu'on appelle[br]une série de parties simultanées 0:00:17.400,0:00:21.696 contre 32 des machines joueuses d'échecs[br]les plus performantes 0:00:21.720,0:00:23.080 à Hambourg. 0:00:24.160,0:00:25.360 Je les ai toutes gagnées 0:00:26.560,0:00:29.736 et à l'époque,[br]ça n'avait rien de surprenant 0:00:29.760,0:00:33.800 que je puisse battre 32 ordinateurs[br]simultanément. 0:00:34.480,0:00:37.056 Ah, pour moi, c'était l'âge d'or. 0:00:37.080,0:00:39.176 (Rires) 0:00:39.200,0:00:41.180 Les machines avaient[br]peu de puissance 0:00:41.680,0:00:43.016 et moi, j'avais des cheveux. 0:00:43.040,0:00:45.240 (Rires) 0:00:46.720,0:00:48.776 Douze ans plus tard seulement, 0:00:48.800,0:00:53.416 je me retrouvais à m'échiner contre[br]un seul ordinateur 0:00:53.440,0:00:54.640 dans une partie, 0:00:55.360,0:00:57.416 surnommée en couverture de Newsweek, 0:00:57.440,0:00:59.216 « le dernier combat du cerveau ». 0:00:59.240,0:01:00.456 Pas de pression, donc. 0:01:00.480,0:01:02.000 (Rires) 0:01:03.040,0:01:05.616 De la mythologie à la science-fiction, 0:01:05.640,0:01:08.376 l'affrontement de l'humain[br]et de la machine 0:01:08.400,0:01:11.160 a souvent été vu comme[br]une question de vie ou de mort. 0:01:11.960,0:01:13.536 John Henry, 0:01:13.560,0:01:15.256 qu'on appelle le pousseur d'acier 0:01:15.280,0:01:19.056 dans la légende folklorique[br]afro-américaine du XIXème siècle, 0:01:19.080,0:01:20.456 s'est mesuré, pour un pari, 0:01:20.480,0:01:23.216 à un marteau à vapeur 0:01:23.240,0:01:25.600 pour creuser[br]un tunnel dans la roche. 0:01:26.800,0:01:31.000 La légende de John Henry appartient[br]à un corps plus large de récits 0:01:31.680,0:01:34.760 qui oppose l'humanité à la technologie. 0:01:36.200,0:01:39.080 Cette rhétorique de la compétition[br]est monnaie courante. 0:01:39.560,0:01:41.520 Nous faisons la course[br]contre les machines 0:01:42.360,0:01:44.440 ou nous menons un combat[br]ou même une guerre. 0:01:45.880,0:01:47.496 Des emplois disparaissent. 0:01:47.520,0:01:51.080 Des gens sont remplacés comme[br]s'ils n'avaient jamais existé. 0:01:52.240,0:01:55.736 Il y a de quoi penser que des films comme[br]« Terminator » ou « Matrix » 0:01:55.760,0:01:56.960 sont du documentaire. 0:01:59.640,0:02:03.960 Il y a très peu d'exemples de domaines 0:02:05.360,0:02:09.616 où le corps et l'esprit humain[br]peuvent être à égalité 0:02:09.639,0:02:11.480 avec un ordinateur ou un robot. 0:02:12.280,0:02:14.138 J'aimerais en fait qu'il y en ait plus. 0:02:15.760,0:02:16.960 Au lieu de ça, 0:02:17.840,0:02:22.496 ça a été une bénédiction[br]et une malédiction pour moi 0:02:22.520,0:02:25.216 de devenir précisément ce fameux homme 0:02:25.240,0:02:28.336 dans cette compétition entre l'homme[br]et la machine 0:02:28.360,0:02:30.330 dont tout le monde parle encore. 0:02:33.120,0:02:38.136 Lors de l'affrontement homme-machine[br]le plus célèbre depuis John Henry, 0:02:38.160,0:02:40.736 j'ai joué deux séries de parties 0:02:40.760,0:02:44.200 contre le superordinateur d'IBM Deep Blue. 0:02:47.040,0:02:49.616 On ne se souvient jamais[br]que j'ai gagné la première... 0:02:49.616,0:02:51.576 (Rires) 0:02:51.600,0:02:55.000 (Applaudissements) 0:02:55.920,0:03:00.896 à Philadelphie, avant de perdre[br]la revanche en 1997 à New York. 0:03:00.920,0:03:02.860 Mais bon, ce n'est que justice. 0:03:04.320,0:03:09.416 Il n'y a pas de date anniversaire,[br]de jour spécial au calendrier 0:03:09.440,0:03:12.936 pour tous les gens qui n'ont pas réussi[br]à escalader l'Everest 0:03:12.960,0:03:15.696 avant que Sir Edmund Hillary[br]et Tenzing Norgay 0:03:15.720,0:03:17.350 ne parviennent au sommet. 0:03:17.960,0:03:21.720 Et en 1997, j'étais toujours[br]champion du monde 0:03:24.520,0:03:28.720 quand les ordinateurs d'échecs[br]sont enfin arrivés à maturité. 0:03:29.520,0:03:31.496 Le mont Everest, c'était moi, 0:03:31.520,0:03:33.120 et Deep Blue a atteint le sommet. 0:03:34.600,0:03:38.656 Bien sûr, je ferais mieux de dire,[br]non pas que Deep Blue a fait ça, 0:03:38.680,0:03:40.816 mais ses créateurs humains : 0:03:40.840,0:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 0:03:44.200,0:03:45.770 Je leur tire mon chapeau. 0:03:46.840,0:03:51.256 Comme toujours, le triomphe des machines[br]fut le triomphe des hommes. 0:03:51.280,0:03:56.040 Nous sommes enclins à l'oublier quand les[br]humains sont surpassés par leur création. 0:03:58.360,0:04:00.330 Deep Blue a remporté la victoire, 0:04:01.140,0:04:02.600 mais était-il intelligent ? 0:04:03.360,0:04:05.120 Non, il ne l'était pas, 0:04:06.200,0:04:11.256 du moins pas de la façon dont Alan Turing[br]et d'autres fondateurs de l'informatique 0:04:11.280,0:04:12.480 l'avaient espéré. 0:04:13.240,0:04:18.016 Il s'est avéré que les échecs pouvaient[br]être dominés par de la force brute, 0:04:18.040,0:04:22.296 une fois que le matériel informatique[br]est devenu assez rapide 0:04:22.320,0:04:25.280 et que les algorithmes sont devenus[br]assez malins. 0:04:26.760,0:04:30.456 Cependant, si l'on s'en tient[br]à ce qu'il produisait, 0:04:30.480,0:04:33.696 du jeu d'échecs de niveau grand maître, 0:04:33.720,0:04:35.380 Deep Blue était intelligent. 0:04:37.320,0:04:39.720 Mais même à cette vitesse incroyable 0:04:40.560,0:04:43.760 de 200 millions de positions par seconde, 0:04:45.360,0:04:46.560 la méthode de Deep Blue 0:04:47.360,0:04:53.960 ne permettait pas de percer le mystère de[br]l'intelligence humaine comme on en rêve. 0:04:56.960,0:04:58.776 Bientôt, 0:04:58.800,0:05:01.376 des machines seront chauffeurs de taxi, 0:05:01.400,0:05:03.816 médecins et professeurs, 0:05:03.840,0:05:06.440 mais seront-elles pour autant[br]« intelligentes » ? 0:05:07.840,0:05:10.336 Je m'en remettrai pour ces définitions 0:05:10.360,0:05:13.920 aux philosophes et au dictionnaire. 0:05:15.440,0:05:19.320 Ce qui importe vraiment c'est ce que nous,[br]les humains, 0:05:20.320,0:05:23.920 nous ressentons à vivre et à travailler[br]avec ces machines. 0:05:26.160,0:05:31.416 Quand j'ai rencontré Deep Blue[br]pour la première fois en février 1996, 0:05:31.440,0:05:34.440 cela faisait plus de dix ans que j'étais[br]champion du monde 0:05:36.080,0:05:40.096 et j'avais disputé 182 parties[br]de championnat du monde 0:05:40.120,0:05:45.216 et des centaines contre des joueurs[br]de haut niveau dans d'autres compétitions. 0:05:45.240,0:05:50.296 Je savais à quoi m'attendre de la part[br]de mes adversaires 0:05:50.320,0:05:52.000 et de moi-même. 0:05:52.680,0:05:57.856 J'avais l'habitude de mesurer leurs coups 0:05:57.880,0:06:01.496 et d'évaluer leur état emotionnel 0:06:01.520,0:06:05.360 en observant leur gestuelle et[br]en les regardant dans les yeux. 0:06:05.880,0:06:09.880 Et puis, me voilà assis de l'autre côté de[br]l'échiquier, face à Deep Blue. 0:06:12.960,0:06:15.816 J'ai tout de suite ressenti[br]quelque chose de nouveau, 0:06:15.840,0:06:17.160 de déstabilisant. 0:06:19.440,0:06:22.240 Vous pourriez avoir la même sensation 0:06:23.320,0:06:26.146 la première fois que vous prenez[br]une voiture sans conducteur 0:06:26.146,0:06:30.720 ou la première fois que votre nouveau[br]chef-ordinateur vous donne un ordre. 0:06:33.800,0:06:36.920 Mais quand je me suis assis pour jouer[br]cette première partie, 0:06:38.080,0:06:40.216 je ne pouvais pas être sûr 0:06:40.240,0:06:43.920 de ce dont cette chose était capable. 0:06:44.920,0:06:48.080 La technologie avance à pas de géant et[br]IBM avait beaucoup investi. 0:06:48.680,0:06:50.340 J'ai perdu cette partie. 0:06:52.320,0:06:54.096 Et je ne pouvais m'empêcher de penser 0:06:54.120,0:06:55.680 « peut-il être invincible ? » 0:06:56.600,0:06:59.180 Était-ce la fin de ce jeu d'échecs[br]que j'aimais tant ? 0:07:00.800,0:07:04.936 C'étaient là des inquiétudes et des peurs[br]toutes humaines, 0:07:04.960,0:07:06.640 et la seule chose dont j'étais sûr, 0:07:07.400,0:07:10.296 c'était que Deep Blue[br]n'avait pas de tels émois. 0:07:10.320,0:07:12.080 (Rires) 0:07:13.920,0:07:15.320 Je me suis battu 0:07:16.400,0:07:18.080 après ce coup dur 0:07:19.000,0:07:20.630 pour gagner la première série 0:07:20.960,0:07:22.600 mais les dés étaient jetés. 0:07:24.400,0:07:26.536 J'ai finalement perdu contre la machine 0:07:26.560,0:07:29.616 mais je n'ai pas souffert le même sort[br]que John Henry 0:07:29.640,0:07:32.680 qui gagna mais mourut[br]le marteau à la main. 0:07:37.720,0:07:40.256 En fait, le monde des échecs 0:07:40.280,0:07:43.520 voulait toujours avoir un champion humain. 0:07:44.920,0:07:46.600 Et aujourd'hui encore, 0:07:48.080,0:07:51.536 quand une application gratuite[br]de jeu d'échecs pour portable dernier cri 0:07:51.560,0:07:53.576 est plus performante que Deep Blue, 0:07:53.600,0:07:55.630 les gens jouent toujours aux échecs, 0:07:56.680,0:07:58.920 et même plus qu'avant. 0:07:59.800,0:08:03.016 Les alarmistes avaient prédit que[br]tout le monde déserterait ce jeu 0:08:03.040,0:08:05.296 qui pouvait être conquis par les machines, 0:08:05.320,0:08:07.536 et ils ont eu tort,[br]on le voit bien, 0:08:07.560,0:08:11.016 mais jouer les alarmistes est[br]un passe-temps populaire 0:08:11.040,0:08:12.700 en matière de technologie. 0:08:14.360,0:08:17.096 Ce que m'a appris[br]mon expérience personnelle, 0:08:17.120,0:08:21.776 c'est qu'il nous faut affronter nos peurs 0:08:21.800,0:08:25.520 si nous voulons tirer le meilleur parti[br]de notre technologie, 0:08:26.360,0:08:28.736 et nous devons dépasser ces peurs 0:08:28.760,0:08:34.000 si nous voulons obtenir le meilleur de[br]ce que l'humanité peut donner. 0:08:36.120,0:08:37.895 Tout en me remettant de ma défaite, 0:08:37.919,0:08:39.880 j'ai été très inspiré 0:08:41.080,0:08:43.775 par mes affrontements avec Deep Blue. 0:08:43.799,0:08:47.420 Comme le dit ce proverbe russe :[br]si on ne peut les vaincre, rejoignons-les. 0:08:48.880,0:08:50.256 Et puis, je me suis dit, 0:08:50.280,0:08:52.616 et si je pouvais jouer[br]avec un ordinateur... 0:08:52.640,0:08:55.800 avec un ordinateur à mes côtés,[br]en combinant nos forces, 0:08:57.160,0:09:00.936 l'intuition humaine et la capacité[br]de calcul de la machine, 0:09:00.960,0:09:03.656 la stratégie humaine,[br]la tactique de la machine, 0:09:03.680,0:09:06.096 l'expérience humaine,[br]la mémoire de la machine. 0:09:06.120,0:09:08.950 Serait-ce la partie la plus parfaite[br]jamais jouée ? 0:09:10.000,0:09:11.770 Mon idée est devenue réalité 0:09:12.920,0:09:16.296 en 1998, sous le nom d'Advanced Chess, 0:09:16.320,0:09:22.190 quand j'ai disputé cette compétition[br]humain/machine contre un joueur d'élite. 0:09:23.280,0:09:25.176 Mais lors de ce premier essai, 0:09:25.200,0:09:31.560 nous avons tous les deux échoué à associer[br]efficacement nos savoir-faire propres. 0:09:34.920,0:09:37.160 L'Advanced Chess a trouvé[br]sa place sur internet 0:09:38.160,0:09:43.016 et en 2005, un tournoi d'échecs[br]« freestyle » 0:09:43.040,0:09:44.400 a été une révélation. 0:09:47.240,0:09:50.776 Une équipe de grands maîtres et[br]de machines de haut niveau participèrent, 0:09:50.800,0:09:53.536 mais les gagnants ne furent[br]ni les grands maîtres, 0:09:53.560,0:09:54.920 ni un superordinateur. 0:09:55.680,0:10:00.016 Les gagnants furent un duo[br]de joueurs amateurs américains 0:10:00.040,0:10:03.200 qui contrôlaient trois PC ordinaires[br]à la fois. 0:10:05.560,0:10:08.576 Leur talent à accompagner leurs machines 0:10:08.600,0:10:14.376 a de fait contrecarré le savoir supérieur[br]du jeu d'échecs 0:10:14.400,0:10:15.976 des grands maîtres face à eux 0:10:16.000,0:10:20.160 et le pouvoir informatique bien plus grand[br]d'autres personnes. 0:10:21.600,0:10:23.560 Et j'en suis venu à cette idée : 0:10:24.560,0:10:27.936 un humain de faible niveau[br]auquel s'ajoute une machine 0:10:27.960,0:10:31.216 et une meilleure méthode est supérieur 0:10:31.240,0:10:33.656 à une machine très puissante seule, 0:10:33.680,0:10:37.576 mais plus remarquable encore,[br]il est supérieur à un joueur humain fort 0:10:37.600,0:10:39.560 auquel s'ajoute une machine 0:10:41.120,0:10:43.520 et une méthode inférieure. 0:10:46.360,0:10:48.480 Cela m'a convaincu qu'on aurait besoin 0:10:50.000,0:10:53.680 de meilleures interfaces pour aider[br]à l'accompagnement des machines 0:10:54.520,0:10:56.440 et rendre cette intelligence plus utile. 0:10:58.320,0:11:01.616 L'humain plus la machine,[br]ce n'est pas l'avenir, 0:11:01.640,0:11:02.856 c'est notre présent. 0:11:02.880,0:11:07.016 Tout le monde a déjà utilisé[br]des outils de traduction en ligne 0:11:07.040,0:11:11.336 pour comprendre les grandes lignes[br]d'un article de presse étrangère 0:11:11.360,0:11:13.000 malgré leurs imperfections. 0:11:13.680,0:11:15.776 Nous utilisons après notre[br]expérience humaine 0:11:15.800,0:11:17.896 pour faire sens de tout ça, 0:11:17.920,0:11:20.696 et puis la machine apprend[br]de nos rectifications. 0:11:20.720,0:11:26.210 Ce modèle se développe en diagnostic[br]médical et en analyse de sécurité. 0:11:26.440,0:11:28.560 La machine analyse des données, 0:11:29.320,0:11:31.056 calcule des probabilités, 0:11:31.080,0:11:34.736 fait 80 ou 90% du chemin, 0:11:34.760,0:11:39.136 ce qui facilite l'analyse 0:11:39.160,0:11:41.760 et la prise de décision humaines. 0:11:42.280,0:11:47.120 Mais vous n'allez pas[br]envoyer vos enfants 0:11:48.000,0:11:51.560 à l'école dans une voiture sans conducteur[br]fiable à 90% 0:11:52.600,0:11:54.200 ou même à 99%. 0:11:55.560,0:11:58.416 Nous avons donc besoin[br]d'une grande avancée 0:11:58.440,0:12:04.600 pour gagner encore[br]quelques décimales cruciales. 0:12:07.160,0:12:11.200 Vingt ans après ma série de parties[br]contre Deep Blue, 0:12:12.200,0:12:13.816 la deuxième, 0:12:13.840,0:12:20.136 ce gros titre sensationnaliste,[br]« le dernier combat du cerveau », 0:12:20.160,0:12:21.736 est omniprésent 0:12:21.760,0:12:24.296 à l'heure où les machines intelligentes 0:12:24.320,0:12:25.520 s'invitent 0:12:26.560,0:12:29.010 dans tous les secteurs d'activité[br]tous les jours. 0:12:30.160,0:12:33.256 Mais là où par le passé 0:12:33.280,0:12:34.920 les machines ont remplacé 0:12:36.480,0:12:38.856 le bétail, le travail manuel, 0:12:38.880,0:12:41.376 de nos jours, elles s'attaquent[br]à des diplômés 0:12:41.400,0:12:44.020 ou des personnes politiquement influentes. 0:12:44.020,0:12:46.506 En tant que personne[br]qui les a combattues et a perdu, 0:12:46.506,0:12:49.110 je suis là pour dire que[br]c'est une excellente nouvelle. 0:12:51.000,0:12:53.216 Un jour, toutes les professions 0:12:53.240,0:12:55.336 devront faire face à cette pression 0:12:55.360,0:13:00.960 ou bien cela voudra dire que l'humanité[br]a cessé de progresser. 0:13:02.760,0:13:04.030 Ce n'est pas à nous 0:13:05.440,0:13:07.160 de choisir 0:13:08.480,0:13:11.200 où et quand le progrès technologique[br]s'arrêtera. 0:13:13.160,0:13:14.520 On ne peut pas 0:13:15.960,0:13:17.456 ralentir. 0:13:17.480,0:13:19.296 À vrai dire, 0:13:19.320,0:13:21.240 nous devons accélérer. 0:13:24.600,0:13:27.240 Notre technologie excelle[br]lorsqu'il s'agit d'effacer 0:13:29.200,0:13:32.560 de nos vies difficultés et incertitudes, 0:13:35.000,0:13:37.816 et nous devons donc partir à la recherche 0:13:37.840,0:13:39.696 de défis plus grands, 0:13:39.720,0:13:43.800 plus incertains encore. 0:13:48.200,0:13:49.400 Les machines 0:13:51.880,0:13:53.696 font des calculs. 0:13:53.720,0:13:55.296 Nous comprenons les choses. 0:13:55.320,0:13:57.360 Les machines reçoivent des instructions. 0:13:58.840,0:14:00.696 Nous avons des buts. 0:14:00.720,0:14:03.000 Les machines ont pour elles 0:14:05.080,0:14:06.296 l'objectivité. 0:14:06.320,0:14:07.520 Nous avons la passion. 0:14:08.600,0:14:14.576 Nous ne devrions pas avoir peur de ce que[br]nos machines peuvent faire aujourd'hui. 0:14:14.600,0:14:19.176 Nous devrions plutôt nous inquiéter de ce[br]qu'elles ne peuvent toujours pas faire 0:14:19.200,0:14:24.696 car nous aurons besoin de l'aide[br]de ces nouvelles machines intelligentes 0:14:24.720,0:14:28.800 pour faire de nos rêves les plus fous[br]une réalité. 0:14:30.000,0:14:31.320 Et si nous échouons, 0:14:32.240,0:14:36.896 si nous échouons, ce n'est pas parce que[br]nos machines sont trop intelligentes 0:14:36.920,0:14:38.320 ou pas assez. 0:14:39.200,0:14:42.280 Si nous échouons, c'est parce que[br]nous nous sommes laissés aller 0:14:43.680,0:14:45.660 et avons rogné sur nos ambitions. 0:14:46.520,0:14:49.560 Notre humanité n'est pas définie[br]par un savoir-faire quelconque, 0:14:51.280,0:14:53.960 comme manier le marteau[br]ou même jouer aux échecs. 0:14:54.560,0:14:57.576 L'humanité ne peut faire qu'une chose. 0:14:57.600,0:14:58.800 Rêver. 0:15:00.120,0:15:02.656 Alors faisons de grands rêves. 0:15:02.680,0:15:03.896 Merci. 0:15:03.920,0:15:07.807 (Applaudissements)