0:00:10.847,0:00:13.799 Salut, Portland.[br]Merci de me recevoir. 0:00:14.038,0:00:15.498 J'adore venir ici à Portland. 0:00:15.522,0:00:18.625 Le petit-déjeuner est incroyable. 0:00:18.649,0:00:20.315 (Rires) 0:00:20.339,0:00:23.632 Et c'est une ville pleine de créateurs. 0:00:23.815,0:00:25.111 (Rires) 0:00:25.135,0:00:27.424 Combien d'entre vous sont des créateurs, 0:00:27.448,0:00:31.072 des stylistes, des ingénieurs,[br]des entrepreneurs, des artistes, 0:00:31.096,0:00:33.483 ou ont tout simplement[br]beaucoup d'imagination ? 0:00:33.507,0:00:35.355 Levez la main ? (Acclamation) 0:00:35.379,0:00:36.560 La plupart d'entre vous. 0:00:37.734,0:00:40.028 J'ai des nouvelles pour nous,[br]les créateurs. 0:00:41.114,0:00:43.687 Au cours des vingt prochaines années, 0:00:45.871,0:00:48.844 il y aura plus de changements[br]dans nos modes de travail 0:00:49.782,0:00:51.939 que dans les 2 000 ans précédents. 0:00:52.768,0:00:57.396 Je pense qu'on est à l'aube d'une[br]nouvelle ère de l'histoire de l'humanité. 0:00:58.045,0:01:02.624 Il y a eu quatre âges historiques majeurs[br]définis par nos modes de travail. 0:01:03.804,0:01:07.079 L'âge des chasseurs-cueilleurs a duré[br]plusieurs millions d'années. 0:01:07.563,0:01:11.139 Puis l'âge agricole a duré[br]plusieurs milliers d'années. 0:01:11.405,0:01:14.895 L'âge industriel s'est étendu[br]sur deux siècles. 0:01:14.919,0:01:18.728 Et maintenant l'âge de l'information[br]n'a duré que quelques décennies. 0:01:19.230,0:01:24.450 Et nous sommes à l'aube de notre prochain[br]grand âge en tant qu'espèce. 0:01:25.506,0:01:28.186 Bienvenus dans l'âge augmenté. 0:01:28.210,0:01:31.903 Dans cette nouvelle ère, vos capacités[br]humaines naturelles seront augmentées 0:01:31.927,0:01:34.995 par des systèmes informatiques[br]qui vous aideront à penser, 0:01:35.119,0:01:37.475 des systèmes robotiques qui aideront[br]à construire, 0:01:37.475,0:01:38.977 et un système nerveux central 0:01:39.001,0:01:42.691 qui vous reliera à un monde qui excède[br]celui de vos sens naturels. 0:01:44.947,0:01:46.889 Commençons par l'augmentation cognitive. 0:01:46.913,0:01:49.293 Combien d'entre vous [br]sont des cyborgs augmentés ? 0:01:49.293,0:01:51.545 (Rires) 0:01:51.569,0:01:53.084 Il y en a trois ou quatre. 0:01:53.108,0:01:54.791 C'est ça, Portland. 0:01:54.815,0:01:58.025 (Rires) 0:01:58.049,0:01:59.231 Ne changez rien ! 0:01:59.255,0:02:01.543 (Rires) 0:02:01.567,0:02:04.388 Je soutiendrais en fait que[br]nous sommes déjà augmentés. 0:02:05.048,0:02:06.552 Disons que vous êtes à une fête 0:02:06.576,0:02:10.096 et qu'on vous pose une question[br]à laquelle vous ne pouvez pas répondre. 0:02:10.120,0:02:13.880 Si vous avez ça, en quelques secondes,[br]vous avez la réponse. 0:02:14.629,0:02:16.928 Mais c'est là un balbutiement primitif. 0:02:17.623,0:02:20.954 Même Siri n'est qu'un outil passif. 0:02:21.420,0:02:24.801 En vérité, pendant trois millions[br]et demi d'années, 0:02:24.825,0:02:28.348 nos outils ont été complètement passifs. 0:02:29.563,0:02:33.218 Ils se contentent de faire ce qu'on leur[br]dit de faire et rien de plus. 0:02:33.242,0:02:36.343 Notre premier outil ne faisait que[br]couper là où on frappait. 0:02:37.382,0:02:40.422 Le ciseau ne sculpte que[br]là où l'artiste l'applique. 0:02:40.818,0:02:46.544 Et même nos outils les plus avancés[br]ne font rien sans instructions explicites. 0:02:47.598,0:02:50.779 En fait, jusqu'à maintenant,[br]et ça m'énerve vraiment, 0:02:50.803,0:02:52.311 nous avons toujours été limités 0:02:52.311,0:02:56.186 par ce besoin de mettre nos désirs[br]dans nos outils à la main, 0:02:56.186,0:02:58.237 je veux dire,[br]en utilisant nos mains, 0:02:58.237,0:02:59.549 même avec les ordinateurs. 0:03:00.662,0:03:03.125 Je suis plus comme Scotty[br]dans « Star Trek ». 0:03:03.149,0:03:04.999 (Rires) 0:03:05.023,0:03:07.169 Je veux pouvoir parler avec un ordinateur. 0:03:07.193,0:03:10.163 Je veux dire « Ordinateur, concevons[br]une voiture » 0:03:10.187,0:03:11.726 et il me montrerait une voiture. 0:03:11.750,0:03:14.458 Et je dirais : « D'allure plus rapide[br]et moins allemande » 0:03:14.458,0:03:16.545 et l'ordinateur me montre[br]un choix possible. 0:03:16.569,0:03:18.434 (Rires) 0:03:18.798,0:03:21.104 Cette conversation n'est pas[br]pour maintenant 0:03:21.128,0:03:23.793 et sans doute pour plus tôt[br]qu'on ne croit, 0:03:23.817,0:03:25.580 mais c'est maintenant 0:03:25.604,0:03:26.755 que nous y travaillons. 0:03:26.779,0:03:30.812 Les outils sont en train de passer[br]de la passivité à la capacité de création. 0:03:31.421,0:03:36.069 Les outils de conception générative[br]utilisent ordinateur et algorithmes 0:03:36.093,0:03:38.901 pour synthétiser la géométrie 0:03:38.925,0:03:41.679 et inventer de nouvelles conceptions[br]tout seuls. 0:03:42.126,0:03:44.874 Il leur faut seulement[br]vos buts et vos restrictions. 0:03:44.898,0:03:46.306 Je vous donne un exemple. 0:03:46.330,0:03:49.118 Pour le châssis de ce drone, 0:03:49.142,0:03:51.768 tout ce que vous devez faire[br]c'est lui dire, en gros, 0:03:51.792,0:03:53.065 il faut quatre hélices, 0:03:53.089,0:03:55.220 et qu'il soit le plus léger possible, 0:03:55.244,0:03:57.514 et qu'il soit aérodynamique. 0:03:57.538,0:04:02.452 Ensuite, l'ordinateur examine[br]toutes les possibilités : 0:04:02.476,0:04:06.403 chaque possibilité qui répond[br]à vos critères 0:04:06.427,0:04:07.869 et il y en a des millions. 0:04:07.893,0:04:09.868 L'ordinateur doit être énorme pour ça. 0:04:09.892,0:04:11.847 Mais il nous présente des conceptions 0:04:11.871,0:04:15.014 que nous n'aurions jamais pu imaginer[br]sans lui. 0:04:15.456,0:04:18.368 Et l'ordinateur trouve tout ça tout seul. 0:04:18.392,0:04:20.070 Personne n'a rien dessiné, 0:04:20.094,0:04:22.180 et il a fait tout ça à partir de rien. 0:04:23.168,0:04:25.555 Au fait, ce n'est pas un hasard 0:04:25.579,0:04:29.060 si le drone ressemble au pelvis[br]d'un écureuil volant. 0:04:29.231,0:04:32.146 (Rires) 0:04:32.170,0:04:34.472 C'est que les algorithmes sont conçus 0:04:34.496,0:04:36.133 pour mimer l'évolution. 0:04:37.045,0:04:39.705 Et c'est génial qu'on commence à voir[br]cette technologie 0:04:39.729,0:04:40.888 dans la vraie vie. 0:04:40.912,0:04:43.364 Cela fait deux ans[br]qu'on travaille avec Airbus 0:04:43.388,0:04:45.297 sur cette idée d'avion du futur. 0:04:45.321,0:04:47.391 Il faudra encore du temps. 0:04:47.415,0:04:51.195 Mais récemment nous avons utilisé[br]un robot de conception générative 0:04:51.219,0:04:53.026 pour créer ceci. 0:04:53.939,0:04:59.092 Cette cloison pour cabine imprimée en 3D[br]a été conçue par un ordinateur. 0:04:59.116,0:05:01.940 Elle est plus solide que celle d'avant[br]et pèse moitié moins. 0:05:01.964,0:05:05.110 Elle sera utilisée en vol dans[br]l'Airbus A320 cette année. 0:05:06.835,0:05:09.024 Les ordinateurs peuvent créer. 0:05:09.048,0:05:13.643 Ils peuvent apporter des solutions[br]à nos problèmes bien définis. 0:05:14.737,0:05:16.227 Mais ils ne sont pas intuitifs. 0:05:16.227,0:05:19.157 Ils doivent recommencer du début[br]à chaque fois 0:05:19.181,0:05:21.871 parce qu'ils n'apprennent jamais. 0:05:22.768,0:05:24.534 Pas comme Maggie. 0:05:24.558,0:05:26.139 (Rires) 0:05:26.163,0:05:29.610 Elle est plus intelligente que nos outils[br]de conception les plus avancés. 0:05:29.867,0:05:31.367 C'est-à-dire ? 0:05:31.391,0:05:32.981 Quand son maître prend sa laisse, 0:05:33.005,0:05:35.073 Maggie estime assez justement 0:05:35.097,0:05:36.501 qu'elle va en promenade. 0:05:36.525,0:05:37.750 Comment a-t-elle appris ? 0:05:37.750,0:05:41.058 Chaque fois qu'il a pris sa laisse,[br]la promenade a suivi. 0:05:41.082,0:05:42.960 Et Maggie a fait trois choses : 0:05:42.984,0:05:44.853 elle a fait attention, 0:05:44.877,0:05:46.959 elle s'est rappelée ce qui s'est passé 0:05:46.983,0:05:51.000 et elle a retenu cette succession[br]d'événements. 0:05:51.889,0:05:53.984 Tiens, tiens, c'est exactement ce que 0:05:54.008,0:05:56.871 les spécialistes tentent d'inculquer[br]aux robots intelligents 0:05:56.871,0:05:58.414 depuis 60 ans. 0:05:59.783,0:06:01.132 En 1952, 0:06:01.156,0:06:04.957 ils ont construit cet ordinateur[br]qui pouvait jouer au morpion. 0:06:06.181,0:06:07.341 Super. 0:06:08.129,0:06:11.129 Et puis en 1997, 45 ans plus tard, 0:06:11.153,0:06:13.625 Deep Blue a battu Kasparov aux échecs. 0:06:15.146,0:06:20.114 En 2011, Watson a battu deux humains[br]à Jeopardy, 0:06:20.138,0:06:23.066 ce qui est bien plus dur que les échecs[br]pour un ordinateur. 0:06:23.090,0:06:26.902 Plutôt que d'utiliser des recettes[br]prédéfinies, 0:06:26.926,0:06:30.249 Watson a dû réfléchir rationnellement[br]pour gagner. 0:06:31.493,0:06:33.932 Et il y a deux semaines, 0:06:33.956,0:06:38.218 AlphaGo de DeepMind a battu[br]les meilleurs joueurs de go humains 0:06:38.242,0:06:40.454 et le go est le jeu le plus difficile. 0:06:40.478,0:06:43.974 Il y a plus de mouvements possibles[br]au jeu de go 0:06:43.998,0:06:46.022 que d'atomes dans l'univers. 0:06:47.910,0:06:49.736 Donc pour gagner, 0:06:49.760,0:06:52.774 AlphaGo a dû développer son intuition. 0:06:52.798,0:06:56.908 Et en fait, à certains moments,[br]ses programmeurs n'ont pas compris 0:06:56.932,0:06:59.218 les raisons derrière ses choix. 0:07:01.151,0:07:02.811 Et tout va très vite. 0:07:02.835,0:07:06.062 Pensez donc... au cours d'une vie humaine, 0:07:06.086,0:07:08.319 les ordinateurs, des jeux pour enfants, 0:07:09.620,0:07:12.668 sont passés à la pointe[br]de la réflexion stratégique. 0:07:13.699,0:07:16.116 Ce qui se produit en gros, 0:07:16.140,0:07:19.450 c'est que les ordinateurs,[br]qui étaient comme Spock, 0:07:20.474,0:07:22.423 deviennent Kirk. 0:07:22.447,0:07:26.065 (Rires) 0:07:26.089,0:07:29.513 Pas vrai ? De la logique pure[br]à l'intuition. 0:07:31.584,0:07:33.327 Ça vous dit de traverser ce pont ? 0:07:34.009,0:07:36.332 Vous avez l'air de dire[br]« Ça va pas, non ? » 0:07:36.356,0:07:37.664 (Rires) 0:07:37.688,0:07:40.345 Et vous avez décidé ça en[br]une fraction de seconde. 0:07:40.369,0:07:42.797 Vous saviez que le pont était dangereux. 0:07:42.821,0:07:44.810 Et c'est exactement ce genre d'intuition 0:07:44.834,0:07:48.402 que nos systèmes d'apprentissage avancé[br]développent en ce moment. 0:07:49.122,0:07:50.829 Bientôt, vous pourrez 0:07:50.853,0:07:53.782 montrer quelque chose que vous avez conçu[br]à un ordinateur, 0:07:53.806,0:07:55.439 et il le regardera et dira : 0:07:55.463,0:07:58.286 « Désolé, mon pote, ça ne marchera jamais.[br]Essaie encore. » 0:07:59.254,0:08:02.634 Vous pourrez lui demander si le[br]public aimera votre nouvelle chanson 0:08:03.173,0:08:05.236 ou votre nouveau parfum de glace. 0:08:06.949,0:08:09.528 Ou, plus crucial encore, 0:08:09.552,0:08:11.916 on peut travailler ensemble[br]à résoudre un problème 0:08:11.940,0:08:13.577 encore jamais abordé. 0:08:13.601,0:08:15.092 Comme le changement climatique. 0:08:15.092,0:08:17.046 On n'est pas très efficaces à nous seuls 0:08:17.070,0:08:19.315 et on va avoir besoin d'aide. 0:08:19.339,0:08:20.797 C'est ce que je veux dire, 0:08:20.821,0:08:23.376 la technologie amplifie[br]nos capacités cognitives 0:08:23.400,0:08:26.952 de sorte que nous pouvons imaginer[br]et concevoir des choses impossibles 0:08:26.976,0:08:29.535 avec nos capacités d'humains[br]non augmentés. 0:08:31.384,0:08:34.325 Et que dire de la production[br]de ces produits fous 0:08:34.349,0:08:36.790 que nous allons inventer et concevoir ? 0:08:37.352,0:08:41.445 Je pense que l'ère de l'humain augmenté[br]concerne tout autant le monde physique 0:08:41.469,0:08:44.534 que le monde virtuel et intellectuel. 0:08:45.233,0:08:47.544 Comment la technologie[br]va-t-elle nous augmenter ? 0:08:47.565,0:08:50.038 Dans le monde physique,[br]par les systèmes robotiques. 0:08:51.620,0:08:53.356 Bon, il y a cette peur 0:08:53.380,0:08:55.868 des robots qui prendraient les jobs[br]des humains 0:08:55.892,0:08:58.072 et c'est le cas dans certains secteurs. 0:08:58.174,0:09:01.052 Mais ce qui m'intéresse plus, c'est l'idée 0:09:01.076,0:09:06.086 que robots et humains travaillant ensemble[br]vont s'augmenter les uns les autres 0:09:06.110,0:09:08.168 et occuper un nouvel espace. 0:09:08.192,0:09:10.784 Voici notre labo de recherche appliquée[br]à San Francisco 0:09:10.784,0:09:13.720 où l'un de nos domaines de recherche[br]est la robotique avancée 0:09:13.744,0:09:16.255 et plus précisément la collaboration[br]humain/robot. 0:09:17.034,0:09:19.793 Et voici Bishop, l'un de nos robots. 0:09:19.817,0:09:21.606 Dans une expérience, il devait 0:09:21.630,0:09:25.090 aider une personne à faire des tâches[br]de construction répétitives 0:09:25.984,0:09:30.178 comme faire des trous pour des prises[br]dans des plaques de plâtre. 0:09:30.202,0:09:32.668 (Rires) 0:09:33.877,0:09:37.138 Son partenaire humain peut lui dire quoi[br]faire dans un anglais simple 0:09:37.138,0:09:38.317 avec des gestes simples, 0:09:38.341,0:09:39.788 comme s'il parlait à un chien. 0:09:39.812,0:09:41.955 Et puis Bishop suit les instructions 0:09:41.979,0:09:43.871 avec une précision parfaite. 0:09:43.895,0:09:46.884 On utilise chez l'humain[br]ce qu'il a d'efficace : 0:09:46.908,0:09:49.241 vigilance, perception et[br]prise de décision. 0:09:49.265,0:09:51.505 Et chez le robot,[br]ce qu'il maîtrise mieux : 0:09:51.529,0:09:53.277 la précision et la répétition. 0:09:54.252,0:09:56.619 Voici un autre projet sympa avec Bishop. 0:09:56.643,0:09:59.718 Le but du projet, qu'on a appelé le HIVE, 0:09:59.742,0:10:03.593 était de voir ce qui se passe[br]quand humains, ordinateurs et robots 0:10:03.617,0:10:06.837 travaillent ensemble à résoudre un[br]problème de conception complexe. 0:10:07.793,0:10:09.484 Les humains étaient la main d'œuvre 0:10:09.484,0:10:12.741 sur le site de construction,[br]manipulaient le bambou, 0:10:12.765,0:10:15.521 le bambou qui est d'ailleurs,[br]étant non isomorphe, 0:10:15.545,0:10:17.419 très compliqué pour les robots. 0:10:17.543,0:10:19.865 Les robots ont fait[br]cet enroulement de fibres 0:10:19.889,0:10:22.340 presqu'impossible à faire pour un humain. 0:10:22.364,0:10:25.985 Et une machine d'intelligence artificielle[br]contrôlait le tout. 0:10:26.109,0:10:29.399 Elle disait aux humains quoi faire,[br]et aux robots, 0:10:29.423,0:10:32.338 et surveillait des milliers de[br]composants individuels. 0:10:32.362,0:10:33.542 Et surtout, 0:10:33.566,0:10:36.707 construire ce pavillon était impossible 0:10:36.731,0:10:41.255 sans qu'humains, robots et machines[br]intelligentes ne s'augmentent. 0:10:42.390,0:10:45.710 Bon, je vais parler d'un autre projet.[br]Celui-là est un peu fou. 0:10:47.734,0:10:52.202 Nous travaillons avec Joris Laarman,[br]artiste d'Amsterdam, et son équipe à MX3D 0:10:53.526,0:10:56.624 pour concevoir de manière générative[br]et imprimer avec la robotique 0:10:56.624,0:10:59.423 le premier pont construit[br]de façon autonome. 0:11:01.015,0:11:04.700 Joris et une intelligence artificielle[br]le conçoivent en ce moment 0:11:04.724,0:11:05.896 à Amsterdam. 0:11:06.620,0:11:09.211 Quand ils auront fini, on appuiera[br]sur « lancement » 0:11:09.235,0:11:12.546 et les robots se mettront à imprimer[br]en 3D et en inox. 0:11:12.570,0:11:15.853 Et ils imprimeront toujours et encore[br]sans intervention humaine 0:11:15.877,0:11:18.015 jusqu'à ce que le pont soit construit. 0:11:18.769,0:11:21.697 Les ordinateurs vont augmenter[br]notre capacité 0:11:21.721,0:11:23.871 à imaginer et concevoir des nouveautés, 0:11:23.895,0:11:26.950 et les systèmes robotiques vont nous aider[br]à fabriquer des choses 0:11:26.950,0:11:28.898 que nous n'avons jamais pu fabriquer. 0:11:30.017,0:11:34.177 Qu'en est-il de notre capacité à percevoir[br]et contrôler tout ça ? 0:11:34.201,0:11:38.232 Et si les choses que nous fabriquons[br]avaient un système nerveux central ? 0:11:40.486,0:11:42.998 Notre système nerveux d'humains 0:11:43.022,0:11:45.333 nous dit tout ce qu'il se passe[br]autour de nous. 0:11:46.086,0:11:49.469 Mais le système nerveux des choses[br]que nous fabriquons est rudimentaire. 0:11:49.469,0:11:51.578 Et même plutôt merdique. 0:11:51.602,0:11:52.930 (Rires) 0:11:52.954,0:11:56.817 Par exemple, une voiture ne dit pas[br]au service municipal des voiries 0:11:56.841,0:11:59.971 qu'elle a roulé sur un nid-de-poule. 0:12:01.295,0:12:03.327 Un bâtiment ne dit pas à ses concepteurs 0:12:03.351,0:12:06.035 si les gens à l'intérieur aiment y être 0:12:07.659,0:12:10.669 et le fabricant de jouets ne sait pas 0:12:10.693,0:12:12.700 si on joue vraiment avec ce jouet, 0:12:12.724,0:12:15.263 ni comment ni où et si c'est sympa. 0:12:15.880,0:12:19.694 Je suis sûr que ses concepteurs[br]avaient ça en tête pour Barbie 0:12:19.718,0:12:20.942 quand ils l'ont conçue. 0:12:20.966,0:12:22.413 (Rires) 0:12:23.237,0:12:26.143 Et si Barbie était en fait très seule ? 0:12:26.167,0:12:30.302 (Rires) 0:12:30.326,0:12:31.614 Si les concepteurs savaient 0:12:31.638,0:12:33.745 ce qu'il se passe vraiment dans la vie 0:12:33.769,0:12:36.352 pour leurs créations (la route,[br]le bâtiment, Barbie), 0:12:36.376,0:12:39.070 ils pourraient utiliser ce savoir[br]et créer une expérience 0:12:39.094,0:12:40.494 optimale pour l'utilisateur. 0:12:40.518,0:12:42.309 Il manque un système nerveux central 0:12:42.333,0:12:46.042 qui nous connecte à tout ce que[br]l'on conçoit, fabrique et utilise. 0:12:46.975,0:12:50.530 Et si nous avions tous ce genre[br]d'informations provenant 0:12:50.554,0:12:52.737 des choses que nous créons dans la vie ? 0:12:54.492,0:12:55.943 Pour vendre ce qu'on fabrique, 0:12:55.967,0:12:58.402 nous dépensons des montagnes[br]d'argent et d'énergie 0:12:58.426,0:13:00.802 (deux mille milliards[br]de dollars l'an passé) 0:13:00.826,0:13:03.680 à convaincre les gens[br]d'acheter nos produits. 0:13:03.704,0:13:07.092 Si on avait cette connexion avec[br]les choses qu'on invente 0:13:07.116,0:13:08.843 une fois qu'ils sont dans le monde, 0:13:08.867,0:13:12.481 après leur achat ou leur mise en vente, 0:13:12.505,0:13:14.125 nous pourrions changer ça 0:13:14.149,0:13:17.596 et au lieu de convaincre les gens[br]d'acheter nos produits, 0:13:17.620,0:13:21.054 nous produirions ce que les gens veulent. 0:13:24.478,0:13:27.655 Bonne nouvelle : nous travaillons[br]sur des systèmes nerveux digitaux 0:13:27.655,0:13:30.090 qui nous connectent à nos créations. 0:13:31.225,0:13:32.852 Nous travaillons sur un projet 0:13:32.876,0:13:37.888 avec des gens de Los Angeles,[br]les Bandito Brothers, 0:13:37.912,0:13:39.319 et leur équipe. 0:13:39.343,0:13:42.776 Ils construisent notamment[br]des voitures de fou 0:13:42.800,0:13:45.673 qu font des trucs de fou. 0:13:47.065,0:13:48.515 Ces mecs sont fous 0:13:48.539,0:13:49.575 (Rires) 0:13:49.599,0:13:51.002 dans le bon sens du terme. 0:13:54.793,0:13:56.556 Voilà ce qu'on fait avec eux : 0:13:56.580,0:13:59.080 on donne au châssis d'une voiture[br]de course classique 0:13:59.080,0:14:00.629 un système nerveux. 0:14:00.653,0:14:03.771 On l'a appareillé avec des dizaines[br]de capteurs, 0:14:03.795,0:14:06.430 on a mis un pilote d'élite au volant, 0:14:06.454,0:14:09.811 et on l'a conduite à fond dans le désert[br]pendant une semaine. 0:14:09.835,0:14:12.326 Et son système nerveux a tout retenu 0:14:12.350,0:14:13.832 de ce qui arrivait. 0:14:13.856,0:14:16.477 On a capturé quatre milliards de données 0:14:16.501,0:14:18.811 sur les forces auxquelles[br]elle était soumise. 0:14:18.835,0:14:20.494 Et puis on a fait un truc fou. 0:14:21.238,0:14:22.738 On a mis toutes ces données 0:14:22.762,0:14:26.498 dans une intelligence artificielle de[br]conception générative, Dreamcatcher. 0:14:27.240,0:14:31.204 Qu'obtient-on quand on donne à un outil[br]de conception un système nerveux 0:14:31.228,0:14:34.110 et qu'on lui dit de construire[br]le châssis de voiture ultime ? 0:14:34.693,0:14:36.666 Ça. 0:14:38.263,0:14:41.976 Voilà quelque chose qu'un humain[br]n'aurait jamais pu concevoir. 0:14:42.677,0:14:44.565 Mais un humain l'a pourtant conçu, 0:14:44.589,0:14:48.898 un humain augmenté par une intelligence[br]artificielle de conception générative, 0:14:48.922,0:14:50.223 un système nerveux digital 0:14:50.223,0:14:53.182 et des robots qui peuvent construire ça. 0:14:54.150,0:14:57.745 Si l'avenir est là, dans l'âge augmenté, 0:14:57.769,0:15:02.030 et que nos capacités cognitives, physiques[br]et perceptives sont augmentées, 0:15:02.054,0:15:03.462 à quoi cela ressemblera ? 0:15:04.046,0:15:06.712 Comment sera cet âge d'or ? 0:15:08.291,0:15:10.900 Je pense que notre monde 0:15:10.924,0:15:13.992 va passer des choses qu'on fabrique 0:15:15.101,0:15:16.546 aux choses qu'on cultive. 0:15:18.429,0:15:22.374 On passera des choses qu'on construit 0:15:22.398,0:15:24.102 à celles qu'on fait pousser. 0:15:26.504,0:15:28.692 On passera de l'isolement 0:15:29.660,0:15:31.270 à la connexion. 0:15:33.104,0:15:36.015 Et on abandonnera l'extraction 0:15:36.039,0:15:37.912 au bénéfice de l'agrégation. 0:15:40.437,0:15:44.204 Je pense qu'on passera aussi du besoin[br]de voir nos objets nous obéir 0:15:45.128,0:15:46.769 à l'appréciation de l'autonomie. 0:15:49.480,0:15:51.385 Grâce à nos capacités augmentées, 0:15:51.409,0:15:53.786 notre monde va être transformé. 0:15:54.702,0:15:58.305 Représentez-vous[br]le microcosme d'un récif corallien. 0:15:58.836,0:16:02.082 Nous aurons un monde plus varié,[br]plus connecté, 0:16:02.106,0:16:04.393 plus dynamique, plus complexe, 0:16:04.417,0:16:06.735 plus flexible et bien sûr, 0:16:06.759,0:16:07.976 plus beau. 0:16:08.741,0:16:10.305 Ce qui nous attend 0:16:10.329,0:16:12.619 ne ressemblera à rien de ce qui a précédé. 0:16:12.643,0:16:13.802 Pourquoi ? 0:16:13.826,0:16:17.581 Parce que toutes ces choses seront[br]façonnées par cette collaboration nouvelle 0:16:17.605,0:16:21.275 entre technologie, nature et humanité. 0:16:22.789,0:16:26.593 Pour moi, c'est là un avenir[br]qui vaut bien la peine d'être vu. 0:16:26.617,0:16:27.888 Merci beaucoup à vous. 0:16:27.912,0:16:34.912 (Applaudissements)