0:00:00.735,0:00:03.024 Combien d'entre vous sont des créateurs, 0:00:03.048,0:00:06.672 des stylistes, des ingénieurs,[br]des entrepreneurs, des artistes, 0:00:06.696,0:00:09.083 ou ont tout simplement[br]beaucoup d'imagination ? 0:00:09.107,0:00:10.955 Levez la main ? (Acclamation) 0:00:10.979,0:00:12.160 La plupart d'entre vous. 0:00:13.334,0:00:15.628 J'ai des nouvelles pour nous,[br]les créateurs. 0:00:16.714,0:00:19.287 Au cours des vingt prochaines années, 0:00:21.471,0:00:24.444 il y aura plus de changements[br]dans nos modes de travail 0:00:25.382,0:00:27.539 que dans les 2 000 ans précédents. 0:00:28.511,0:00:33.139 Je pense qu'on est à l'aube d'une[br]nouvelle ère de l'histoire de l'humanité. 0:00:33.645,0:00:38.406 Il y a eu quatre âges historiques majeurs[br]définis par nos modes de travail. 0:00:39.404,0:00:42.679 L'âge des chasseurs-cueilleurs a duré[br]plusieurs millions d'années. 0:00:43.163,0:00:46.739 Puis l'âge agricole a duré[br]plusieurs milliers d'années. 0:00:47.195,0:00:50.685 L'âge industriel s'est étendu[br]sur deux siècles. 0:00:50.709,0:00:54.996 Et maintenant l'âge de l'information[br]n'a duré que quelques décennies. 0:00:55.020,0:01:00.240 Et nous sommes à l'aube de notre prochain[br]grand âge en tant qu'espèce. 0:01:01.296,0:01:03.976 Bienvenus dans l'âge augmenté. 0:01:04.000,0:01:07.693 Dans cette nouvelle ère, vos capacités[br]humaines naturelles seront augmentées 0:01:07.717,0:01:10.785 par des systèmes informatiques[br]qui vous aideront à penser, 0:01:10.809,0:01:13.175 des systèmes robotiques qui aideront[br]à construire, 0:01:13.175,0:01:14.667 et un système nerveux central 0:01:14.691,0:01:18.381 qui vous reliera à un monde qui excède[br]celui de vos sens naturels. 0:01:19.437,0:01:21.379 Commençons par l'augmentation cognitive. 0:01:21.403,0:01:23.903 Combien d'entre vous [br]sont des cyborgs augmentés ? 0:01:24.133,0:01:26.783 (Rires) 0:01:26.807,0:01:29.628 Je soutiendrais en fait que[br]nous sommes déjà augmentés. 0:01:30.288,0:01:31.792 Disons que vous êtes à une fête 0:01:31.816,0:01:35.336 et qu'on vous pose une question[br]à laquelle vous ne pouvez pas répondre. 0:01:35.360,0:01:39.120 Si vous avez ça, en quelques secondes,[br]vous avez la réponse. 0:01:39.869,0:01:42.168 Mais c'est là un balbutiement primitif. 0:01:42.863,0:01:46.194 Même Siri n'est qu'un outil passif. 0:01:46.660,0:01:50.041 En vérité, pendant trois millions[br]et demi d'années, 0:01:50.065,0:01:53.174 nos outils ont été complètement passifs. 0:01:54.203,0:01:57.858 Ils se contentent de faire ce qu'on leur[br]dit de faire et rien de plus. 0:01:57.882,0:02:00.983 Notre premier outil ne faisait que[br]couper là où on frappait. 0:02:01.822,0:02:04.862 Le ciseau ne sculpte que[br]là où l'artiste l'applique. 0:02:05.343,0:02:10.984 Et même nos outils les plus avancés[br]ne font rien sans instructions explicites. 0:02:11.008,0:02:14.189 En fait, jusqu'à maintenant,[br]et ça m'énerve vraiment, 0:02:14.213,0:02:15.701 nous avons toujours été limités 0:02:15.701,0:02:19.186 par ce besoin de mettre nos désirs[br]dans nos outils à la main, 0:02:19.210,0:02:21.607 je veux dire, manuellement,[br]en utilisant nos mains, 0:02:21.607,0:02:22.959 même avec les ordinateurs. 0:02:24.072,0:02:26.655 Je suis plus comme Scotty[br]dans « Star Trek ». 0:02:26.815,0:02:28.409 (Rires) 0:02:28.433,0:02:30.579 Je veux pouvoir parler avec un ordinateur. 0:02:30.603,0:02:33.573 Je veux dire « Ordinateur, concevons[br]une voiture » 0:02:33.597,0:02:35.136 et il me montrerait une voiture. 0:02:35.160,0:02:37.898 Et je dirais : « D'allure plus rapide[br]et moins allemande » 0:02:37.898,0:02:39.955 et l'ordinateur me montre[br]un choix possible. 0:02:39.979,0:02:41.844 (Rires) 0:02:42.208,0:02:44.514 Cette conversation n'est pas[br]pour maintenant 0:02:44.538,0:02:47.203 et sans doute pour plus tôt[br]qu'on ne croit, 0:02:47.227,0:02:48.990 mais c'est maintenant 0:02:49.014,0:02:50.165 que nous y travaillons. 0:02:50.189,0:02:54.222 Les outils sont en train de passer[br]de la passivité à la capacité de création. 0:02:54.831,0:02:58.249 Les outils de conception générative[br]utilisent ordinateur et algorithmes 0:02:58.249,0:03:00.771 pour synthétiser la géométrie 0:03:00.795,0:03:03.549 et inventer de nouvelles conceptions[br]tout seuls. 0:03:03.996,0:03:06.744 Il leur faut seulement[br]vos buts et vos restrictions. 0:03:06.768,0:03:08.176 Je vous donne un exemple. 0:03:08.200,0:03:10.988 Pour le châssis de ce drone, 0:03:11.012,0:03:13.638 tout ce que vous devez faire[br]c'est lui dire, en gros, 0:03:13.662,0:03:14.935 il faut quatre hélices, 0:03:14.959,0:03:17.090 et qu'il soit le plus léger possible, 0:03:17.114,0:03:19.384 et qu'il soit aérodynamique. 0:03:19.408,0:03:24.322 Ensuite, l'ordinateur examine[br]toutes les possibilités : 0:03:24.346,0:03:28.273 chaque possibilité qui répond[br]à vos critères 0:03:28.297,0:03:29.739 et il y en a des millions. 0:03:29.763,0:03:31.738 L'ordinateur doit être énorme pour ça. 0:03:31.762,0:03:33.717 Mais il nous présente des conceptions 0:03:33.741,0:03:36.884 que nous n'aurions jamais pu imaginer[br]sans lui. 0:03:37.326,0:03:40.238 Et l'ordinateur trouve tout ça tout seul. 0:03:40.262,0:03:41.940 Personne n'a rien dessiné, 0:03:41.964,0:03:44.050 et il a fait tout ça à partir de rien. 0:03:45.038,0:03:47.425 Au fait, ce n'est pas un hasard 0:03:47.449,0:03:50.930 si le drone ressemble au pelvis[br]d'un écureuil volant. 0:03:51.287,0:03:53.294 (Rires) 0:03:54.040,0:03:58.118 C'est que les algorithmes sont conçus[br]pour se comporter comme l'évolution. 0:03:58.715,0:04:01.375 Et c'est génial qu'on commence à voir[br]cette technologie 0:04:01.399,0:04:02.558 dans la vraie vie. 0:04:02.582,0:04:05.034 Cela fait deux ans[br]qu'on travaille avec Airbus 0:04:05.058,0:04:06.967 sur cette idée d'avion du futur. 0:04:06.991,0:04:09.061 Il faudra encore du temps. 0:04:09.085,0:04:12.865 Mais récemment nous avons utilisé[br]un robot de conception générative 0:04:12.889,0:04:14.696 pour créer ceci. 0:04:15.609,0:04:20.762 Cette cloison pour cabine imprimée en 3D[br]a été conçue par un ordinateur. 0:04:20.786,0:04:23.900 Elle est plus solide que la cloison[br]initiale et pèse moitié moins. 0:04:23.900,0:04:26.780 Elle sera utilisée en vol dans[br]l'Airbus A320 cette année. 0:04:27.405,0:04:28.964 Les ordinateurs peuvent créer. 0:04:28.988,0:04:33.583 Ils peuvent apporter des solutions[br]à nos problèmes bien définis. 0:04:34.677,0:04:36.187 Mais ils ne sont pas intuitifs. 0:04:36.187,0:04:39.097 Ils doivent recommencer du début[br]à chaque fois 0:04:39.121,0:04:41.686 parce qu'ils n'apprennent jamais. 0:04:42.368,0:04:44.134 Pas comme Maggie. 0:04:44.158,0:04:45.739 (Rires) 0:04:45.763,0:04:49.430 Elle est plus intelligente que nos outils[br]de conception les plus avancés. 0:04:49.467,0:04:50.907 C'est-à-dire ? 0:04:50.931,0:04:52.521 Quand son maître prend sa laisse, 0:04:52.545,0:04:54.613 Maggie estime assez justement 0:04:54.637,0:04:56.041 qu'elle va en promenade. 0:04:56.065,0:04:57.270 Comment a-t-elle appris ? 0:04:57.300,0:05:00.598 Chaque fois qu'il a pris sa laisse,[br]la promenade a suivi. 0:05:00.622,0:05:02.500 Et Maggie a fait trois choses : 0:05:02.524,0:05:04.393 elle a fait attention, 0:05:04.417,0:05:06.499 elle s'est rappelée ce qui s'est passé 0:05:06.523,0:05:10.540 et elle a retenu cette succession[br]d'événements. 0:05:11.429,0:05:13.524 Tiens, tiens, c'est exactement ce que 0:05:13.548,0:05:16.411 les spécialistes tentent d'inculquer[br]aux robots intelligents 0:05:16.435,0:05:17.954 depuis 60 ans. 0:05:18.683,0:05:20.032 En 1952, 0:05:20.056,0:05:23.857 ils ont construit cet ordinateur[br]qui pouvait jouer au morpion. 0:05:25.081,0:05:26.241 Super. 0:05:27.029,0:05:30.029 Et puis en 1997, 45 ans plus tard, 0:05:30.053,0:05:32.525 Deep Blue a battu Kasparov aux échecs. 0:05:34.046,0:05:39.014 En 2011, Watson a battu deux humains[br]à Jeopardy, 0:05:39.038,0:05:41.966 ce qui est bien plus dur que les échecs[br]pour un ordinateur. 0:05:41.990,0:05:45.802 Plutôt que d'utiliser des recettes[br]prédéfinies, 0:05:45.826,0:05:49.149 Watson a dû réfléchir rationnellement[br]pour gagner. 0:05:50.393,0:05:52.832 Et il y a deux semaines, 0:05:52.856,0:05:57.118 AlphaGo de DeepMind a battu[br]les meilleurs joueurs de go humains 0:05:57.142,0:05:59.354 et le go est le jeu le plus difficile. 0:05:59.378,0:06:02.274 Il y a plus de mouvements possibles[br]au jeu de go 0:06:02.298,0:06:04.322 que d'atomes dans l'univers. 0:06:06.210,0:06:08.036 Donc pour gagner, 0:06:08.060,0:06:10.678 AlphaGo a dû développer son intuition. 0:06:11.098,0:06:15.208 Et en fait, à certains moments,[br]ses programmeurs n'ont pas compris 0:06:15.232,0:06:17.518 les raisons derrière ses choix. 0:06:19.451,0:06:21.111 Et tout va très vite. 0:06:21.135,0:06:24.362 Pensez donc... au cours d'une vie humaine, 0:06:24.386,0:06:26.619 les ordinateurs, des jeux pour enfants, 0:06:27.920,0:06:30.968 sont passés à la pointe[br]de la réflexion stratégique. 0:06:31.999,0:06:34.416 Ce qui se produit en gros, 0:06:34.440,0:06:37.750 c'est que les ordinateurs,[br]qui étaient comme Spock, 0:06:37.774,0:06:39.723 deviennent Kirk. 0:06:39.747,0:06:43.365 (Rires) 0:06:43.389,0:06:47.333 Pas vrai ? De la logique pure[br]à l'intuition. 0:06:48.184,0:06:50.437 Ça vous dirait de traverser ce pont ? 0:06:50.609,0:06:52.932 Vous avez l'air de dire[br]« Ça va pas, non ? » 0:06:52.956,0:06:54.264 (Rires) 0:06:54.288,0:06:56.945 Et vous avez décidé ça en[br]une fraction de seconde. 0:06:56.969,0:06:59.397 Vous saviez que le pont était dangereux. 0:06:59.421,0:07:01.410 Et c'est exactement ce genre d'intuition 0:07:01.434,0:07:05.002 que nos systèmes d'apprentissage avancé[br]développent en ce moment. 0:07:05.722,0:07:07.429 Bientôt, vous pourrez 0:07:07.453,0:07:09.659 montrer quelque chose que vous avez conçu 0:07:09.683,0:07:10.836 à un ordinateur, 0:07:10.860,0:07:12.349 et il le regardera et dira : 0:07:12.373,0:07:15.196 « Désolé, mon pote, ça ne marchera jamais.[br]Essaie encore. » 0:07:15.854,0:07:19.734 Ou vous pourrez lui demander si le[br]public aimera votre prochaine chanson 0:07:19.773,0:07:21.836 ou votre nouveau parfum de glace. 0:07:23.549,0:07:26.128 Ou, plus crucial encore, 0:07:26.152,0:07:28.526 on peut travailler ensemble[br]à résoudre un problème 0:07:28.556,0:07:30.177 encore jamais abordé. 0:07:30.201,0:07:31.712 Comme le changement climatique. 0:07:31.712,0:07:33.646 Nous ne sommes pas très efficaces seuls 0:07:33.670,0:07:35.915 et nous allons avoir besoin d'aide. 0:07:35.939,0:07:37.397 C'est ce que je veux dire, 0:07:37.421,0:07:39.976 la technologie amplifie[br]nos capacités cognitives 0:07:40.000,0:07:43.552 de sorte que nous pouvons imaginer[br]et concevoir des choses impossibles 0:07:43.576,0:07:46.315 avec nos capacités d'humains[br]non augmentés. 0:07:47.984,0:07:50.925 Et que dire de la production[br]de ces produits fous 0:07:50.949,0:07:53.390 que nous allons inventer et concevoir ? 0:07:53.952,0:07:58.045 Je pense que l'ère de l'humain augmenté[br]concerne tout autant le monde physique 0:07:58.069,0:08:01.134 que le monde virtuel et intellectuel. 0:08:01.833,0:08:04.114 Comment la technologie va-t-elle[br]nous augmenter ? 0:08:04.261,0:08:06.734 Dans le monde physique,[br]par les systèmes robotiques. 0:08:07.620,0:08:09.356 Bon, il y a cette peur 0:08:09.380,0:08:11.868 des robots qui prendraient les jobs[br]des humains 0:08:11.892,0:08:14.062 et c'est le cas dans certains secteurs. 0:08:14.174,0:08:17.052 Mais ce qui m'intéresse plus, c'est l'idée 0:08:17.076,0:08:22.086 que robots et humains travaillant ensemble[br]vont s'augmenter les uns les autres 0:08:22.110,0:08:24.168 et occuper un nouvel espace. 0:08:24.192,0:08:26.804 Voici notre labo de recherche appliquée[br]à San Francisco 0:08:26.804,0:08:29.720 où l'un de nos domaines de recherche[br]est la robotique avancée 0:08:29.744,0:08:32.255 et plus précisément la collaboration[br]humain/robot. 0:08:33.034,0:08:35.793 Et voici Bishop, l'un de nos robots. 0:08:35.817,0:08:37.606 Dans une expérience, il devait 0:08:37.630,0:08:41.090 aider une personne à faire des tâches[br]de construction répétitives 0:08:41.984,0:08:46.178 comme faire des trous pour des prises[br]dans des plaques de plâtre. 0:08:46.202,0:08:48.668 (Rires) 0:08:49.877,0:08:53.118 Son partenaire humain peut lui dire quoi[br]faire dans un anglais simple 0:08:53.118,0:08:54.317 avec des gestes simples, 0:08:54.341,0:08:55.788 comme s'il parlait à un chien. 0:08:55.812,0:08:57.955 Et puis Bishop suit les instructions 0:08:57.979,0:08:59.871 avec une précision parfaite. 0:08:59.895,0:09:02.604 On utilise chez l'humain[br]ce qu'il a d'efficace : 0:09:02.604,0:09:05.241 vigilance, perception et[br]prise de décision. 0:09:05.265,0:09:07.505 Et chez le robot,[br]ce qu'il maîtrise mieux : 0:09:07.529,0:09:09.277 la précision et la répétition. 0:09:10.252,0:09:12.619 Voici un autre projet sympa avec Bishop. 0:09:12.643,0:09:15.718 Le but du projet, qu'on a appelé le HIVE, 0:09:15.742,0:09:19.593 était de voir ce qui se passe[br]quand humains, ordinateurs et robots 0:09:19.617,0:09:22.837 travaillent ensemble à résoudre un[br]problème de conception complexe. 0:09:23.793,0:09:25.504 Les humains étaient la main d'œuvre 0:09:25.504,0:09:28.741 sur le site de construction,[br]manipulaient le bambou, 0:09:28.765,0:09:31.521 le bambou qui est d'ailleurs,[br]étant non isomorphe, 0:09:31.545,0:09:33.419 très compliqué pour les robots. 0:09:33.443,0:09:35.555 Les robots ont fait[br]cet enroulement de fibres 0:09:35.555,0:09:37.940 presqu'impossible à faire pour un humain. 0:09:37.964,0:09:41.585 Et une machine d'intelligence artificielle[br]contrôlait le tout. 0:09:41.609,0:09:44.899 Elle disait aux humains quoi faire,[br]et aux robots, 0:09:44.923,0:09:47.838 et surveillait des milliers de[br]composants individuels. 0:09:47.862,0:09:49.042 Et surtout, 0:09:49.066,0:09:52.207 construire ce pavillon était impossible 0:09:52.231,0:09:56.755 sans qu'humains, robots et machines[br]intelligentes ne s'augmentent. 0:09:57.890,0:10:01.210 Bon, je vais parler d'un autre projet.[br]Celui-là est un peu fou. 0:10:01.234,0:10:05.702 Nous travaillons avec Joris Laarman,[br]artiste d'Amsterdam, et son équipe à MX3D 0:10:05.726,0:10:08.844 pour concevoir de manière générative[br]et imprimer avec la robotique 0:10:08.844,0:10:11.623 le premier pont construit[br]de façon autonome. 0:10:12.315,0:10:16.000 Joris et une intelligence artificielle[br]le conçoivent en ce moment 0:10:16.024,0:10:17.196 à Amsterdam. 0:10:17.220,0:10:19.671 Quand ils auront fini, on appuiera[br]sur « lancement » 0:10:19.671,0:10:22.876 et les robots se mettront à imprimer[br]en 3D et en inox. 0:10:22.900,0:10:26.183 Et ils imprimeront toujours et encore[br]sans intervention humaine 0:10:26.207,0:10:28.109 jusqu'à ce que le pont soit construit. 0:10:29.099,0:10:32.027 Les ordinateurs vont augmenter[br]notre capacité 0:10:32.051,0:10:34.201 à imaginer et concevoir des nouveautés, 0:10:34.225,0:10:37.410 et les systèmes robotiques vont nous aider[br]à fabriquer des choses 0:10:37.410,0:10:39.228 que nous n'avons jamais pu fabriquer. 0:10:40.347,0:10:44.507 Qu'en est-il de notre capacité à percevoir[br]et contrôler tout ça ? 0:10:44.531,0:10:48.562 Et si les choses que nous fabriquons[br]avaient un système nerveux central ? 0:10:48.586,0:10:51.098 Notre système nerveux d'humains 0:10:51.122,0:10:53.433 nous dit tout ce qu'il se passe[br]autour de nous. 0:10:54.186,0:10:57.870 Mais le système nerveux des choses[br]que nous fabriquons est rudimentaire. 0:10:57.894,0:11:01.457 Par exemple, une voiture ne dit pas[br]au service municipal des voiries 0:11:01.481,0:11:04.611 qu'elle a roulé sur un nid-de-poule. 0:11:04.635,0:11:06.667 Un bâtiment ne dit pas à ses concepteurs 0:11:06.691,0:11:09.375 si les gens à l'intérieur aiment y être 0:11:09.399,0:11:12.409 et le fabricant de jouets ne sait pas 0:11:12.433,0:11:14.440 si on joue vraiment avec ce jouet, 0:11:14.464,0:11:17.003 ni comment ni où et si c'est sympa. 0:11:17.620,0:11:21.434 Je suis sûr que ses concepteurs[br]avaient ça en tête pour Barbie 0:11:21.458,0:11:22.682 quand ils l'ont conçue. 0:11:22.706,0:11:24.153 (Rires) 0:11:24.177,0:11:27.083 Et si Barbie était en fait très seule ? 0:11:27.107,0:11:30.254 (Rires) 0:11:31.266,0:11:32.554 Si les concepteurs savaient 0:11:32.578,0:11:34.685 ce qu'il se passe vraiment dans la vie 0:11:34.709,0:11:37.292 pour leurs créations (la route,[br]le bâtiment, Barbie), 0:11:37.316,0:11:40.010 ils pourraient utiliser ce savoir[br]et créer une expérience 0:11:40.034,0:11:41.434 optimale pour l'utilisateur. 0:11:41.458,0:11:43.249 Il manque un système nerveux central 0:11:43.273,0:11:46.982 qui nous connecte à tout ce que[br]l'on conçoit, fabrique et utilise. 0:11:47.915,0:11:51.470 Et si nous avions tous ce genre[br]d'informations provenant 0:11:51.494,0:11:53.677 des choses que nous créons dans la vie ? 0:11:55.432,0:11:56.883 Pour vendre ce qu'on fabrique, 0:11:56.907,0:11:59.342 nous dépensons des montagnes[br]d'argent et d'énergie 0:11:59.366,0:12:01.742 (deux mille milliards[br]de dollars l'an passé) 0:12:01.766,0:12:04.620 à convaincre les gens[br]d'acheter nos produits. 0:12:04.644,0:12:08.032 Si on avait cette connexion avec[br]les choses qu'on invente 0:12:08.056,0:12:09.783 une fois qu'ils sont dans le monde, 0:12:09.807,0:12:13.421 après leur achat ou leur mise en vente, 0:12:13.445,0:12:15.065 nous pourrions changer ça 0:12:15.089,0:12:18.136 et au lieu de convaincre les gens[br]d'acheter nos produits, 0:12:18.160,0:12:21.594 nous produirions ce que les gens veulent. 0:12:21.618,0:12:24.812 Bonne nouvelle : nous travaillons[br]sur des systèmes nerveux digitaux 0:12:24.812,0:12:27.230 qui nous connectent à nos créations. 0:12:28.365,0:12:29.992 Nous travaillons sur un projet 0:12:30.016,0:12:33.728 avec des gens de Los Angeles,[br]les Bandito Brothers, 0:12:33.752,0:12:35.159 et leur équipe. 0:12:35.183,0:12:38.616 Ils construisent notamment[br]des voitures de fou 0:12:38.640,0:12:41.513 qu font des trucs de fou. 0:12:42.905,0:12:44.355 Ces mecs sont fous 0:12:44.379,0:12:45.415 (Rires) 0:12:45.439,0:12:46.842 dans le bon sens du terme. 0:12:48.993,0:12:50.756 Voilà ce qu'on fait avec eux : 0:12:50.780,0:12:53.220 on donne au châssis d'une voiture[br]de course classique 0:12:53.244,0:12:54.829 un système nerveux. 0:12:54.853,0:12:57.911 On l'a appareillé avec des dizaines[br]de capteurs, 0:12:57.935,0:13:00.570 on a mis un pilote d'élite au volant, 0:13:00.594,0:13:03.951 et on l'a conduite à fond dans le désert[br]pendant une semaine. 0:13:03.975,0:13:06.466 Et son système nerveux a tout retenu 0:13:06.490,0:13:07.972 de ce qui arrivait. 0:13:07.996,0:13:10.617 On a capturé quatre milliards de données 0:13:10.641,0:13:12.951 sur les forces auxquelles[br]elle était soumise. 0:13:12.975,0:13:14.634 Et puis on a fait un truc fou. 0:13:15.268,0:13:16.768 On a mis toutes ces données 0:13:16.792,0:13:20.528 dans une intelligence artificielle de[br]conception générative, Dreamcatcher. 0:13:21.270,0:13:25.234 Qu'obtient-on quand on donne à un outil[br]de conception un système nerveux 0:13:25.258,0:13:28.140 et qu'on lui dit de construire[br]le châssis de voiture ultime ? 0:13:28.723,0:13:30.696 Ça. 0:13:32.293,0:13:36.006 Voilà quelque chose qu'un humain[br]n'aurait jamais pu concevoir. 0:13:36.707,0:13:38.595 Mais un humain l'a pourtant conçu, 0:13:38.619,0:13:42.928 un humain augmenté par une intelligence[br]artificielle de conception générative, 0:13:42.952,0:13:44.383 un système nerveux digital 0:13:44.383,0:13:47.212 et des robots qui peuvent construire ça. 0:13:47.680,0:13:51.275 Si l'avenir est là, dans l'âge augmenté, 0:13:51.299,0:13:55.560 et que nos capacités cognitives, physiques[br]et perceptives sont augmentées, 0:13:55.584,0:13:56.992 à quoi cela ressemblera ? 0:13:57.576,0:14:00.897 Comment sera cet âge d'or ? 0:14:00.921,0:14:02.630 Je pense que notre monde 0:14:02.654,0:14:05.722 va passer des choses qu'on fabrique 0:14:05.746,0:14:07.191 aux choses qu'on cultive. 0:14:08.159,0:14:11.612 On passera des choses qu'on construit 0:14:11.636,0:14:13.340 à celles qu'on fait pousser. 0:14:14.134,0:14:16.322 On passera de l'isolement 0:14:16.346,0:14:17.956 à la connexion. 0:14:18.634,0:14:21.045 Et on abandonnera l'extraction 0:14:21.069,0:14:22.942 au bénéfice de l'agrégation. 0:14:23.967,0:14:27.734 Je pense qu'on passera aussi du besoin[br]de voir nos objets nous obéir 0:14:27.758,0:14:29.399 à l'appréciation de l'autonomie. 0:14:30.510,0:14:32.415 Grâce à nos capacités augmentées, 0:14:32.439,0:14:34.816 notre monde va être transformé. 0:14:35.576,0:14:38.822 Nous aurons un monde plus varié,[br]plus connecté, 0:14:38.846,0:14:41.133 plus dynamique, plus complexe, 0:14:41.157,0:14:43.475 plus flexible et bien sûr, 0:14:43.499,0:14:44.716 plus beau. 0:14:45.231,0:14:46.795 Ce qui nous attend 0:14:46.819,0:14:49.109 ne ressemblera à rien de ce qui a précédé. 0:14:49.133,0:14:50.292 Pourquoi ? 0:14:50.316,0:14:54.071 Parce que toutes ces choses seront[br]façonnées par cette collaboration nouvelle 0:14:54.095,0:14:57.765 entre technologie, nature et humanité. 0:14:59.279,0:15:03.083 Pour moi, c'est là un avenir[br]qui vaut bien la peine d'être vu. 0:15:03.107,0:15:04.378 Merci beaucoup à vous. 0:15:04.402,0:15:10.071 (Applaudissements)