0:00:00.735,0:00:03.024 ¿Cuántos de Uds. son creativos? 0:00:03.048,0:00:06.672 Diseñadores, ingenieros,[br]emprendedores, artistas, 0:00:06.696,0:00:09.083 o quizás solo tienen [br]una gran imaginación. 0:00:09.107,0:00:10.955 Muestren sus manos. 0:00:10.979,0:00:12.160 La mayoría de Uds. 0:00:13.334,0:00:15.628 Tengo algo que decir para[br]nosotros los creativos. 0:00:16.714,0:00:19.287 En los próximos 20 años, 0:00:21.471,0:00:24.444 la manera de realizar nuestro[br]trabajo va a cambiar 0:00:25.382,0:00:27.539 más que en los últimos 2000 años. 0:00:28.511,0:00:33.139 De hecho, pienso que estamos ante [br]una nueva era en nuestra historia. 0:00:33.645,0:00:38.406 Hubo cuatro grandes eras históricas[br]definidas por la manera de trabajar. 0:00:39.404,0:00:42.679 La era cazadora-recolectora[br]duró varios millones de años. 0:00:43.163,0:00:46.739 Luego, la era agrícola[br]duró varios miles de años. 0:00:47.195,0:00:50.685 La era industrial[br]duró un par de siglos. 0:00:50.709,0:00:54.996 Y ahora la era de la información[br]que lleva solo algunas décadas. 0:00:55.020,0:01:00.240 Y hoy, estamos en presencia de una[br]nueva gran era para nuestra especie. 0:01:01.296,0:01:03.976 Bienvenidos a la era aumentada. 0:01:04.000,0:01:07.693 En esta era nueva, las capacidades[br]del ser humano serán aumentadas 0:01:07.717,0:01:10.785 por sistemas computarizados[br]que nos ayudarán a pensar, 0:01:10.809,0:01:12.995 sistemas robóticos que[br]ayudarán a construir, 0:01:13.019,0:01:14.667 y sistemas nerviosos digitales 0:01:14.691,0:01:18.381 que conectarán con el mundo[br]más allá de los sentidos naturales. 0:01:19.437,0:01:21.379 Comencemos con la aumentación cognitiva. 0:01:21.403,0:01:23.603 ¿Cuántos de Uds. son ciborgs aumentados? 0:01:24.133,0:01:26.783 (Risas) 0:01:26.807,0:01:29.628 En realidad yo aseguraría[br]que ya estamos aumentados. 0:01:30.288,0:01:31.792 Imagínense en una fiesta, 0:01:31.816,0:01:35.336 y alguien les hace una pregunta[br]para la que no tienen respuesta. 0:01:35.360,0:01:39.120 Si tienen uno de estos, en algunos[br]segundos, pueden saber la respuesta. 0:01:39.869,0:01:42.168 Pero este es un comienzo primitivo. 0:01:42.863,0:01:46.194 Incluso Siri es una herramienta pasiva. 0:01:46.660,0:01:50.041 De hecho, en los últimos[br]tres millones y medio de años, 0:01:50.065,0:01:53.174 las herramientas que usamos[br]fueron completamente pasivas. 0:01:54.203,0:01:57.858 Hacen justo lo que les pedimos[br]y nada más. 0:01:57.882,0:02:00.983 Nuestra primera herramienta[br]cortaba donde la golpeábamos. 0:02:01.822,0:02:04.862 El cincel solo talla donde[br]el artista lo apunta. 0:02:05.343,0:02:10.984 E incluso las herramientas más avanzadas[br]no hacen nada sin nuestra dirección. 0:02:11.008,0:02:14.189 De hecho, al día de la fecha,[br]y esto es algo que me frustra, 0:02:14.213,0:02:15.661 siempre estuvimos limitados 0:02:15.685,0:02:19.186 por esta necesidad manual de ejercer[br]nuestra voluntad en las herramientas 0:02:19.210,0:02:21.507 literalmente, con las manos, 0:02:21.531,0:02:22.959 incluso con las computadoras. 0:02:24.072,0:02:26.535 Pero yo soy más como Scotty[br]de "Star Trek". 0:02:26.559,0:02:28.409 (Risas) 0:02:28.433,0:02:30.579 Quiero conversar con la computadora. 0:02:30.603,0:02:33.573 Quiero decirle "Computadora,[br]diseñemos un auto", 0:02:33.597,0:02:35.136 y que me lo muestre. 0:02:35.160,0:02:37.768 Y yo diga "No, que parezca[br]más rápido y menos alemán", 0:02:37.792,0:02:39.955 y pum, la computadora muestra una opción. 0:02:39.979,0:02:41.844 (Risas) 0:02:42.208,0:02:44.514 Esa conversación puede parecer lejana, 0:02:44.538,0:02:47.203 quizás menos de lo que pensamos, 0:02:47.227,0:02:48.990 pero ahora, 0:02:49.014,0:02:50.165 trabajamos en ello. 0:02:50.189,0:02:54.222 Las herramientas están haciendo[br]el salto de pasivas a generativas. 0:02:54.831,0:02:58.139 Las herramientas generativas[br]usan una computadora y algoritmos 0:02:58.163,0:03:00.771 para sintetizar geometría, 0:03:00.795,0:03:03.549 para crear nuevos diseños por sí mismas. 0:03:03.996,0:03:06.744 Solo necesita objetivos y restricciones. 0:03:06.768,0:03:08.176 Les daré un ejemplo. 0:03:08.200,0:03:10.988 En el caso de este chasis de dron aéreo, 0:03:11.012,0:03:13.638 solo es necesario decir algo como, 0:03:13.662,0:03:14.935 tiene cuatro hélices, 0:03:14.959,0:03:17.090 que sea lo más liviano posible, 0:03:17.114,0:03:19.384 y con aerodinámica eficiente. 0:03:19.408,0:03:24.322 Luego la computadora explora[br]todas las soluciones posibles. 0:03:24.346,0:03:28.273 Cada posible solución que[br]concuerda con los criterios, 0:03:28.297,0:03:29.739 millones. 0:03:29.763,0:03:31.738 Se necesitan computadoras grandes. 0:03:31.762,0:03:33.717 Pero nos devuelve diseños 0:03:33.741,0:03:36.884 que por nuestros propios medios[br]nunca podríamos imaginar. 0:03:37.326,0:03:40.238 Y la computadora llega a esto[br]por sus propios medios. 0:03:40.262,0:03:41.940 Nadie jamás dibujó nada, 0:03:41.964,0:03:44.050 y comenzó de cero. 0:03:45.038,0:03:47.425 Y por cierto, no es un accidente 0:03:47.449,0:03:50.930 que el cuerpo del dron se parezca[br]a la pelvis de una ardilla voladora. 0:03:51.287,0:03:53.294 (Risas) 0:03:54.040,0:03:56.342 Es porque los algoritmos trabajan 0:03:56.366,0:03:58.003 igual que la evolución. 0:03:58.475,0:04:01.375 Es emocionante que estamos[br]empezando a ver esta tecnología 0:04:01.399,0:04:02.558 en el mundo real. 0:04:02.582,0:04:05.034 Trabajamos con Airbus[br]durante un par de años 0:04:05.058,0:04:07.157 en este concepto de avión para el futuro. 0:04:07.157,0:04:09.061 Aunque todavía es muy lejano. 0:04:09.085,0:04:12.865 Pero hace poco usamos inteligencia[br]artificial de diseño generativo 0:04:12.889,0:04:14.696 para llegar a esto. 0:04:15.609,0:04:20.762 Esta es una división de cabina impresa[br]en 3D diseñada por una computadora. 0:04:20.786,0:04:23.610 Es más fuerte que la original[br]y pesa la mitad, 0:04:23.634,0:04:26.780 y va a volar en el Airbus A320[br]más adelante en este año. 0:04:27.105,0:04:29.164 Ahora las computadoras pueden generar. 0:04:29.164,0:04:33.583 Pueden brindar sus propias soluciones[br]para nuestros problemas bien definidos. 0:04:34.677,0:04:35.987 Pero no son intuitivas. 0:04:36.011,0:04:39.097 Siempre tienen que comenzar de cero[br]en cada oportunidad, 0:04:39.121,0:04:41.686 Y eso es porque nunca aprenden. 0:04:42.368,0:04:44.134 No como Maggie. 0:04:44.158,0:04:45.739 (Risas) 0:04:45.763,0:04:49.060 Maggie es más inteligente que nuestras[br]herramientas más avanzadas. 0:04:49.467,0:04:50.907 ¿Qué quiero decir? 0:04:50.931,0:04:52.521 Si su dueño toma la correa, 0:04:52.545,0:04:54.613 Maggie sabe con bastante seguridad 0:04:54.637,0:04:56.041 que es hora de dar un paseo. 0:04:56.065,0:04:57.250 ¿Y cómo lo aprendió? 0:04:57.274,0:05:00.598 Bueno, cada vez que su dueño[br]toma la correa, salen a pasear. 0:05:00.622,0:05:02.500 Maggie hizo tres cosas: 0:05:02.524,0:05:04.393 tuvo que prestar atención, 0:05:04.417,0:05:06.499 tuvo que recordar qué pasó, 0:05:06.523,0:05:10.540 y tuvo que retener y crear[br]un patrón en su cabeza. 0:05:11.289,0:05:13.218 Interesante, eso es justo 0:05:13.218,0:05:16.461 lo que los científicos intentan hacer[br]con la inteligencia artificial 0:05:16.461,0:05:17.954 desde hace 60 años. 0:05:18.683,0:05:20.032 Allá en 1952, 0:05:20.056,0:05:23.857 construyeron esta computadora[br]que podía jugar a tres en raya. 0:05:25.081,0:05:26.241 Gran cosa. 0:05:27.029,0:05:30.029 Luego, 45 años más tarde en 1997, 0:05:30.053,0:05:32.525 Deep Blue ganó a Kasparov al ajedrez. 0:05:34.046,0:05:39.014 2011, Watson le gana a estos[br]dos humanos en Jeopardy, 0:05:39.038,0:05:41.966 que, para una computadora,[br]es mucho más difícil que el ajedrez. 0:05:41.990,0:05:45.802 De hecho, más que trabajar[br]con fórmulas predefinidas, 0:05:45.826,0:05:49.149 Watson tuvo que razonar para[br]vencer a sus oponentes humanos. 0:05:50.393,0:05:52.832 Luego, algunas semanas atrás, 0:05:52.856,0:05:57.118 AlphaGo de DeepMind venció[br]a los mejores en Go, 0:05:57.142,0:05:59.354 que es más el juego[br]más difícil que tenemos. 0:05:59.378,0:06:02.274 De hecho, en Go, hay más[br]movimientos posibles 0:06:02.298,0:06:04.322 que átomos en el universo. 0:06:06.210,0:06:08.036 Para ganar, 0:06:08.060,0:06:10.678 AlphaGo tuvo que desarrollar intuición. 0:06:11.098,0:06:15.208 De hecho, en cierto punto, los[br]programadores de AlphaGo no entendían 0:06:15.232,0:06:17.518 por qué AlphaGo hacía lo que hacía. 0:06:19.451,0:06:21.111 Y todo avanza muy rápido. 0:06:21.135,0:06:24.362 Es decir, si pensamos que en[br]el transcurso de una vida humana, 0:06:24.386,0:06:26.619 las computadoras pasaron[br]de ser juegos de niños 0:06:27.920,0:06:30.968 a lo que se considera la cúspide[br]del pensamiento estratégico. 0:06:31.999,0:06:34.416 Lo que básicamente ocurre 0:06:34.440,0:06:37.750 es que las computadoras[br]pasan de ser como Spock... 0:06:37.774,0:06:39.723 a ser más como Kirk. 0:06:39.747,0:06:43.365 (Risas) 0:06:43.389,0:06:46.813 De lógica pura a intuición. 0:06:48.184,0:06:49.927 ¿Uds. cruzarían ese puente? 0:06:50.609,0:06:52.932 Muchos piensan, "¡ni loco!" 0:06:52.956,0:06:54.264 (Risas) 0:06:54.288,0:06:56.945 Y llegan a esa decisión[br]en una fracción de segundo. 0:06:56.969,0:06:59.397 De alguna forma sabían que[br]ese puente es inestable. 0:06:59.421,0:07:01.410 Y esa es justo el tipo de intuición 0:07:01.434,0:07:05.002 que nuestros sistemas de aprendizaje[br]profundo desarrollan ahora mismo. 0:07:05.722,0:07:07.429 Muy pronto, podremos 0:07:07.453,0:07:09.659 mostrarle algo que hayamos diseñado 0:07:09.683,0:07:10.836 a una computadora 0:07:10.860,0:07:12.349 y ésta lo mirará y dirá: 0:07:12.373,0:07:15.196 "Lo siento amigo, no va a funcionar.[br]Inténtalo de nuevo". 0:07:15.854,0:07:18.924 O podrías saber si a la gente[br]le va a gustar tu nueva canción, 0:07:19.773,0:07:21.836 o tu nuevo sabor de helado. 0:07:23.549,0:07:26.128 O, mucho más importante, 0:07:26.152,0:07:28.516 te podría ayudar a resolver un problema 0:07:28.540,0:07:30.177 que nunca hayamos enfrentado. 0:07:30.201,0:07:31.602 Como el cambio climático. 0:07:31.626,0:07:33.646 No estamos haciendo un gran trabajo, 0:07:33.670,0:07:35.915 podríamos usar toda[br]la ayuda posible sin dudas. 0:07:35.939,0:07:37.397 De eso hablo, 0:07:37.421,0:07:39.976 tecnología que mejora[br]nuestras habilidades cognitivas 0:07:40.000,0:07:43.552 para poder imaginar y diseñar[br]más allá de nuestro alcance 0:07:43.576,0:07:46.135 como simples humanos antiguos[br]y no aumentados. 0:07:47.984,0:07:50.925 ¿Pero qué pasa con todas[br]estas cosas alocadas nuevas 0:07:50.949,0:07:53.390 que vamos a inventar y diseñar? 0:07:53.952,0:07:58.045 Creo que la era del humano aumentado[br]tiene que ver tanto con el mundo físico 0:07:58.069,0:08:01.134 como con el virtual,[br]el reino de lo intelectual. 0:08:01.833,0:08:03.754 ¿Cómo nos aumentará la tecnología? 0:08:04.261,0:08:06.734 En el mundo físico, sistemas robóticos. 0:08:07.620,0:08:09.356 Bueno, igual existe un miedo latente 0:08:09.380,0:08:11.868 de que los robots asumirán[br]nuestro trabajo, 0:08:11.892,0:08:13.722 y es verdad en ciertos sectores. 0:08:14.174,0:08:17.052 Pero me interesa más esta idea 0:08:17.076,0:08:22.086 de que humanos y robots trabajen[br]juntos para aumentarse entre sí, 0:08:22.110,0:08:24.168 y empezar a habitar un espacio nuevo. 0:08:24.192,0:08:26.554 Este es nuestro laboratorio[br]en San Francisco, 0:08:26.578,0:08:29.720 donde una de nuestras áreas[br]de interés es robótica avanzada, 0:08:29.744,0:08:32.255 en especial, colaboración[br]entre humanos y robots. 0:08:33.034,0:08:35.793 Y este es Bishop, uno de nuestros robots. 0:08:35.817,0:08:37.606 Como un experimento, lo configuramos 0:08:37.630,0:08:41.090 para ayudar a una persona a hacer[br]tareas repetitivas en construcción, 0:08:41.984,0:08:46.178 tareas como hacer agujeros para[br]apliques o luces en una pared de yeso. 0:08:46.202,0:08:48.668 (Risas) 0:08:49.877,0:08:52.988 El compañero humano de Bishop[br]puede decir qué hacer en inglés 0:08:53.012,0:08:54.317 y con gestos simples, 0:08:54.341,0:08:55.788 como hablarle a un perro, 0:08:55.812,0:08:57.955 y luego Bishop ejecuta[br]dichas instrucciones 0:08:57.979,0:08:59.871 con una precisión perfecta. 0:08:59.895,0:09:02.884 Usamos al humano para lo que es bueno: 0:09:02.908,0:09:05.241 conciencia, percepción[br]y toma de decisiones. 0:09:05.265,0:09:07.505 Y usamos al robot para lo que es bueno: 0:09:07.529,0:09:09.277 precisión y repetición. 0:09:10.252,0:09:12.619 Y otro buen proyecto[br]en el que trabajó Bishop. 0:09:12.643,0:09:15.718 El objetivo de este,[br]al que denominamos HIVE, 0:09:15.742,0:09:19.593 fue experimentar con humanos,[br]computadoras y robots 0:09:19.617,0:09:23.167 todos trabajando juntos para resolver[br]un problema complejo de diseño. 0:09:23.793,0:09:25.244 Humanos como fuerza laboral. 0:09:25.268,0:09:28.741 Se movieron por la zona de construcción,[br]manipulando el bambú, 0:09:28.765,0:09:31.521 el cual, al no ser un material isomorfo, 0:09:31.545,0:09:33.419 es difícil de manipular por los robots. 0:09:33.443,0:09:35.715 Luego los robots hicieron[br]un camino serpenteante 0:09:35.715,0:09:37.940 casi imposible de hacer para un humano. 0:09:37.964,0:09:41.585 Y luego teníamos una inteligencia[br]artificial que controlaba todo. 0:09:41.609,0:09:44.899 Le decía a los humanos qué hacer,[br]y a los robots qué hacer 0:09:44.923,0:09:47.838 y llevaba registro de miles[br]de componentes individuales. 0:09:47.862,0:09:49.042 Es interesante que, 0:09:49.066,0:09:52.207 construir este pabellón[br]era prácticamente imposible 0:09:52.231,0:09:56.755 sin humanos, robots e inteligencia[br]artificial aumentándose entre sí. 0:09:57.890,0:10:01.210 Les mostraré uno de mis proyectos.[br]Es un poquito descabellado. 0:10:01.234,0:10:05.702 Trabajamos con un artista en Amsterdam,[br]Joris Laarman y su equipo en MX3D, 0:10:05.726,0:10:08.604 en un diseño generativo[br]para imprimir con robots 0:10:08.628,0:10:11.623 el primer puente creado de[br]manera autónoma en el mundo. 0:10:12.315,0:10:16.000 Joris y una inteligencia artificial[br]diseñan esto ahora, mientras hablamos, 0:10:16.024,0:10:17.196 en Amsterdam. 0:10:17.220,0:10:19.541 Y cuando terminen, les daremos luz verde, 0:10:19.565,0:10:22.876 y los robots empezarán a imprimir[br]en 3D el acero inoxidable, 0:10:22.900,0:10:26.183 y luego seguirán imprimiendo[br]sin intervención humana, 0:10:26.207,0:10:27.765 hasta que el puente se termine. 0:10:29.099,0:10:32.027 Conforme las computadoras[br]aumenten nuestra realidad 0:10:32.051,0:10:34.201 para imaginar y diseñar cosas nuevas, 0:10:34.225,0:10:37.120 los sistemas robóticos[br]nos ayudarán a crear cosas 0:10:37.144,0:10:39.228 que nunca podríamos haber hecho antes. 0:10:40.347,0:10:44.507 ¿Y qué pasa con nuestra habilidad[br]para sentir y controlar estas cosas? 0:10:44.531,0:10:48.562 ¿Y si usamos un sistema nervioso[br]para controlar las cosas que hacemos? 0:10:48.586,0:10:51.098 Nuestro sistema nervioso,[br]el de los humanos, 0:10:51.122,0:10:53.433 nos dice todo lo que[br]pasa a nuestro alrededor. 0:10:54.186,0:10:57.870 Pero el sistema nervioso de las cosas[br]que creamos es rudimentario. 0:10:57.894,0:11:01.457 Por ejemplo, un auto no le dice[br]al departamento de obras públicas 0:11:01.481,0:11:04.611 que acaba de pasar un bache en[br]la esquina de Broadway y Morrison. 0:11:04.635,0:11:06.667 Un edificio no les dice a sus diseñadores 0:11:06.691,0:11:09.375 si la gente que está dentro lo disfruta, 0:11:09.399,0:11:12.409 y el fabricante de juguetes no sabe 0:11:12.433,0:11:14.440 si se juega con cierto juguete, 0:11:14.464,0:11:17.003 cómo, dónde, y si es divertido o no. 0:11:17.620,0:11:21.434 Miren, seguro que los diseñadores[br]se imaginaron esta vida para la Barbie 0:11:21.458,0:11:22.682 cuando la diseñaron. 0:11:22.706,0:11:24.153 (Risas) 0:11:24.177,0:11:27.083 ¿Pero qué pasaría si en realidad[br]la Barbie se siente muy sola? 0:11:27.107,0:11:30.254 (Risas) 0:11:31.266,0:11:32.554 Si los diseñadores supieran 0:11:32.578,0:11:34.685 qué pasa realmente en el mundo 0:11:34.709,0:11:37.292 con sus diseños: caminos,[br]edificios, Barbies, 0:11:37.316,0:11:40.010 podrían usar ese conocimiento[br]para crear una experiencia 0:11:40.034,0:11:41.434 mejor para el usuario. 0:11:41.458,0:11:43.249 Lo que falta es un sistema nervioso 0:11:43.273,0:11:46.982 que nos conecte a las cosas que[br]diseñamos, creamos, y usamos. 0:11:47.915,0:11:51.470 ¿Qué pasaría si todos tuvieran[br]ese tipo de información 0:11:51.494,0:11:53.677 desde todas las cosas[br]que creamos en el mundo? 0:11:55.432,0:11:56.883 Con todo lo que hacemos, 0:11:56.907,0:11:59.342 gastamos una cantidad inmensa[br]de dinero y energías. 0:11:59.366,0:12:01.742 De hecho, el último año,[br]cerca de USD 2 billones 0:12:01.766,0:12:04.620 intentando que la gente[br]compre lo que hacemos. 0:12:04.644,0:12:08.032 Pero si existiera esta conexión[br]con las cosas que uno diseña y crea 0:12:08.056,0:12:09.783 después de que salen al mundo, 0:12:09.807,0:12:13.421 después de vendidas,[br]lanzadas o lo que sea, 0:12:13.445,0:12:15.065 podríamos en verdad cambiarlo, 0:12:15.089,0:12:18.136 e ir desde hacer que la[br]gente quiera nuestras cosas, 0:12:18.160,0:12:21.594 a hacer cosas que la gente[br]quiere en primer lugar. 0:12:21.618,0:12:24.405 La buena noticia es que[br]trabajamos en sistemas nerviosos 0:12:24.429,0:12:27.230 que nos conectan con lo que creamos. 0:12:28.365,0:12:29.992 Estamos trabajando en un proyecto 0:12:30.016,0:12:33.728 con un par de personas en Los Ángeles[br]llamados los Bandito Brothers 0:12:33.752,0:12:35.159 y su equipo. 0:12:35.183,0:12:38.616 Y una de las cosas que hacen[br]es crear autos delirantes 0:12:38.640,0:12:41.513 que hacen cosas absolutamente delirantes. 0:12:42.905,0:12:44.355 Estas personas están locas, 0:12:44.379,0:12:45.415 (Risas) 0:12:45.439,0:12:46.842 de la mejor manera. 0:12:48.993,0:12:50.756 Y lo que estamos haciendo juntos 0:12:50.780,0:12:53.220 es tomar el chasis tradicional de un auto 0:12:53.244,0:12:54.829 y darle un sistema nervioso. 0:12:54.853,0:12:57.911 Lo equipamos con decenas de sensores, 0:12:57.935,0:13:00.570 pusimos un piloto de[br]primer nivel al volante, 0:13:00.594,0:13:03.951 lo llevamos al desierto, y lo manejó[br]al máximo durante una semana. 0:13:03.975,0:13:06.466 Y el sistema nervioso[br]del auto capturó todo 0:13:06.490,0:13:07.972 lo que pasaba en el auto. 0:13:07.996,0:13:10.617 Capturamos 4000 millones de datos, 0:13:10.641,0:13:12.951 todas las fuerzas a la que era sometido. 0:13:12.975,0:13:14.634 Y luego construimos algo alocado. 0:13:15.268,0:13:16.768 Tomamos esos datos y los pusimos 0:13:16.792,0:13:20.528 en una inteligencia artificial de diseño[br]generativo que llamamos "Dreamcatcher". 0:13:21.270,0:13:25.234 ¿Y qué obtienes cuando les das un sistema[br]nervioso a una herramienta de diseño 0:13:25.258,0:13:28.140 y le pides que te construya[br]lo último en chasis de autos? 0:13:28.723,0:13:30.696 Obtienes esto. 0:13:32.293,0:13:36.006 Estos es algo que un humano[br]nunca podría haber diseñado. 0:13:36.707,0:13:38.595 Pero esto lo diseñó un humano, 0:13:38.619,0:13:42.928 un humano aumentado por una[br]inteligencia de diseño generativo, 0:13:42.952,0:13:44.183 un sistema nervioso digital 0:13:44.207,0:13:47.212 y robots que realmente[br]pueden fabricar algo así. 0:13:47.680,0:13:51.275 Si este es el futuro, la era aumentada, 0:13:51.299,0:13:55.560 y aumentaremos nuestro nivel[br]cognitivo, físico y perceptivo, 0:13:55.584,0:13:56.992 ¿a qué se parecerá? 0:13:57.576,0:14:00.897 ¿A qué se parecerá este[br]país de las maravillas? 0:14:00.921,0:14:02.630 Creo que veremos un mundo 0:14:02.654,0:14:05.722 donde iremos de cosas que se fabrican 0:14:05.746,0:14:07.191 a cosas que se cultivan. 0:14:08.159,0:14:11.612 De cosas que se construyen 0:14:11.636,0:14:13.340 a cosas que se cultivan. 0:14:14.134,0:14:16.322 Iremos de estar aislados 0:14:16.346,0:14:17.956 a estar conectados. 0:14:18.634,0:14:21.045 Iremos de la extracción 0:14:21.069,0:14:22.942 a adoptar la agregación. 0:14:23.967,0:14:27.734 Y también creo que pasaremos de[br]ansiar la obediencia de nuestras cosas 0:14:27.758,0:14:29.399 a valorar su autonomía. 0:14:30.510,0:14:32.415 Gracias a las capacidades aumentadas 0:14:32.439,0:14:34.816 nuestro mundo sufrirá un cambio drástico. 0:14:35.576,0:14:38.822 Tendremos un mundo con[br]más variedad, más conectividad, 0:14:38.846,0:14:41.133 más dinamismo, más complejidad, 0:14:41.157,0:14:43.475 más adaptabilidad y, por supuesto, 0:14:43.499,0:14:44.716 más belleza. 0:14:45.231,0:14:46.795 La formas de las cosas por venir 0:14:46.819,0:14:49.109 será algo que jamás hemos visto antes. 0:14:49.133,0:14:50.292 ¿Por qué? 0:14:50.316,0:14:54.071 Porque nuestra nueva asociación[br]le dará forma a estas cosas 0:14:54.095,0:14:57.765 entre tecnología, naturaleza y humanidad. 0:14:59.279,0:15:03.083 Eso, para mí, es un futuro[br]que vale la pena anhelar. 0:15:03.107,0:15:04.378 Muchas gracias a todos. 0:15:04.402,0:15:10.071 (Aplausos)