0:00:10.847,0:00:13.799 Muy bien, Portland, guau.[br]Muchas gracias por recibirme. 0:00:14.038,0:00:15.498 Me encanta visitar esta ciudad. 0:00:15.522,0:00:18.625 ¿En qué otra parte del mundo[br]puedo tener un desayuno así? 0:00:18.649,0:00:20.315 (Risas) 0:00:20.339,0:00:23.632 Y está claro, este es [br]un lugar muy creativo. 0:00:23.815,0:00:25.111 (Risas) 0:00:25.135,0:00:27.424 ¿Cuántos de Uds. son creativos? 0:00:27.448,0:00:31.072 Diseñadores, ingenieros,[br]emprendedores, artistas, 0:00:31.096,0:00:33.483 o quizás solo tengan [br]una gran imaginación. 0:00:33.507,0:00:35.355 Muestren sus manos. 0:00:35.379,0:00:36.560 La mayoría de Uds. 0:00:37.734,0:00:40.028 Tengo noticias para [br]nosotros los creativos. 0:00:41.114,0:00:43.687 En los próximos 20 años, 0:00:45.871,0:00:48.844 la manera de realizar nuestro [br]trabajo va a cambiar 0:00:49.782,0:00:51.939 más que en los últimos 2000 años. 0:00:52.768,0:00:57.396 De hecho, pienso que estamos en presencia[br]de una nueva era en nuestra historia. 0:00:58.045,0:01:02.624 Hubo cuatro grandes eras históricas[br]definidas por la manera de trabajar. 0:01:03.804,0:01:07.079 La era cazadora-recolectora[br]duró varios millones de años. 0:01:07.563,0:01:11.139 Luego, la era agrícola [br]duró varios miles de años. 0:01:11.405,0:01:14.895 La era industrial [br]duró un par de siglos. 0:01:14.919,0:01:18.728 Y ahora la era de la información[br]que lleva solo algunas décadas. 0:01:19.230,0:01:24.450 Y hoy, estamos en presencia de una [br]nueva gran era para nuestra especie. 0:01:25.506,0:01:28.186 Bienvenidos a la era aumentada. 0:01:28.210,0:01:31.903 En esta era nueva, las capacidades [br]como ser humano serán aumentadas 0:01:31.927,0:01:34.995 por sistemas computarizados[br]que te ayudarán a pensar, 0:01:35.119,0:01:37.305 sistemas robóticos que [br]ayudarán a realizar, 0:01:37.329,0:01:38.977 y sistemas nerviosos digitales 0:01:39.001,0:01:42.691 que conectarán con el mundo[br]más allá de los sentidos naturales. 0:01:44.947,0:01:46.889 Comencemos con la aumentación cognitiva. 0:01:46.913,0:01:49.113 ¿Cuántos de Uds. son ciborgs aumentados? 0:01:49.270,0:01:51.545 (Risas) 0:01:51.569,0:01:53.084 Tenemos tres o cuatro, 0:01:53.108,0:01:54.791 solo porque estamos en Portland. 0:01:54.815,0:01:58.025 (Risas) 0:01:58.049,0:01:59.231 Sigan siendo raros. 0:01:59.255,0:02:01.543 (Risas) 0:02:01.567,0:02:04.388 En realidad yo aseguraría[br]que ya estamos aumentados. 0:02:05.048,0:02:06.552 Imagínense en una fiesta, 0:02:06.576,0:02:10.096 y alguien les hace una pregunta[br]para la que no tienen respuesta. 0:02:10.120,0:02:13.880 Si tienen uno de estos, en algunos[br]segundos, pueden saber la respuesta. 0:02:14.629,0:02:16.928 Pero este es un comienzo primitivo. 0:02:17.623,0:02:20.954 Incluso Siri es una herramienta pasiva. 0:02:21.420,0:02:24.801 De hecho, en los últimos[br]tres millones y medio de años, 0:02:24.825,0:02:28.348 las herramientas que usamos[br]fueron completamente pasivas. 0:02:29.563,0:02:33.218 Hacen justo lo que les pedimos[br]y nada más. 0:02:33.242,0:02:36.343 Nuestra primera herramienta[br]cortaba donde la golpeábamos. 0:02:37.382,0:02:40.422 El cincel solo talla donde[br]el artista lo apunta. 0:02:40.818,0:02:46.544 E incluso las herramientas más avanzadas[br]no hacen nada sin nuestra dirección. 0:02:47.598,0:02:50.779 De hecho, al día de la fecha, [br]y esto es algo que me frustra, 0:02:50.803,0:02:52.251 siempre estuvimos limitados 0:02:52.275,0:02:55.776 por esta necesidad manual de ejercer [br]nuestra voluntad en las herramientas 0:02:55.800,0:02:58.097 literalmente, con las manos, 0:02:58.121,0:02:59.549 incluso con las computadoras. 0:03:00.662,0:03:03.125 Pero yo soy más como Scotty [br]de "Star Trek". 0:03:03.149,0:03:04.999 (Risas) 0:03:05.023,0:03:07.169 Quiero conversar con la computadora. 0:03:07.193,0:03:10.163 Quiero decirle "Computadora, [br]diseñemos un auto", 0:03:10.187,0:03:11.726 y que me lo muestre. 0:03:11.750,0:03:14.358 Y yo diga "No, que parezca [br]más rápido y menos alemán", 0:03:14.382,0:03:16.545 y pum, la computadora muestra una opción. 0:03:16.569,0:03:18.434 (Risas) 0:03:18.798,0:03:21.104 Esa conversación puede parecer lejana, 0:03:21.128,0:03:23.793 quizás menos de lo que pensamos, 0:03:23.817,0:03:25.580 pero ahora, 0:03:25.604,0:03:26.755 trabajamos en ello. 0:03:26.779,0:03:30.812 Las herramientas están haciendo[br]el salto de pasivas a generativas. 0:03:31.421,0:03:36.069 Las herramientas generativas[br]usan una computadora y algoritmos 0:03:36.093,0:03:38.901 para sintetizar geometría, 0:03:38.925,0:03:41.679 para crear nuevos diseños por sí mismas. 0:03:42.126,0:03:44.874 Solo necesita objetivos y restricciones. 0:03:44.898,0:03:46.306 Les daré un ejemplo. 0:03:46.330,0:03:49.118 En el caso de este chasis de dron aéreo, 0:03:49.142,0:03:51.768 solo es necesario decir algo como, 0:03:51.792,0:03:53.065 tiene cuatro hélices, 0:03:53.089,0:03:55.220 que sea lo más liviano posible, 0:03:55.244,0:03:57.514 y con aerodinámica eficiente. 0:03:57.538,0:04:02.452 Luego la computadora explora[br]todas las soluciones posibles. 0:04:02.476,0:04:06.403 Cada posible solución que [br]concuerda con los criterios, 0:04:06.427,0:04:07.869 millones. 0:04:07.893,0:04:09.868 Se necesitan computadoras grandes. 0:04:09.892,0:04:11.847 Pero nos devuelve diseños 0:04:11.871,0:04:15.014 que por nuestros propios medios[br]nunca podríamos imaginar. 0:04:15.456,0:04:18.368 Y la computadora llega a esto [br]por sus propios medios. 0:04:18.392,0:04:20.070 Nadie jamás dibujó nada, 0:04:20.094,0:04:22.180 y comenzó de cero. 0:04:23.168,0:04:25.555 Y por cierto, no es un accidente 0:04:25.579,0:04:29.060 que el cuerpo del dron se parece[br]a la pelvis de una ardilla voladora. 0:04:29.231,0:04:32.146 (Risas) 0:04:32.170,0:04:34.472 Es porque los algoritmos trabajan 0:04:34.496,0:04:36.133 igual que la evolución. 0:04:37.045,0:04:39.705 Es emocionante que estamos [br]empezando a ver esta tecnología 0:04:39.729,0:04:40.888 en el mundo real. 0:04:40.912,0:04:43.364 Trabajamos con Airbus [br]durante un par de años 0:04:43.388,0:04:45.297 en este concepto de [br]avión para el futuro. 0:04:45.321,0:04:47.391 Aunque todavía es muy lejano. 0:04:47.415,0:04:51.195 Pero hace poco usamos inteligencia[br]artificial de diseño generativo 0:04:51.219,0:04:53.026 para llegar a esto. 0:04:53.939,0:04:59.092 Esta es una división de cabina impresa [br]en 3D diseñada por una computadora. 0:04:59.116,0:05:01.940 Es más fuerte que la original [br]y pesa la mitad, 0:05:01.964,0:05:05.110 y va a volar en el Airbus A320[br]más adelante en este año. 0:05:06.835,0:05:09.024 Ahora las computadoras pueden generar. 0:05:09.048,0:05:13.643 Pueden brindar sus propias soluciones[br]para nuestros problemas bien definidos. 0:05:14.737,0:05:16.047 Pero no son intuitivas. 0:05:16.071,0:05:19.157 Siempre tienen que comenzar de cero[br]en cada oportunidad, 0:05:19.181,0:05:21.871 Y eso es porque nunca aprenden. 0:05:22.768,0:05:24.534 No como Maggie. 0:05:24.558,0:05:26.139 (Risas) 0:05:26.163,0:05:29.460 Maggie es más inteligente que nuestras [br]herramientas más avanzadas. 0:05:29.867,0:05:31.367 ¿Qué quiero decir? 0:05:31.391,0:05:32.981 Si su dueño toma la correa, 0:05:33.005,0:05:35.073 Maggie sabe con bastante seguridad 0:05:35.097,0:05:36.501 que es hora de un paseo. 0:05:36.525,0:05:37.710 ¿Y cómo lo aprendió? 0:05:37.734,0:05:41.058 Bueno, cada vez que su dueño [br]toma la correa, salen a pasear. 0:05:41.082,0:05:42.960 Maggie hizo tres cosas: 0:05:42.984,0:05:44.853 tuvo que prestar atención, 0:05:44.877,0:05:46.959 tuvo que recordar qué pasó, 0:05:46.983,0:05:51.000 y tuvo que retener y crear [br]un patrón en su cabeza. 0:05:51.889,0:05:53.984 Interesante, eso es justo 0:05:54.008,0:05:56.531 lo que los científicos intentan hacer [br]con la inteligencia artificial 0:05:56.555,0:05:58.414 desde hace 60 años. 0:05:59.783,0:06:01.132 Allá en 1952, 0:06:01.156,0:06:04.957 construyeron esta computadora[br]que podía jugar ta-te-tí. 0:06:06.181,0:06:07.341 Gran cosa. 0:06:08.129,0:06:11.129 Luego, 45 años más tarde en 1997, 0:06:11.153,0:06:13.625 Deep Blue le ganó a Kasparov al ajedrez. 0:06:15.146,0:06:20.114 2011, Watson le gana a estos[br]dos humanos en Jeopardy, 0:06:20.138,0:06:23.066 que, para una computadora,[br]es mucho más difícil que el ajedrez. 0:06:23.090,0:06:26.902 De hecho, más que trabajar[br]con fórmulas predefinidas, 0:06:26.926,0:06:30.249 Watson tuvo que razonar para[br]vencer a sus oponentes humanos. 0:06:31.493,0:06:33.932 Luego, algunas semanas atrás, 0:06:33.956,0:06:38.218 AlphaGo de DeepMind venció[br]a los mejores en go, 0:06:38.242,0:06:40.454 que es más el juego [br]más difícil que tenemos. 0:06:40.478,0:06:43.974 De hecho, en go, hay más[br]movimientos posibles 0:06:43.998,0:06:46.022 que átomos en el universo. 0:06:47.910,0:06:49.736 Para ganar, 0:06:49.760,0:06:52.774 AlphaGo tuvo que desarrollar intuición. 0:06:52.798,0:06:56.908 De hecho, en cierto punto, los[br]programadores de AlphaGo no entendían 0:06:56.932,0:06:59.218 por qué AlphaGo hacía lo que hacía. 0:07:01.151,0:07:02.811 Y todo avanza muy rápido. 0:07:02.835,0:07:06.062 Es decir, si pensamos que en [br]el transcurso de una vida humana, 0:07:06.086,0:07:08.319 las computadoras pasaron [br]de ser juegos de niños 0:07:09.620,0:07:12.668 a lo que se considera la cúspide[br]del pensamiento estratégico. 0:07:13.699,0:07:16.116 Lo que básicamente ocurre 0:07:16.140,0:07:19.450 es que las computadoras [br]pasan de ser como Spock... 0:07:20.474,0:07:22.423 a ser más como Kirk. 0:07:22.447,0:07:26.065 (Risas) 0:07:26.089,0:07:29.513 De lógica pura a intuición. 0:07:31.584,0:07:33.327 ¿Uds. cruzarían ese puente? 0:07:34.009,0:07:36.332 Muchos piensan, "¡ni loco!" 0:07:36.356,0:07:37.664 (Risas) 0:07:37.688,0:07:40.345 Y llegan a esa decisión [br]en una fracción de segundo. 0:07:40.369,0:07:42.797 De alguna forma sabían que[br]ese puente es inestable. 0:07:42.821,0:07:44.810 Y esa es justo el tipo de intuición 0:07:44.834,0:07:48.402 que nuestros sistemas de aprendizaje [br]profundo desarrollan ahora mismo. 0:07:49.122,0:07:50.829 Muy pronto, podremos 0:07:50.853,0:07:53.782 mostrarle a una computadora[br]algo que hayamos diseñado, 0:07:53.806,0:07:55.439 y ésta lo mirará y dirá: 0:07:55.463,0:07:58.286 "Lo siento amigo, nunca va a funcionar.[br]Inténtalo de nuevo". 0:07:59.254,0:08:02.324 O podrías saber si a la gente[br]le va a gustar tu nueva canción, 0:08:03.173,0:08:05.236 o tu nuevo sabor de helado. 0:08:06.949,0:08:09.528 O, mucho más importante, 0:08:09.552,0:08:11.916 te podría ayudar a resolver un problema 0:08:11.940,0:08:13.577 que nunca hayamos enfrentado. 0:08:13.601,0:08:15.002 Como el cambio climático. 0:08:15.026,0:08:17.046 No estamos haciendo un gran trabajo, 0:08:17.070,0:08:19.315 podríamos usar toda [br]la ayuda posible sin dudas. 0:08:19.339,0:08:20.797 De eso hablo, 0:08:20.821,0:08:23.376 tecnología que mejora[br]nuestras habilidades cognitivas 0:08:23.400,0:08:26.952 para poder imaginar y diseñar[br]más allá de nuestro alcance 0:08:26.976,0:08:29.535 como simples humanos antiguos [br]y no aumentados. 0:08:31.384,0:08:34.325 ¿Pero qué pasa con todas[br]estas cosas alocadas nuevas 0:08:34.349,0:08:36.789 que vamos a inventar y diseñar? 0:08:37.352,0:08:41.445 Creo que la era del humano aumentado[br]tiene que ver tanto con el mundo físico 0:08:41.469,0:08:44.534 como con el virtual, [br]el reino de lo intelectual. 0:08:45.233,0:08:47.154 ¿Cómo nos aumentará la tecnología? 0:08:47.565,0:08:50.038 En el mundo físico, sistemas robóticos. 0:08:51.620,0:08:53.356 Bueno, igual existe un miedo latente 0:08:53.380,0:08:55.868 de que los robots se quedarán[br]con nuestro trabajo, 0:08:55.892,0:08:57.722 y es verdad en ciertos sectores. 0:08:58.174,0:09:01.052 Pero me interesa más esta idea 0:09:01.076,0:09:06.086 de que humanos y robots trabajen[br]juntos para aumentarse entre sí, 0:09:06.110,0:09:08.168 y empezar a habitar un espacio nuevo. 0:09:08.192,0:09:10.554 Este es nuestro laboratorio [br]en San Francisco, 0:09:10.578,0:09:13.720 donde una de nuestras áreas [br]de interés es robótica avanzada, 0:09:13.744,0:09:16.255 en especial, colaboración[br]entre humanos y robots. 0:09:17.034,0:09:19.793 Y este es Bishop, uno de nuestros robots. 0:09:19.817,0:09:21.606 Como un experimento, lo configuramos 0:09:21.630,0:09:25.090 para ayudar a una persona a hacer[br]tareas repetitivas en construcción, 0:09:25.984,0:09:30.178 tareas como hacer agujeros para [br]apliques o luces en una pared de yeso. 0:09:30.202,0:09:32.668 (Risas) 0:09:33.877,0:09:36.988 El compañero humano de Bishop[br]puede decir qué hacer en inglés 0:09:37.012,0:09:38.317 y con gestos simples, 0:09:38.341,0:09:39.788 como hablarle a un perro, 0:09:39.812,0:09:41.955 y luego Bishop ejecuta [br]dichas instrucciones 0:09:41.979,0:09:43.871 con una precisión perfecta. 0:09:43.895,0:09:46.884 Usamos al humano para lo que es bueno: 0:09:46.908,0:09:49.241 conciencia, percepción[br]y toma de decisiones. 0:09:49.265,0:09:51.505 Y usamos al robot para lo que es bueno: 0:09:51.529,0:09:53.277 precisión y repetición. 0:09:54.252,0:09:56.619 Y otro buen proyecto[br]en el que trabajó Bishop. 0:09:56.643,0:09:59.718 El objetivo de este, [br]al que denominamos HIVE, 0:09:59.742,0:10:03.593 fue experimentar con humanos,[br]computadoras y robots 0:10:03.617,0:10:06.837 todos trabajando juntos para resolver[br]un problema complejo de diseño. 0:10:07.793,0:10:09.244 Humanos como fuerza laboral. 0:10:09.268,0:10:12.741 Se movieron por la zona de construcción,[br]manipulando el bambú, 0:10:12.765,0:10:15.521 el cual, al no ser un material isomorfo, 0:10:15.545,0:10:17.419 es difícil de manipular por los robots. 0:10:17.543,0:10:19.865 Luego los robots hicieron [br]un camino serpenteante 0:10:19.889,0:10:22.340 casi imposible de hacer para un humano. 0:10:22.364,0:10:25.985 Y luego teníamos una inteligencia [br]artificial que controlaba todo. 0:10:26.109,0:10:29.399 Le decía a los humanos qué hacer,[br]y a los robots qué hacer 0:10:29.423,0:10:32.338 y llevaba registro de miles [br]de componentes individuales. 0:10:32.362,0:10:33.542 Es interesante que, 0:10:33.566,0:10:36.707 construir este pabellón [br]era prácticamente imposible 0:10:36.731,0:10:41.255 sin humanos, robots e inteligencia[br]artificial aumentándose entre sí. 0:10:42.390,0:10:45.710 Les mostraré uno de mis proyectos.[br]Es un poquito descabellado. 0:10:47.734,0:10:52.202 Trabajamos con un artista en Ámsterdam,[br]Joris Laarman y su equipo en MX3D, 0:10:53.526,0:10:56.404 en un diseño generativo[br]para imprimir con robots 0:10:56.428,0:10:59.423 el primer puente creado de[br]manera autónoma en el mundo. 0:11:01.015,0:11:04.700 Joris y una inteligencia artificial [br]diseñan esto ahora, mientras hablamos, 0:11:04.724,0:11:05.896 en Ámsterdam. 0:11:06.620,0:11:09.211 Y cuando terminen, les daremos luz verde, 0:11:09.235,0:11:12.546 y los robots empezarán a imprimir[br]en 3D el acero inoxidable, 0:11:12.570,0:11:15.853 y luego seguirán imprimiendo[br]sin intervención humana, 0:11:15.877,0:11:17.435 hasta que el puente se termine. 0:11:18.769,0:11:21.697 Conforme las computadoras[br]aumenten nuestra realidad 0:11:21.721,0:11:23.871 para imaginar y diseñar cosas nuevas, 0:11:23.895,0:11:26.790 los sistemas robóticos [br]nos ayudarán a crear cosas 0:11:26.814,0:11:28.898 que nunca podríamos haber hecho antes. 0:11:30.017,0:11:34.177 ¿Y qué pasa con nuestra habilidad[br]para sentir y controlar estas cosas? 0:11:34.201,0:11:38.232 ¿Y si usamos un sistema nervioso [br]para controlar las cosas que hacemos? 0:11:40.486,0:11:42.998 Nuestro sistema nervioso,[br]el de los humanos, 0:11:43.022,0:11:45.333 nos dice todo lo que [br]pasa a nuestro alrededor. 0:11:46.086,0:11:49.389 Pero el sistema nervioso de las cosas[br]que creamos es rudimentario. 0:11:49.413,0:11:51.578 En este punto diría que es una porquería. 0:11:51.602,0:11:52.930 (Risas) 0:11:52.954,0:11:56.817 Por ejemplo, un auto no le dice[br]al departamento de obras públicas 0:11:56.841,0:11:59.971 que acaba de pasar un bache en [br]la esquina de Broadway y Morrison. 0:12:01.295,0:12:03.327 Un edificio no les dice a sus diseñadores 0:12:03.351,0:12:06.035 si la gente que está dentro lo disfruta, 0:12:07.659,0:12:10.669 y el fabricante de juguetes no sabe 0:12:10.693,0:12:12.700 si se juega con cierto juguete, 0:12:12.724,0:12:15.263 cómo, dónde, y si es divertido o no. 0:12:15.880,0:12:19.694 Miren, seguro que los diseñadores[br]se imaginaron esta vida para la Barbie 0:12:19.718,0:12:20.942 cuando la diseñaron. 0:12:20.966,0:12:22.413 (Risas) 0:12:23.237,0:12:26.143 ¿Pero qué pasaría si en realidad[br]la Barbie se siente muy sola? 0:12:26.167,0:12:30.302 (Risas) 0:12:30.326,0:12:31.614 Si los diseñadores supieran 0:12:31.638,0:12:33.745 qué pasa realmente en el mundo 0:12:33.769,0:12:36.352 con sus diseños: caminos, [br]edificios, Barbies, 0:12:36.376,0:12:39.070 podrían usar ese conocimiento[br]para crear una experiencia 0:12:39.094,0:12:40.494 mejor para el usuario. 0:12:40.518,0:12:42.309 Lo que falta es un sistema nervioso 0:12:42.333,0:12:46.042 que nos conecte a las cosas que[br]diseñamos, creamos, y usamos. 0:12:46.975,0:12:50.530 ¿Qué pasaría si todos tuvieran[br]ese tipo de información 0:12:50.554,0:12:52.737 desde todas las cosas[br]que creamos en el mundo? 0:12:54.492,0:12:55.943 Con todo lo que hacemos, 0:12:55.967,0:12:58.402 gastamos una cantidad inmensa[br]de dinero y energías. 0:12:58.426,0:13:00.802 De hecho, el último año,[br]cerca de USD 2 billones 0:13:00.826,0:13:03.680 intentando que la gente[br]compre lo que hacemos. 0:13:03.704,0:13:07.092 Pero si existiera esta conexión[br]con las cosas que uno diseña y crea 0:13:07.116,0:13:08.843 después de que salen al mundo, 0:13:08.867,0:13:12.481 después de vendidas,[br]lanzadas o lo que sea, 0:13:12.505,0:13:14.125 podríamos en verdad cambiarlo, 0:13:14.149,0:13:17.596 e ir desde hacer que la [br]gente quiera nuestras cosas, 0:13:17.620,0:13:21.054 a hacer cosas que la gente [br]quiere en primer lugar. 0:13:24.478,0:13:27.265 La buena noticia es que [br]trabajamos en sistemas nerviosos 0:13:27.289,0:13:30.090 que nos conectan con lo que creamos. 0:13:31.225,0:13:32.852 Estamos trabajando en un proyecto 0:13:32.876,0:13:37.888 con un par de personas en Los Ángeles[br]llamados los Bandito Brothers 0:13:37.912,0:13:39.319 y su equipo. 0:13:39.343,0:13:42.776 Y una de las cosas que hacen [br]es crear autos delirantes 0:13:42.800,0:13:45.673 que hacen cosas absolutamente delirantes. 0:13:47.065,0:13:48.515 Estas personas están locas, 0:13:48.539,0:13:49.575 (Risas) 0:13:49.599,0:13:51.002 de la mejor manera. 0:13:54.793,0:13:56.556 Y lo que estamos haciendo juntos 0:13:56.580,0:13:59.020 es tomar el chasis tradicional de un auto 0:13:59.044,0:14:00.629 y darle un sistema nervioso. 0:14:00.653,0:14:03.771 Lo equipamos con decenas de sensores, 0:14:03.795,0:14:06.430 pusimos un piloto de [br]primer nivel al volante, 0:14:06.454,0:14:09.811 lo llevamos al desierto, y lo manejó[br]al máximo durante una semana. 0:14:09.835,0:14:12.326 Y el sistema nervioso[br]del auto capturó todo 0:14:12.350,0:14:13.832 lo que pasaba en el auto. 0:14:13.856,0:14:16.477 Capturamos 4000 millones de datos, 0:14:16.501,0:14:18.811 todas las fuerzas a la que era sometido. 0:14:18.835,0:14:20.494 Y luego construimos algo alocado. 0:14:21.238,0:14:22.738 Tomamos esos datos y los pusimos 0:14:22.762,0:14:26.498 en una inteligencia artificial de diseño [br]generativo que llamamos "Dreamcatcher". 0:14:27.240,0:14:31.204 ¿Y qué obtienes cuando les das un sistema [br]nervioso a una herramienta de diseño 0:14:31.228,0:14:34.110 y le pides que te construya[br]lo último en chasis de autos? 0:14:34.693,0:14:36.666 Obtienes esto. 0:14:38.263,0:14:41.976 Estos es algo que un humano[br]nunca podría haber diseñado. 0:14:42.677,0:14:44.565 Pero esto lo diseñó un humano, 0:14:44.589,0:14:48.898 un humano aumentado por una[br]inteligencia de diseño generativo, 0:14:48.922,0:14:50.153 un sistema nervioso digital 0:14:50.177,0:14:53.182 y robots que realmente[br]pueden fabricar algo así. 0:14:54.150,0:14:57.745 Si este es el futuro, la era aumentada, 0:14:57.769,0:15:02.030 y aumentaremos nuestro nivel [br]cognitivo, físico y perceptivo, 0:15:02.054,0:15:03.462 ¿a qué se parecerá? 0:15:04.046,0:15:06.712 ¿A qué se parecerá este [br]país de las maravillas? 0:15:08.291,0:15:10.900 Creo que veremos un mundo 0:15:10.924,0:15:13.992 donde iremos de cosas que se fabrican 0:15:15.101,0:15:16.546 a cosas que se cultivan. 0:15:18.429,0:15:22.374 De cosas que se construyen 0:15:22.398,0:15:24.102 a cosas que se cultivan. 0:15:26.504,0:15:28.692 Iremos de estar aislados 0:15:29.660,0:15:31.270 a estar conectados. 0:15:33.104,0:15:36.015 Iremos de extracción 0:15:36.039,0:15:37.912 a adoptar la agregación. 0:15:40.437,0:15:44.204 Y también creo que pasaremos de[br]ansiar la obediencia de nuestras cosas 0:15:45.128,0:15:46.769 a valorar su autonomía. 0:15:49.480,0:15:51.385 Gracias a las capacidades aumentadas 0:15:51.409,0:15:53.786 nuestro mundo sufrirá un cambio drástico. 0:15:54.702,0:15:58.305 Pienso que una buena analogía es [br]el microcosmo de un arrecife de coral. 0:15:58.836,0:16:02.082 Tendremos un mundo con [br]más variedad, más conectividad, 0:16:02.106,0:16:04.393 más dinamismo, más complejidad, 0:16:04.417,0:16:06.735 más adaptabilidad y, por supuesto, 0:16:06.759,0:16:07.976 más belleza. 0:16:08.741,0:16:10.305 La formas de las cosas por venir 0:16:10.329,0:16:12.619 será algo que jamás hemos visto antes. 0:16:12.643,0:16:13.802 ¿Por qué? 0:16:13.826,0:16:17.581 Porque nuestra nueva asociación[br]le dará forma a estas cosas 0:16:17.605,0:16:21.275 entre tecnología, naturaleza, y humanidad. 0:16:22.789,0:16:26.593 Eso, para mí, es un futuro[br]que vale la pena anhelar. 0:16:26.617,0:16:27.888 Muchas gracias a todos. 0:16:27.912,0:16:34.912 (Aplausos)