0:00:00.000,0:00:04.600 Cuando era niño,[br]era un nerd por excelencia. 0:00:05.320,0:00:07.496 Creo que algunos de Uds. también. 0:00:07.520,0:00:08.736 (Risas) 0:00:08.760,0:00:11.976 Y Ud. señor, el que se rio más fuerte,[br]probablemente aún lo sea. 0:00:12.000,0:00:14.256 (Risas) 0:00:14.280,0:00:17.776 Crecí en un pueblo pequeño[br]en los llanos del norte de Tejas, 0:00:17.800,0:00:21.136 hijo de un comisario, [br]que fue hijo de un pastor. 0:00:21.160,0:00:23.080 Meterse en problemas[br]no era una opción. 0:00:24.040,0:00:27.296 Así es que comencé a [br]leer libros de cálculo por diversión. 0:00:27.320,0:00:28.856 (Risas) 0:00:28.880,0:00:30.576 Uds. también lo hicieron. 0:00:30.600,0:00:34.336 Eso me llevó a crear un láser, [br]una computadora y modelos de cohetes, 0:00:34.360,0:00:37.470 y eso me llevó a hacer [br]combustible para cohetes en mi habitación. 0:00:37.960,0:00:41.616 En términos científicos, 0:00:41.640,0:00:44.896 esta es una muy mala idea. 0:00:44.920,0:00:46.136 (Risas) 0:00:46.160,0:00:48.336 Por esos días 0:00:48.360,0:00:51.576 se estrenó "2001: Una Odisea[br]en el Espacio" de Stanley Kubrick, 0:00:51.600,0:00:53.800 y mi vida cambió para siempre. 0:00:54.280,0:00:56.336 Me encantó todo de esa película, 0:00:56.360,0:00:58.896 especialmente el HAL 9000. 0:00:58.920,0:01:00.976 HAL era un computador sensible 0:01:01.000,0:01:03.456 diseñado para guiar [br]la aeronave Discovery 0:01:03.480,0:01:06.016 de la Tierra a Júpiter. 0:01:06.040,0:01:08.096 HAL además era imperfecto, 0:01:08.120,0:01:12.400 porque eligió el valor de la misión[br]sobre la vida humana. 0:01:12.840,0:01:14.936 HAL era un personaje ficticio, 0:01:14.960,0:01:17.616 y sin embargo habla sobre [br]nuestros temores, 0:01:17.640,0:01:19.736 nuestros temores a ser subyugados 0:01:19.760,0:01:22.776 por alguna insensible [br]inteligencia artificial 0:01:22.800,0:01:24.760 indiferente a nuestra humanidad. 0:01:25.880,0:01:28.456 Creo que esos temores [br]son infundados. 0:01:28.480,0:01:31.176 De hecho, estamos en un tiempo notable 0:01:31.200,0:01:32.736 en la historia de la humanidad, 0:01:32.760,0:01:37.736 donde, motivados por la negación a [br]aceptar los límites del cuerpo y mente, 0:01:37.760,0:01:39.456 construimos máquinas 0:01:39.480,0:01:43.096 de complejidad y gracia[br]exquisita y hermosa 0:01:43.120,0:01:45.176 que expanden la experiencia humana 0:01:45.200,0:01:46.880 más allá de nuestra imaginación. 0:01:47.420,0:01:50.456 Tras una carrera que me llevó[br]de la Academia de la Fuerza Aérea 0:01:50.466,0:01:52.256 a comandante de estación espacial, 0:01:52.280,0:01:53.976 me volví ingeniero de sistemas, 0:01:54.000,0:01:56.736 y recientemente me encontré [br]con un problema de ingeniería 0:01:56.760,0:01:59.336 relacionado con la misión [br]de la NASA a Marte. 0:01:59.360,0:02:01.856 En vuelos espaciales a la Luna, 0:02:01.880,0:02:04.960 dependemos del control[br]de la misión en Houston 0:02:04.960,0:02:07.016 para vigilar todos los aspectos[br]de un vuelo. 0:02:07.040,0:02:10.576 Sin embargo, [br]Marte está 200 veces más lejos, 0:02:10.600,0:02:13.816 como resultado toma [br]en promedio 13 minutos 0:02:13.840,0:02:16.976 para que una señal viaje [br]de la Tierra a Marte. 0:02:17.000,0:02:20.400 Si hay algún percance, [br]no hay suficiente tiempo. 0:02:20.840,0:02:23.336 Una solución razonable de ingeniería 0:02:23.360,0:02:25.936 nos incita a instalar [br]el control de la misión 0:02:25.960,0:02:28.976 dentro de las paredes de [br]la aeronave Orión. 0:02:29.000,0:02:31.896 Otra idea fascinante [br]en el perfil de la misión 0:02:31.920,0:02:34.800 es colocar robots humanoides [br]en la superficie de Marte 0:02:34.800,0:02:36.780 antes de que los humanos mismos lleguen, 0:02:36.780,0:02:38.536 primero para construir instalaciones 0:02:38.536,0:02:41.760 y luego para servir como colaboradores[br]en el equipo científico. 0:02:43.400,0:02:46.136 Al mirar esto desde [br]la ingeniería, 0:02:46.160,0:02:49.336 me quedó claro que[br]lo que necesitaba diseñar 0:02:49.360,0:02:51.536 era una inteligencia artificial muy lista, 0:02:51.560,0:02:53.936 colaborativa y social. 0:02:53.960,0:02:58.256 En otras palabras, necesitaba construir[br]algo muy parecido a HAL 0:02:58.280,0:03:00.696 pero sin las tendencias homicidas. 0:03:00.720,0:03:02.080 (Risas) 0:03:02.920,0:03:04.736 Detengámonos un momento. 0:03:04.760,0:03:08.656 ¿Es realmente posible [br]construir inteligencia artificial así? 0:03:08.680,0:03:10.136 De hecho, sí lo es. 0:03:10.160,0:03:11.400 En muchas maneras, 0:03:11.400,0:03:13.496 este es un problema difícil [br]de la ingeniería 0:03:13.496,0:03:14.896 con elementos de IA, 0:03:14.920,0:03:19.616 no es un simple problema de IA[br]que necesite diseñarse. 0:03:19.640,0:03:22.240 Parafraseando a Alan Turing, 0:03:22.240,0:03:24.696 no me interesa construir[br]una máquina sensible. 0:03:24.720,0:03:26.296 No voy a construir un HAL. 0:03:26.320,0:03:28.736 Todo lo que busco es [br]un cerebro sencillo, 0:03:28.760,0:03:31.880 algo que ofrezca [br]una ilusión de inteligencia. 0:03:33.000,0:03:36.136 El arte y la ciencia de la computación[br]ha pasado por mucho 0:03:36.160,0:03:37.656 desde la aparición de HAL, 0:03:37.680,0:03:40.896 e imagino que si su inventor[br]Dr. Chandra estuviera aquí hoy, 0:03:40.920,0:03:43.256 tendría mucho que preguntarnos. 0:03:43.280,0:03:45.376 ¿Es realmente posible[br] 0:03:45.400,0:03:49.416 tomar un sistema de millones[br]y millones de dispositivos, 0:03:49.440,0:03:50.896 para leer flujos de datos, 0:03:50.920,0:03:53.176 para predecir fallas y [br]actuar con antelación? 0:03:53.200,0:03:54.416 Sí. 0:03:54.440,0:03:57.616 ¿Podemos construir sistemas que [br]se comuniquen con humanos? 0:03:57.640,0:03:58.856 Sí. 0:03:58.880,0:04:01.856 ¿Podemos construir sistemas que [br]reconozcan objetos, emociones, 0:04:01.880,0:04:05.256 que se emocionen, jueguen e incluso[br]que lean los labios? 0:04:05.280,0:04:06.460 Sí. 0:04:06.460,0:04:08.796 ¿Podemos construir un sistema [br]que fije objetivos, 0:04:08.796,0:04:12.296 que lleve a cabo planes contra esos[br]objetivos y siga aprendiendo más? 0:04:12.320,0:04:13.536 Sí. 0:04:13.560,0:04:16.896 ¿Podemos construir sistemas[br]que piensen por sí mismos? 0:04:16.920,0:04:18.416 Estamos aprendiendo a hacerlo. 0:04:18.440,0:04:21.920 ¿Podemos construir sistemas [br]con fundamentos éticos y morales? 0:04:22.480,0:04:24.520 Debemos aprender cómo hacerlo. 0:04:25.360,0:04:26.736 Aceptemos por un momento 0:04:26.760,0:04:29.656 que es posible construir[br]tal inteligencia artificial 0:04:29.680,0:04:31.816 para estas misiones y otras. 0:04:31.840,0:04:34.376 La siguiente pregunta que [br]deben formularse es, 0:04:34.400,0:04:35.856 ¿deberíamos temerle? 0:04:35.880,0:04:37.856 Toda nueva tecnología[br] 0:04:37.880,0:04:40.776 trae consigo algunos temores. 0:04:40.800,0:04:42.496 Cuando vimos autos por primera vez, 0:04:42.520,0:04:46.536 la gente temía que viéramos [br]la destrucción de la familia. 0:04:46.560,0:04:49.256 Cuando se inventaron los teléfonos, 0:04:49.280,0:04:52.176 la gente temía que arruinara[br]la conversación civilizada. 0:04:52.200,0:04:55.970 En algún momento, vimos a la palabra[br]escrita aparecer en todos lados, 0:04:55.970,0:04:58.656 la gente creyó que perderíamos[br]la habilidad de memorizar. 0:04:58.680,0:05:00.736 Todo esto es cierto hasta cierto grado, 0:05:00.760,0:05:03.176 pero estas tecnologías también 0:05:03.200,0:05:06.576 nos dieron cosas que expandieron[br]la experiencia humana 0:05:06.600,0:05:08.480 de manera profunda. 0:05:09.840,0:05:12.120 Así que vayamos más lejos. 0:05:13.120,0:05:17.856 No temo la creación de una IA así, 0:05:17.880,0:05:21.696 porque finalmente encarnará[br]algunos de nuestros valores. 0:05:21.720,0:05:25.216 Consideren lo siguiente: construir un[br]sistema cognitivo es muy distinto 0:05:25.240,0:05:28.536 a construir uno tradicional [br]intensivo en software como en el pasado. 0:05:28.560,0:05:31.016 No los programamos. Les enseñamos. 0:05:31.040,0:05:33.696 Para enseñarle a un sistema[br]a reconocer flores, 0:05:33.720,0:05:36.736 le muestro miles de flores que me gustan. 0:05:36.760,0:05:39.016 Para enseñarle a jugar... 0:05:39.040,0:05:41.000 Bueno, lo haría y Uds. también. 0:05:42.600,0:05:44.640 Me gustan las flores. 0:05:45.440,0:05:48.296 Para enseñarle a un sistema[br]a jugar un juego como Go, 0:05:48.320,0:05:50.370 lo pondría a jugar[br]miles de juegos de Go, 0:05:50.370,0:05:52.056 y en el proceso[br]también le enseñaría 0:05:52.080,0:05:54.496 a discernir un buen juego [br]de uno malo. 0:05:54.520,0:05:58.200 Si quiero crear un asistente legal[br]con inteligencia artificial, 0:05:58.200,0:06:00.136 le enseñaría algo del[br]corpus legislativo 0:06:00.136,0:06:02.896 combinando al mismo tiempo 0:06:02.920,0:06:06.220 el sentido de la piedad y la justicia[br]que también son parte de la ley. 0:06:06.560,0:06:09.536 En términos científicos, [br]lo llamamos verdad en tierra firme, 0:06:09.560,0:06:11.576 este es el punto importante: 0:06:11.600,0:06:13.056 al producir estas máquinas, 0:06:13.080,0:06:16.496 les estamos enseñando también[br]el sentido de nuestros valores. 0:06:16.520,0:06:19.656 Para este fin,[br]confío en la inteligencia artificial 0:06:19.680,0:06:23.320 tanto, si no más, que en[br]un humano bien entrenado. 0:06:24.080,0:06:25.296 Quizá se pregunten 0:06:25.320,0:06:27.936 ¿qué hay de los agentes rebeldes, 0:06:27.960,0:06:31.296 algunas organizaciones sólidas[br]no gubernamentales? 0:06:31.320,0:06:35.136 No le temo a la inteligencia artificial[br]en manos de un lobo solitario. 0:06:35.160,0:06:39.696 Claramente no podemos protegernos[br]de todo tipo de violencia, 0:06:39.720,0:06:41.856 en realidad, un sistema así 0:06:41.880,0:06:44.976 requiere entrenamiento importante y sutil 0:06:45.000,0:06:47.296 más allá de los recursos de un individuo. 0:06:47.320,0:06:48.536 Además, 0:06:48.560,0:06:51.816 se trata de algo más que inyectar[br]un virus en el internet global, 0:06:51.840,0:06:54.936 donde al presionar un botón, [br]se esparce a millones de lugares 0:06:54.960,0:06:57.416 y las laptops comienzan a estallar[br]en pedazos. 0:06:57.440,0:07:00.256 Este tipo de sustancias son más grandes 0:07:00.280,0:07:01.995 y se les ve venir. 0:07:02.520,0:07:05.576 ¿Temo que ese tipo de [br]inteligencia artificial 0:07:05.600,0:07:07.560 amenace a la humanidad? 0:07:08.280,0:07:12.656 Si miran películas [br]como "Matrix", "Metrópolis", 0:07:12.680,0:07:15.856 "Terminator" y shows como "Westworld", 0:07:15.880,0:07:18.016 todos hablan de este miedo. 0:07:18.040,0:07:22.336 El libro "Superinteligencia"[br]del filósofo Nick Bostrom, 0:07:22.360,0:07:23.896 habla de este tema 0:07:23.920,0:07:27.936 y opina que una superinteligencia [br]no solo puede ser peligrosa, 0:07:27.960,0:07:31.816 sino que podría representar[br]una amenaza existencial para la humanidad. 0:07:31.840,0:07:34.056 El argumento fundamental del Dr. Bostrom 0:07:34.080,0:07:36.816 es que dichos sistemas finalmente 0:07:36.840,0:07:40.096 tendrán una necesidad insaciable [br]de información 0:07:40.120,0:07:43.016 que quizá aprendan cómo aprender 0:07:43.040,0:07:45.656 y finalmente descubran [br]que pueden tener objetivos 0:07:45.680,0:07:47.976 contrarios a las necesidades humanas. 0:07:48.000,0:07:49.856 El Dr. Bostrom tiene varios seguidores. 0:07:49.880,0:07:54.200 Gente como Elon Musk y[br]Stephen Hawking lo apoyan. 0:07:54.880,0:07:57.280 Con todo respeto 0:07:58.160,0:08:00.176 a estas mentes brillantes, 0:08:00.200,0:08:02.456 creo que están completamente equivocados. 0:08:02.480,0:08:05.656 Hay muchas partes del argumento [br]del Dr. Bostrom que analizar, 0:08:05.680,0:08:07.816 y no tengo tiempo para hacerlo, 0:08:07.840,0:08:10.536 pero brevemente, piensen esto: 0:08:10.560,0:08:14.160 el superconocimiento es muy distinto [br]al superhacer. 0:08:14.160,0:08:16.376 HAL era una amenaza[br]para la flota del Discovery 0:08:16.376,0:08:20.656 en la medida en que controlaba[br]todos los aspectos del Discovery. 0:08:20.680,0:08:23.176 Se necesitaría una superinteligencia. 0:08:23.200,0:08:25.696 Y un dominio total de nuestro mundo. 0:08:25.720,0:08:28.536 Skynet de la película "Terminator" 0:08:28.560,0:08:30.340 tenía una superinteligencia 0:08:30.340,0:08:31.956 que controlaba la voluntad humana, 0:08:31.956,0:08:35.696 y controlaba cada dispositivo[br]en todos los rincones del mundo. 0:08:35.720,0:08:37.176 Siendo prácticos, 0:08:37.200,0:08:39.296 eso no pasará. 0:08:39.320,0:08:42.376 No estamos construyendo IAs[br]que controlen el clima, 0:08:42.400,0:08:43.736 que controlen las mareas, 0:08:43.760,0:08:47.136 que nos controlen a nosotros, [br]caprichosos y caóticos humanos. 0:08:47.160,0:08:51.056 Además, si tal [br]inteligencia artificial existiera, 0:08:51.080,0:08:54.016 tendría que competir contra[br]las economías del hombre, 0:08:54.040,0:08:56.560 y por tanto competir por recursos[br]contra nosotros. 0:08:57.200,0:08:58.416 Y al final 0:08:58.440,0:08:59.680 --no le digan a Siri-- 0:09:00.260,0:09:01.816 siempre podremos desconectarlos. 0:09:01.840,0:09:03.960 (Risas) 0:09:05.360,0:09:07.816 Estamos en una increíble aventura 0:09:07.840,0:09:10.336 de coevolución con nuestras máquinas. 0:09:10.360,0:09:12.856 Los humanos que somos hoy 0:09:12.880,0:09:15.416 no son los humanos que seremos. 0:09:15.440,0:09:18.576 Preocuparse ahorita del ascenso[br]de una superinteligencia 0:09:18.600,0:09:21.656 es una distracción peligrosa[br]en muchos sentidos 0:09:21.680,0:09:24.016 porque el ascenso de la computación 0:09:24.040,0:09:27.056 trajo consigo muchos problemas[br]humanos y sociales 0:09:27.080,0:09:28.880 de los que debemos ocuparnos ahora. 0:09:29.360,0:09:32.176 ¿Cómo organizar a la sociedad 0:09:32.200,0:09:34.536 cuando la necesidad de trabajo [br]humano decrece? 0:09:34.560,0:09:38.376 ¿Cómo llevar conocimiento y educación[br]a través del mundo 0:09:38.400,0:09:40.176 respetando nuestras diferencias? 0:09:40.200,0:09:44.456 ¿Cómo expandir y mejorar la vida[br]con la atención médica cognitiva? 0:09:44.480,0:09:47.360 ¿Cómo usar la computación 0:09:47.360,0:09:49.320 para ayudarnos a alcanzar las estrellas? 0:09:49.760,0:09:51.800 Eso es lo emocionante. 0:09:52.400,0:09:54.736 Las oportunidades para usar la computación 0:09:54.760,0:09:56.296 y fomentar la experiencia humana 0:09:56.320,0:09:57.736 están a nuestro alcance, 0:09:57.760,0:09:59.616 aquí y ahora, 0:09:59.640,0:10:01.320 y apenas hemos comenzado. 0:10:02.280,0:10:03.496 Muchas gracias. 0:10:03.520,0:10:07.806 (Aplausos)