WEBVTT 00:00:00.000 --> 00:00:04.600 Cuando era niño, era un nerd por excelencia. 00:00:05.320 --> 00:00:07.496 Creo que algunos de Uds. también. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (Risas) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 Y Ud. señor, el que se rio más fuerte, probablemente aún lo sea. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (Risas) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 Crecí en un pueblo pequeño en los llanos del norte de Tejas, 00:00:17.800 --> 00:00:21.136 hijo de un comisario, que fue hijo de un pastor. 00:00:21.160 --> 00:00:23.080 Meterse en problemas no era una opción. 00:00:24.040 --> 00:00:27.296 Así es que comencé a leer libros de cálculo por diversión. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (Risas) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 Uds. también lo hicieron. 00:00:30.600 --> 00:00:34.336 Eso me llevó a crear un láser, una computadora y modelos de cohetes, 00:00:34.360 --> 00:00:37.470 y eso me llevó a hacer combustible para cohetes en mi habitación. 00:00:37.960 --> 00:00:41.616 En términos científicos, 00:00:41.640 --> 00:00:44.896 esta es una muy mala idea. NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (Risas) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 Por esos días 00:00:48.360 --> 00:00:51.576 se estrenó "2001: Una Odisea en el Espacio" de Stanley Kubrick, 00:00:51.600 --> 00:00:53.800 y mi vida cambió para siempre. 00:00:54.280 --> 00:00:56.336 Me encantó todo de esa película, 00:00:56.360 --> 00:00:58.896 especialmente el HAL 9000. 00:00:58.920 --> 00:01:00.976 HAL era un computador sensible 00:01:01.000 --> 00:01:03.456 diseñado para guiar la aeronave Discovery 00:01:03.480 --> 00:01:06.016 de la Tierra a Júpiter. 00:01:06.040 --> 00:01:08.096 HAL además era imperfecto, 00:01:08.120 --> 00:01:12.400 porque eligió el valor de la misión sobre la vida humana. 00:01:12.840 --> 00:01:14.936 HAL era un personaje ficticio, 00:01:14.960 --> 00:01:17.616 y sin embargo habla sobre nuestros temores, 00:01:17.640 --> 00:01:19.736 nuestros temores a ser subyugados 00:01:19.760 --> 00:01:22.776 por alguna insensible inteligencia artificial 00:01:22.800 --> 00:01:24.760 indiferente a nuestra humanidad. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 Creo que esos temores son infundados. 00:01:28.480 --> 00:01:31.176 De hecho, estamos en un tiempo notable 00:01:31.200 --> 00:01:32.736 en la historia de la humanidad, 00:01:32.760 --> 00:01:37.736 donde, motivados por la negación a aceptar los límites del cuerpo y mente, 00:01:37.760 --> 00:01:39.456 construimos máquinas 00:01:39.480 --> 00:01:43.096 de complejidad y gracia exquisita y hermosa 00:01:43.120 --> 00:01:45.176 que expanden la experiencia humana 00:01:45.200 --> 00:01:46.880 más allá de nuestra imaginación. NOTE Paragraph 00:01:47.420 --> 00:01:50.456 Tras una carrera que me llevó de la Academia de la Fuerza Aérea 00:01:50.466 --> 00:01:52.256 a comandante de estación espacial, 00:01:52.280 --> 00:01:53.976 me volví ingeniero de sistemas, 00:01:54.000 --> 00:01:56.736 y recientemente me encontré con un problema de ingeniería 00:01:56.760 --> 00:01:59.336 relacionado con la misión de la NASA a Marte. 00:01:59.360 --> 00:02:01.856 En vuelos espaciales a la Luna, 00:02:01.880 --> 00:02:04.960 dependemos del control de la misión en Houston 00:02:04.960 --> 00:02:07.016 para vigilar todos los aspectos de un vuelo. 00:02:07.040 --> 00:02:10.576 Sin embargo, Marte está 200 veces más lejos, 00:02:10.600 --> 00:02:13.816 como resultado toma en promedio 13 minutos 00:02:13.840 --> 00:02:16.976 para que una señal viaje de la Tierra a Marte. 00:02:17.000 --> 00:02:20.400 Si hay algún percance, no hay suficiente tiempo. 00:02:20.840 --> 00:02:23.336 Una solución razonable de ingeniería 00:02:23.360 --> 00:02:25.936 nos incita a instalar el control de la misión 00:02:25.960 --> 00:02:28.976 dentro de las paredes de la aeronave Orión. 00:02:29.000 --> 00:02:31.896 Otra idea fascinante en el perfil de la misión 00:02:31.920 --> 00:02:34.800 es colocar robots humanoides en la superficie de Marte 00:02:34.800 --> 00:02:36.780 antes de que los humanos mismos lleguen, 00:02:36.780 --> 00:02:38.536 primero para construir instalaciones 00:02:38.536 --> 00:02:41.760 y luego para servir como colaboradores en el equipo científico. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 Al mirar esto desde la ingeniería, 00:02:46.160 --> 00:02:49.336 me quedó claro que lo que necesitaba diseñar 00:02:49.360 --> 00:02:51.536 era una inteligencia artificial muy lista, 00:02:51.560 --> 00:02:53.936 colaborativa y social. 00:02:53.960 --> 00:02:58.256 En otras palabras, necesitaba construir algo muy parecido a HAL 00:02:58.280 --> 00:03:00.696 pero sin las tendencias homicidas. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (Risas) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 Detengámonos un momento. 00:03:04.760 --> 00:03:08.656 ¿Es realmente posible construir inteligencia artificial así? 00:03:08.680 --> 00:03:10.136 De hecho, sí lo es. 00:03:10.160 --> 00:03:11.400 En muchas maneras, 00:03:11.400 --> 00:03:13.496 este es un problema difícil de la ingeniería 00:03:13.496 --> 00:03:14.896 con elementos de IA, 00:03:14.920 --> 00:03:19.616 no es un simple problema de IA que necesite diseñarse. 00:03:19.640 --> 00:03:22.240 Parafraseando a Alan Turing, 00:03:22.240 --> 00:03:24.696 no me interesa construir una máquina sensible. 00:03:24.720 --> 00:03:26.296 No voy a construir un HAL. 00:03:26.320 --> 00:03:28.736 Todo lo que busco es un cerebro sencillo, 00:03:28.760 --> 00:03:31.880 algo que ofrezca una ilusión de inteligencia. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 El arte y la ciencia de la computación ha pasado por mucho 00:03:36.160 --> 00:03:37.656 desde la aparición de HAL, 00:03:37.680 --> 00:03:40.896 e imagino que si su inventor Dr. Chandra estuviera aquí hoy, 00:03:40.920 --> 00:03:43.256 tendría mucho que preguntarnos. 00:03:43.280 --> 00:03:45.376 ¿Es realmente posible 00:03:45.400 --> 00:03:49.416 tomar un sistema de millones y millones de dispositivos, 00:03:49.440 --> 00:03:50.896 para leer flujos de datos, 00:03:50.920 --> 00:03:53.176 para predecir fallas y actuar con antelación? 00:03:53.200 --> 00:03:54.416 Sí. 00:03:54.440 --> 00:03:57.616 ¿Podemos construir sistemas que se comuniquen con humanos? 00:03:57.640 --> 00:03:58.856 Sí. 00:03:58.880 --> 00:04:01.856 ¿Podemos construir sistemas que reconozcan objetos, emociones, 00:04:01.880 --> 00:04:05.256 que se emocionen, jueguen e incluso que lean los labios? 00:04:05.280 --> 00:04:06.460 Sí. 00:04:06.460 --> 00:04:08.796 ¿Podemos construir un sistema que fije objetivos, 00:04:08.796 --> 00:04:12.296 que lleve a cabo planes contra esos objetivos y siga aprendiendo más? 00:04:12.320 --> 00:04:13.536 Sí. 00:04:13.560 --> 00:04:16.896 ¿Podemos construir sistemas que piensen por sí mismos? 00:04:16.920 --> 00:04:18.416 Estamos aprendiendo a hacerlo. 00:04:18.440 --> 00:04:21.920 ¿Podemos construir sistemas con fundamentos éticos y morales? 00:04:22.480 --> 00:04:24.520 Debemos aprender cómo hacerlo. 00:04:25.360 --> 00:04:26.736 Aceptemos por un momento 00:04:26.760 --> 00:04:29.656 que es posible construir tal inteligencia artificial 00:04:29.680 --> 00:04:31.816 para estas misiones y otras. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 La siguiente pregunta que deben formularse es, 00:04:34.400 --> 00:04:35.856 ¿deberíamos temerle? 00:04:35.880 --> 00:04:37.856 Toda nueva tecnología 00:04:37.880 --> 00:04:40.776 trae consigo algunos temores. 00:04:40.800 --> 00:04:42.496 Cuando vimos autos por primera vez, 00:04:42.520 --> 00:04:46.536 la gente temía que viéramos la destrucción de la familia. 00:04:46.560 --> 00:04:49.256 Cuando se inventaron los teléfonos, 00:04:49.280 --> 00:04:52.176 la gente temía que arruinara la conversación civilizada. 00:04:52.200 --> 00:04:55.970 En algún momento, vimos a la palabra escrita aparecer en todos lados, 00:04:55.970 --> 00:04:58.656 la gente creyó que perderíamos la habilidad de memorizar. 00:04:58.680 --> 00:05:00.736 Todo esto es cierto hasta cierto grado, 00:05:00.760 --> 00:05:03.176 pero estas tecnologías también 00:05:03.200 --> 00:05:06.576 nos dieron cosas que expandieron la experiencia humana 00:05:06.600 --> 00:05:08.480 de manera profunda. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Así que vayamos más lejos. 00:05:13.120 --> 00:05:17.856 No temo la creación de una IA así, 00:05:17.880 --> 00:05:21.696 porque finalmente encarnará algunos de nuestros valores. 00:05:21.720 --> 00:05:25.216 Consideren lo siguiente: construir un sistema cognitivo es muy distinto 00:05:25.240 --> 00:05:28.536 a construir uno tradicional intensivo en software como en el pasado. 00:05:28.560 --> 00:05:31.016 No los programamos. Les enseñamos. 00:05:31.040 --> 00:05:33.696 Para enseñarle a un sistema a reconocer flores, 00:05:33.720 --> 00:05:36.736 le muestro miles de flores que me gustan. 00:05:36.760 --> 00:05:39.016 Para enseñarle a jugar... 00:05:39.040 --> 00:05:41.000 Bueno, lo haría y Uds. también. 00:05:42.600 --> 00:05:44.640 Me gustan las flores. 00:05:45.440 --> 00:05:48.296 Para enseñarle a un sistema a jugar un juego como Go, 00:05:48.320 --> 00:05:50.370 lo pondría a jugar miles de juegos de Go, 00:05:50.370 --> 00:05:52.056 y en el proceso también le enseñaría 00:05:52.080 --> 00:05:54.496 a discernir un buen juego de uno malo. 00:05:54.520 --> 00:05:58.200 Si quiero crear un asistente legal con inteligencia artificial, 00:05:58.200 --> 00:06:00.136 le enseñaría algo del corpus legislativo 00:06:00.136 --> 00:06:02.896 combinando al mismo tiempo 00:06:02.920 --> 00:06:06.220 el sentido de la piedad y la justicia que también son parte de la ley. 00:06:06.560 --> 00:06:09.536 En términos científicos, lo llamamos verdad en tierra firme, 00:06:09.560 --> 00:06:11.576 este es el punto importante: 00:06:11.600 --> 00:06:13.056 al producir estas máquinas, 00:06:13.080 --> 00:06:16.496 les estamos enseñando también el sentido de nuestros valores. 00:06:16.520 --> 00:06:19.656 Para este fin, confío en la inteligencia artificial 00:06:19.680 --> 00:06:23.320 tanto, si no más, que en un humano bien entrenado. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 Quizá se pregunten 00:06:25.320 --> 00:06:27.936 ¿qué hay de los agentes rebeldes, 00:06:27.960 --> 00:06:31.296 algunas organizaciones sólidas no gubernamentales? 00:06:31.320 --> 00:06:35.136 No le temo a la inteligencia artificial en manos de un lobo solitario. 00:06:35.160 --> 00:06:39.696 Claramente no podemos protegernos de todo tipo de violencia, 00:06:39.720 --> 00:06:41.856 en realidad, un sistema así 00:06:41.880 --> 00:06:44.976 requiere entrenamiento importante y sutil 00:06:45.000 --> 00:06:47.296 más allá de los recursos de un individuo. 00:06:47.320 --> 00:06:48.536 Además, 00:06:48.560 --> 00:06:51.816 se trata de algo más que inyectar un virus en el internet global, 00:06:51.840 --> 00:06:54.936 donde al presionar un botón, se esparce a millones de lugares 00:06:54.960 --> 00:06:57.416 y las laptops comienzan a estallar en pedazos. 00:06:57.440 --> 00:07:00.256 Este tipo de sustancias son más grandes 00:07:00.280 --> 00:07:01.995 y se les ve venir. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 ¿Temo que ese tipo de inteligencia artificial 00:07:05.600 --> 00:07:07.560 amenace a la humanidad? 00:07:08.280 --> 00:07:12.656 Si miran películas como "Matrix", "Metrópolis", 00:07:12.680 --> 00:07:15.856 "Terminator" y shows como "Westworld", 00:07:15.880 --> 00:07:18.016 todos hablan de este miedo. 00:07:18.040 --> 00:07:22.336 El libro "Superinteligencia" del filósofo Nick Bostrom, 00:07:22.360 --> 00:07:23.896 habla de este tema 00:07:23.920 --> 00:07:27.936 y opina que una superinteligencia no solo puede ser peligrosa, 00:07:27.960 --> 00:07:31.816 sino que podría representar una amenaza existencial para la humanidad. 00:07:31.840 --> 00:07:34.056 El argumento fundamental del Dr. Bostrom 00:07:34.080 --> 00:07:36.816 es que dichos sistemas finalmente 00:07:36.840 --> 00:07:40.096 tendrán una necesidad insaciable de información 00:07:40.120 --> 00:07:43.016 que quizá aprendan cómo aprender 00:07:43.040 --> 00:07:45.656 y finalmente descubran que pueden tener objetivos 00:07:45.680 --> 00:07:47.976 contrarios a las necesidades humanas. 00:07:48.000 --> 00:07:49.856 El Dr. Bostrom tiene varios seguidores. 00:07:49.880 --> 00:07:54.200 Gente como Elon Musk y Stephen Hawking lo apoyan. 00:07:54.880 --> 00:07:57.280 Con todo respeto 00:07:58.160 --> 00:08:00.176 a estas mentes brillantes, 00:08:00.200 --> 00:08:02.456 creo que están completamente equivocados. 00:08:02.480 --> 00:08:05.656 Hay muchas partes del argumento del Dr. Bostrom que analizar, 00:08:05.680 --> 00:08:07.816 y no tengo tiempo para hacerlo, 00:08:07.840 --> 00:08:10.536 pero brevemente, piensen esto: 00:08:10.560 --> 00:08:14.160 el superconocimiento es muy distinto al superhacer. 00:08:14.160 --> 00:08:16.376 HAL era una amenaza para la flota del Discovery 00:08:16.376 --> 00:08:20.656 en la medida en que controlaba todos los aspectos del Discovery. 00:08:20.680 --> 00:08:23.176 Se necesitaría una superinteligencia. 00:08:23.200 --> 00:08:25.696 Y un dominio total de nuestro mundo. 00:08:25.720 --> 00:08:28.536 Skynet de la película "Terminator" 00:08:28.560 --> 00:08:30.340 tenía una superinteligencia 00:08:30.340 --> 00:08:31.956 que controlaba la voluntad humana, 00:08:31.956 --> 00:08:35.696 y controlaba cada dispositivo en todos los rincones del mundo. 00:08:35.720 --> 00:08:37.176 Siendo prácticos, 00:08:37.200 --> 00:08:39.296 eso no pasará. 00:08:39.320 --> 00:08:42.376 No estamos construyendo IAs que controlen el clima, 00:08:42.400 --> 00:08:43.736 que controlen las mareas, 00:08:43.760 --> 00:08:47.136 que nos controlen a nosotros, caprichosos y caóticos humanos. 00:08:47.160 --> 00:08:51.056 Además, si tal inteligencia artificial existiera, 00:08:51.080 --> 00:08:54.016 tendría que competir contra las economías del hombre, 00:08:54.040 --> 00:08:56.560 y por tanto competir por recursos contra nosotros. 00:08:57.200 --> 00:08:58.416 Y al final 00:08:58.440 --> 00:08:59.680 --no le digan a Siri-- 00:09:00.260 --> 00:09:01.816 siempre podremos desconectarlos. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (Risas) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 Estamos en una increíble aventura 00:09:07.840 --> 00:09:10.336 de coevolución con nuestras máquinas. 00:09:10.360 --> 00:09:12.856 Los humanos que somos hoy 00:09:12.880 --> 00:09:15.416 no son los humanos que seremos. 00:09:15.440 --> 00:09:18.576 Preocuparse ahorita del ascenso de una superinteligencia 00:09:18.600 --> 00:09:21.656 es una distracción peligrosa en muchos sentidos 00:09:21.680 --> 00:09:24.016 porque el ascenso de la computación 00:09:24.040 --> 00:09:27.056 trajo consigo muchos problemas humanos y sociales 00:09:27.080 --> 00:09:28.880 de los que debemos ocuparnos ahora. 00:09:29.360 --> 00:09:32.176 ¿Cómo organizar a la sociedad 00:09:32.200 --> 00:09:34.536 cuando la necesidad de trabajo humano decrece? 00:09:34.560 --> 00:09:38.376 ¿Cómo llevar conocimiento y educación a través del mundo 00:09:38.400 --> 00:09:40.176 respetando nuestras diferencias? 00:09:40.200 --> 00:09:44.456 ¿Cómo expandir y mejorar la vida con la atención médica cognitiva? 00:09:44.480 --> 00:09:47.360 ¿Cómo usar la computación 00:09:47.360 --> 00:09:49.320 para ayudarnos a alcanzar las estrellas? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 Eso es lo emocionante. 00:09:52.400 --> 00:09:54.736 Las oportunidades para usar la computación 00:09:54.760 --> 00:09:56.296 y fomentar la experiencia humana 00:09:56.320 --> 00:09:57.736 están a nuestro alcance, 00:09:57.760 --> 00:09:59.616 aquí y ahora, 00:09:59.640 --> 00:10:01.320 y apenas hemos comenzado. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 Muchas gracias. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (Aplausos)