[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.00,0:00:04.60,Default,,0000,0000,0000,,Cuando era niño,\Nera un nerd por excelencia. Dialogue: 0,0:00:05.32,0:00:07.50,Default,,0000,0000,0000,,Creo que algunos de Uds. también. Dialogue: 0,0:00:07.52,0:00:08.74,Default,,0000,0000,0000,,(Risas) Dialogue: 0,0:00:08.76,0:00:11.98,Default,,0000,0000,0000,,Y Ud. señor, el que se rio más fuerte,\Nprobablemente aún lo sea. Dialogue: 0,0:00:12.00,0:00:14.26,Default,,0000,0000,0000,,(Risas) Dialogue: 0,0:00:14.28,0:00:17.78,Default,,0000,0000,0000,,Crecí en un pueblo pequeño\Nen los llanos del norte de Tejas, Dialogue: 0,0:00:17.80,0:00:21.14,Default,,0000,0000,0000,,hijo de un comisario, \Nque fue hijo de un pastor. Dialogue: 0,0:00:21.16,0:00:23.08,Default,,0000,0000,0000,,Meterse en problemas\Nno era una opción. Dialogue: 0,0:00:24.04,0:00:27.30,Default,,0000,0000,0000,,Así es que comencé a \Nleer libros de cálculo por diversión. Dialogue: 0,0:00:27.32,0:00:28.86,Default,,0000,0000,0000,,(Risas) Dialogue: 0,0:00:28.88,0:00:30.58,Default,,0000,0000,0000,,Uds. también lo hicieron. Dialogue: 0,0:00:30.60,0:00:34.34,Default,,0000,0000,0000,,Eso me llevó a crear un láser, \Nuna computadora y modelos de cohetes, Dialogue: 0,0:00:34.36,0:00:37.47,Default,,0000,0000,0000,,y eso me llevó a hacer \Ncombustible para cohetes en mi habitación. Dialogue: 0,0:00:37.96,0:00:41.62,Default,,0000,0000,0000,,En términos científicos, Dialogue: 0,0:00:41.64,0:00:44.90,Default,,0000,0000,0000,,esta es una muy mala idea. Dialogue: 0,0:00:44.92,0:00:46.14,Default,,0000,0000,0000,,(Risas) Dialogue: 0,0:00:46.16,0:00:48.34,Default,,0000,0000,0000,,Por esos días Dialogue: 0,0:00:48.36,0:00:51.58,Default,,0000,0000,0000,,se estrenó "2001: Una Odisea\Nen el Espacio" de Stanley Kubrick, Dialogue: 0,0:00:51.60,0:00:53.80,Default,,0000,0000,0000,,y mi vida cambió para siempre. Dialogue: 0,0:00:54.28,0:00:56.34,Default,,0000,0000,0000,,Me encantó todo de esa película, Dialogue: 0,0:00:56.36,0:00:58.90,Default,,0000,0000,0000,,especialmente el HAL 9000. Dialogue: 0,0:00:58.92,0:01:00.98,Default,,0000,0000,0000,,HAL era un computador sensible Dialogue: 0,0:01:01.00,0:01:03.46,Default,,0000,0000,0000,,diseñado para guiar \Nla aeronave Discovery Dialogue: 0,0:01:03.48,0:01:06.02,Default,,0000,0000,0000,,de la Tierra a Júpiter. Dialogue: 0,0:01:06.04,0:01:08.10,Default,,0000,0000,0000,,HAL además era imperfecto, Dialogue: 0,0:01:08.12,0:01:12.40,Default,,0000,0000,0000,,porque eligió el valor de la misión\Nsobre la vida humana. Dialogue: 0,0:01:12.84,0:01:14.94,Default,,0000,0000,0000,,HAL era un personaje ficticio, Dialogue: 0,0:01:14.96,0:01:17.62,Default,,0000,0000,0000,,y sin embargo habla sobre \Nnuestros temores, Dialogue: 0,0:01:17.64,0:01:19.74,Default,,0000,0000,0000,,nuestros temores a ser subyugados Dialogue: 0,0:01:19.76,0:01:22.78,Default,,0000,0000,0000,,por alguna insensible \Ninteligencia artificial Dialogue: 0,0:01:22.80,0:01:24.76,Default,,0000,0000,0000,,indiferente a nuestra humanidad. Dialogue: 0,0:01:25.88,0:01:28.46,Default,,0000,0000,0000,,Creo que esos temores \Nson infundados. Dialogue: 0,0:01:28.48,0:01:31.18,Default,,0000,0000,0000,,De hecho, estamos en un tiempo notable Dialogue: 0,0:01:31.20,0:01:32.74,Default,,0000,0000,0000,,en la historia de la humanidad, Dialogue: 0,0:01:32.76,0:01:37.74,Default,,0000,0000,0000,,donde, motivados por la negación a \Naceptar los límites del cuerpo y mente, Dialogue: 0,0:01:37.76,0:01:39.46,Default,,0000,0000,0000,,construimos máquinas Dialogue: 0,0:01:39.48,0:01:43.10,Default,,0000,0000,0000,,de complejidad y gracia\Nexquisita y hermosa Dialogue: 0,0:01:43.12,0:01:45.18,Default,,0000,0000,0000,,que expanden la experiencia humana Dialogue: 0,0:01:45.20,0:01:46.88,Default,,0000,0000,0000,,más allá de nuestra imaginación. Dialogue: 0,0:01:47.42,0:01:50.46,Default,,0000,0000,0000,,Tras una carrera que me llevó\Nde la Academia de la Fuerza Aérea Dialogue: 0,0:01:50.47,0:01:52.26,Default,,0000,0000,0000,,a comandante de estación espacial, Dialogue: 0,0:01:52.28,0:01:53.98,Default,,0000,0000,0000,,me volví ingeniero de sistemas, Dialogue: 0,0:01:54.00,0:01:56.74,Default,,0000,0000,0000,,y recientemente me encontré \Ncon un problema de ingeniería Dialogue: 0,0:01:56.76,0:01:59.34,Default,,0000,0000,0000,,relacionado con la misión \Nde la NASA a Marte. Dialogue: 0,0:01:59.36,0:02:01.86,Default,,0000,0000,0000,,En vuelos espaciales a la Luna, Dialogue: 0,0:02:01.88,0:02:04.96,Default,,0000,0000,0000,,dependemos del control\Nde la misión en Houston Dialogue: 0,0:02:04.96,0:02:07.02,Default,,0000,0000,0000,,para vigilar todos los aspectos\Nde un vuelo. Dialogue: 0,0:02:07.04,0:02:10.58,Default,,0000,0000,0000,,Sin embargo, \NMarte está 200 veces más lejos, Dialogue: 0,0:02:10.60,0:02:13.82,Default,,0000,0000,0000,,como resultado toma \Nen promedio 13 minutos Dialogue: 0,0:02:13.84,0:02:16.98,Default,,0000,0000,0000,,para que una señal viaje \Nde la Tierra a Marte. Dialogue: 0,0:02:17.00,0:02:20.40,Default,,0000,0000,0000,,Si hay algún percance, \Nno hay suficiente tiempo. Dialogue: 0,0:02:20.84,0:02:23.34,Default,,0000,0000,0000,,Una solución razonable de ingeniería Dialogue: 0,0:02:23.36,0:02:25.94,Default,,0000,0000,0000,,nos incita a instalar \Nel control de la misión Dialogue: 0,0:02:25.96,0:02:28.98,Default,,0000,0000,0000,,dentro de las paredes de \Nla aeronave Orión. Dialogue: 0,0:02:29.00,0:02:31.90,Default,,0000,0000,0000,,Otra idea fascinante \Nen el perfil de la misión Dialogue: 0,0:02:31.92,0:02:34.80,Default,,0000,0000,0000,,es colocar robots humanoides \Nen la superficie de Marte Dialogue: 0,0:02:34.80,0:02:36.78,Default,,0000,0000,0000,,antes de que los humanos mismos lleguen, Dialogue: 0,0:02:36.78,0:02:38.54,Default,,0000,0000,0000,,primero para construir instalaciones Dialogue: 0,0:02:38.54,0:02:41.76,Default,,0000,0000,0000,,y luego para servir como colaboradores\Nen el equipo científico. Dialogue: 0,0:02:43.40,0:02:46.14,Default,,0000,0000,0000,,Al mirar esto desde \Nla ingeniería, Dialogue: 0,0:02:46.16,0:02:49.34,Default,,0000,0000,0000,,me quedó claro que\Nlo que necesitaba diseñar Dialogue: 0,0:02:49.36,0:02:51.54,Default,,0000,0000,0000,,era una inteligencia artificial muy lista, Dialogue: 0,0:02:51.56,0:02:53.94,Default,,0000,0000,0000,,colaborativa y social. Dialogue: 0,0:02:53.96,0:02:58.26,Default,,0000,0000,0000,,En otras palabras, necesitaba construir\Nalgo muy parecido a HAL Dialogue: 0,0:02:58.28,0:03:00.70,Default,,0000,0000,0000,,pero sin las tendencias homicidas. Dialogue: 0,0:03:00.72,0:03:02.08,Default,,0000,0000,0000,,(Risas) Dialogue: 0,0:03:02.92,0:03:04.74,Default,,0000,0000,0000,,Detengámonos un momento. Dialogue: 0,0:03:04.76,0:03:08.66,Default,,0000,0000,0000,,¿Es realmente posible \Nconstruir inteligencia artificial así? Dialogue: 0,0:03:08.68,0:03:10.14,Default,,0000,0000,0000,,De hecho, sí lo es. Dialogue: 0,0:03:10.16,0:03:11.40,Default,,0000,0000,0000,,En muchas maneras, Dialogue: 0,0:03:11.40,0:03:13.50,Default,,0000,0000,0000,,este es un problema difícil \Nde la ingeniería Dialogue: 0,0:03:13.50,0:03:14.90,Default,,0000,0000,0000,,con elementos de IA, Dialogue: 0,0:03:14.92,0:03:19.62,Default,,0000,0000,0000,,no es un simple problema de IA\Nque necesite diseñarse. Dialogue: 0,0:03:19.64,0:03:22.24,Default,,0000,0000,0000,,Parafraseando a Alan Turing, Dialogue: 0,0:03:22.24,0:03:24.70,Default,,0000,0000,0000,,no me interesa construir\Nuna máquina sensible. Dialogue: 0,0:03:24.72,0:03:26.30,Default,,0000,0000,0000,,No voy a construir un HAL. Dialogue: 0,0:03:26.32,0:03:28.74,Default,,0000,0000,0000,,Todo lo que busco es \Nun cerebro sencillo, Dialogue: 0,0:03:28.76,0:03:31.88,Default,,0000,0000,0000,,algo que ofrezca \Nuna ilusión de inteligencia. Dialogue: 0,0:03:33.00,0:03:36.14,Default,,0000,0000,0000,,El arte y la ciencia de la computación\Nha pasado por mucho Dialogue: 0,0:03:36.16,0:03:37.66,Default,,0000,0000,0000,,desde la aparición de HAL, Dialogue: 0,0:03:37.68,0:03:40.90,Default,,0000,0000,0000,,e imagino que si su inventor\NDr. Chandra estuviera aquí hoy, Dialogue: 0,0:03:40.92,0:03:43.26,Default,,0000,0000,0000,,tendría mucho que preguntarnos. Dialogue: 0,0:03:43.28,0:03:45.38,Default,,0000,0000,0000,,¿Es realmente posible\N Dialogue: 0,0:03:45.40,0:03:49.42,Default,,0000,0000,0000,,tomar un sistema de millones\Ny millones de dispositivos, Dialogue: 0,0:03:49.44,0:03:50.90,Default,,0000,0000,0000,,para leer flujos de datos, Dialogue: 0,0:03:50.92,0:03:53.18,Default,,0000,0000,0000,,para predecir fallas y \Nactuar con antelación? Dialogue: 0,0:03:53.20,0:03:54.42,Default,,0000,0000,0000,,Sí. Dialogue: 0,0:03:54.44,0:03:57.62,Default,,0000,0000,0000,,¿Podemos construir sistemas que \Nse comuniquen con humanos? Dialogue: 0,0:03:57.64,0:03:58.86,Default,,0000,0000,0000,,Sí. Dialogue: 0,0:03:58.88,0:04:01.86,Default,,0000,0000,0000,,¿Podemos construir sistemas que \Nreconozcan objetos, emociones, Dialogue: 0,0:04:01.88,0:04:05.26,Default,,0000,0000,0000,,que se emocionen, jueguen e incluso\Nque lean los labios? Dialogue: 0,0:04:05.28,0:04:06.46,Default,,0000,0000,0000,,Sí. Dialogue: 0,0:04:06.46,0:04:08.80,Default,,0000,0000,0000,,¿Podemos construir un sistema \Nque fije objetivos, Dialogue: 0,0:04:08.80,0:04:12.30,Default,,0000,0000,0000,,que lleve a cabo planes contra esos\Nobjetivos y siga aprendiendo más? Dialogue: 0,0:04:12.32,0:04:13.54,Default,,0000,0000,0000,,Sí. Dialogue: 0,0:04:13.56,0:04:16.90,Default,,0000,0000,0000,,¿Podemos construir sistemas\Nque piensen por sí mismos? Dialogue: 0,0:04:16.92,0:04:18.42,Default,,0000,0000,0000,,Estamos aprendiendo a hacerlo. Dialogue: 0,0:04:18.44,0:04:21.92,Default,,0000,0000,0000,,¿Podemos construir sistemas \Ncon fundamentos éticos y morales? Dialogue: 0,0:04:22.48,0:04:24.52,Default,,0000,0000,0000,,Debemos aprender cómo hacerlo. Dialogue: 0,0:04:25.36,0:04:26.74,Default,,0000,0000,0000,,Aceptemos por un momento Dialogue: 0,0:04:26.76,0:04:29.66,Default,,0000,0000,0000,,que es posible construir\Ntal inteligencia artificial Dialogue: 0,0:04:29.68,0:04:31.82,Default,,0000,0000,0000,,para estas misiones y otras. Dialogue: 0,0:04:31.84,0:04:34.38,Default,,0000,0000,0000,,La siguiente pregunta que \Ndeben formularse es, Dialogue: 0,0:04:34.40,0:04:35.86,Default,,0000,0000,0000,,¿deberíamos temerle? Dialogue: 0,0:04:35.88,0:04:37.86,Default,,0000,0000,0000,,Toda nueva tecnología\N Dialogue: 0,0:04:37.88,0:04:40.78,Default,,0000,0000,0000,,trae consigo algunos temores. Dialogue: 0,0:04:40.80,0:04:42.50,Default,,0000,0000,0000,,Cuando vimos autos por primera vez, Dialogue: 0,0:04:42.52,0:04:46.54,Default,,0000,0000,0000,,la gente temía que viéramos \Nla destrucción de la familia. Dialogue: 0,0:04:46.56,0:04:49.26,Default,,0000,0000,0000,,Cuando se inventaron los teléfonos, Dialogue: 0,0:04:49.28,0:04:52.18,Default,,0000,0000,0000,,la gente temía que arruinara\Nla conversación civilizada. Dialogue: 0,0:04:52.20,0:04:55.97,Default,,0000,0000,0000,,En algún momento, vimos a la palabra\Nescrita aparecer en todos lados, Dialogue: 0,0:04:55.97,0:04:58.66,Default,,0000,0000,0000,,la gente creyó que perderíamos\Nla habilidad de memorizar. Dialogue: 0,0:04:58.68,0:05:00.74,Default,,0000,0000,0000,,Todo esto es cierto hasta cierto grado, Dialogue: 0,0:05:00.76,0:05:03.18,Default,,0000,0000,0000,,pero estas tecnologías también Dialogue: 0,0:05:03.20,0:05:06.58,Default,,0000,0000,0000,,nos dieron cosas que expandieron\Nla experiencia humana Dialogue: 0,0:05:06.60,0:05:08.48,Default,,0000,0000,0000,,de manera profunda. Dialogue: 0,0:05:09.84,0:05:12.12,Default,,0000,0000,0000,,Así que vayamos más lejos. Dialogue: 0,0:05:13.12,0:05:17.86,Default,,0000,0000,0000,,No temo la creación de una IA así, Dialogue: 0,0:05:17.88,0:05:21.70,Default,,0000,0000,0000,,porque finalmente encarnará\Nalgunos de nuestros valores. Dialogue: 0,0:05:21.72,0:05:25.22,Default,,0000,0000,0000,,Consideren lo siguiente: construir un\Nsistema cognitivo es muy distinto Dialogue: 0,0:05:25.24,0:05:28.54,Default,,0000,0000,0000,,a construir uno tradicional \Nintensivo en software como en el pasado. Dialogue: 0,0:05:28.56,0:05:31.02,Default,,0000,0000,0000,,No los programamos. Les enseñamos. Dialogue: 0,0:05:31.04,0:05:33.70,Default,,0000,0000,0000,,Para enseñarle a un sistema\Na reconocer flores, Dialogue: 0,0:05:33.72,0:05:36.74,Default,,0000,0000,0000,,le muestro miles de flores que me gustan. Dialogue: 0,0:05:36.76,0:05:39.02,Default,,0000,0000,0000,,Para enseñarle a jugar... Dialogue: 0,0:05:39.04,0:05:41.00,Default,,0000,0000,0000,,Bueno, lo haría y Uds. también. Dialogue: 0,0:05:42.60,0:05:44.64,Default,,0000,0000,0000,,Me gustan las flores. Dialogue: 0,0:05:45.44,0:05:48.30,Default,,0000,0000,0000,,Para enseñarle a un sistema\Na jugar un juego como Go, Dialogue: 0,0:05:48.32,0:05:50.37,Default,,0000,0000,0000,,lo pondría a jugar\Nmiles de juegos de Go, Dialogue: 0,0:05:50.37,0:05:52.06,Default,,0000,0000,0000,,y en el proceso\Ntambién le enseñaría Dialogue: 0,0:05:52.08,0:05:54.50,Default,,0000,0000,0000,,a discernir un buen juego \Nde uno malo. Dialogue: 0,0:05:54.52,0:05:58.20,Default,,0000,0000,0000,,Si quiero crear un asistente legal\Ncon inteligencia artificial, Dialogue: 0,0:05:58.20,0:06:00.14,Default,,0000,0000,0000,,le enseñaría algo del\Ncorpus legislativo Dialogue: 0,0:06:00.14,0:06:02.90,Default,,0000,0000,0000,,combinando al mismo tiempo Dialogue: 0,0:06:02.92,0:06:06.22,Default,,0000,0000,0000,,el sentido de la piedad y la justicia\Nque también son parte de la ley. Dialogue: 0,0:06:06.56,0:06:09.54,Default,,0000,0000,0000,,En términos científicos, \Nlo llamamos verdad en tierra firme, Dialogue: 0,0:06:09.56,0:06:11.58,Default,,0000,0000,0000,,este es el punto importante: Dialogue: 0,0:06:11.60,0:06:13.06,Default,,0000,0000,0000,,al producir estas máquinas, Dialogue: 0,0:06:13.08,0:06:16.50,Default,,0000,0000,0000,,les estamos enseñando también\Nel sentido de nuestros valores. Dialogue: 0,0:06:16.52,0:06:19.66,Default,,0000,0000,0000,,Para este fin,\Nconfío en la inteligencia artificial Dialogue: 0,0:06:19.68,0:06:23.32,Default,,0000,0000,0000,,tanto, si no más, que en\Nun humano bien entrenado. Dialogue: 0,0:06:24.08,0:06:25.30,Default,,0000,0000,0000,,Quizá se pregunten Dialogue: 0,0:06:25.32,0:06:27.94,Default,,0000,0000,0000,,¿qué hay de los agentes rebeldes, Dialogue: 0,0:06:27.96,0:06:31.30,Default,,0000,0000,0000,,algunas organizaciones sólidas\Nno gubernamentales? Dialogue: 0,0:06:31.32,0:06:35.14,Default,,0000,0000,0000,,No le temo a la inteligencia artificial\Nen manos de un lobo solitario. Dialogue: 0,0:06:35.16,0:06:39.70,Default,,0000,0000,0000,,Claramente no podemos protegernos\Nde todo tipo de violencia, Dialogue: 0,0:06:39.72,0:06:41.86,Default,,0000,0000,0000,,en realidad, un sistema así Dialogue: 0,0:06:41.88,0:06:44.98,Default,,0000,0000,0000,,requiere entrenamiento importante y sutil Dialogue: 0,0:06:45.00,0:06:47.30,Default,,0000,0000,0000,,más allá de los recursos de un individuo. Dialogue: 0,0:06:47.32,0:06:48.54,Default,,0000,0000,0000,,Además, Dialogue: 0,0:06:48.56,0:06:51.82,Default,,0000,0000,0000,,se trata de algo más que inyectar\Nun virus en el internet global, Dialogue: 0,0:06:51.84,0:06:54.94,Default,,0000,0000,0000,,donde al presionar un botón, \Nse esparce a millones de lugares Dialogue: 0,0:06:54.96,0:06:57.42,Default,,0000,0000,0000,,y las laptops comienzan a estallar\Nen pedazos. Dialogue: 0,0:06:57.44,0:07:00.26,Default,,0000,0000,0000,,Este tipo de sustancias son más grandes Dialogue: 0,0:07:00.28,0:07:01.100,Default,,0000,0000,0000,,y se les ve venir. Dialogue: 0,0:07:02.52,0:07:05.58,Default,,0000,0000,0000,,¿Temo que ese tipo de \Ninteligencia artificial Dialogue: 0,0:07:05.60,0:07:07.56,Default,,0000,0000,0000,,amenace a la humanidad? Dialogue: 0,0:07:08.28,0:07:12.66,Default,,0000,0000,0000,,Si miran películas \Ncomo "Matrix", "Metrópolis", Dialogue: 0,0:07:12.68,0:07:15.86,Default,,0000,0000,0000,,"Terminator" y shows como "Westworld", Dialogue: 0,0:07:15.88,0:07:18.02,Default,,0000,0000,0000,,todos hablan de este miedo. Dialogue: 0,0:07:18.04,0:07:22.34,Default,,0000,0000,0000,,El libro "Superinteligencia"\Ndel filósofo Nick Bostrom, Dialogue: 0,0:07:22.36,0:07:23.90,Default,,0000,0000,0000,,habla de este tema Dialogue: 0,0:07:23.92,0:07:27.94,Default,,0000,0000,0000,,y opina que una superinteligencia \Nno solo puede ser peligrosa, Dialogue: 0,0:07:27.96,0:07:31.82,Default,,0000,0000,0000,,sino que podría representar\Nuna amenaza existencial para la humanidad. Dialogue: 0,0:07:31.84,0:07:34.06,Default,,0000,0000,0000,,El argumento fundamental del Dr. Bostrom Dialogue: 0,0:07:34.08,0:07:36.82,Default,,0000,0000,0000,,es que dichos sistemas finalmente Dialogue: 0,0:07:36.84,0:07:40.10,Default,,0000,0000,0000,,tendrán una necesidad insaciable \Nde información Dialogue: 0,0:07:40.12,0:07:43.02,Default,,0000,0000,0000,,que quizá aprendan cómo aprender Dialogue: 0,0:07:43.04,0:07:45.66,Default,,0000,0000,0000,,y finalmente descubran \Nque pueden tener objetivos Dialogue: 0,0:07:45.68,0:07:47.98,Default,,0000,0000,0000,,contrarios a las necesidades humanas. Dialogue: 0,0:07:48.00,0:07:49.86,Default,,0000,0000,0000,,El Dr. Bostrom tiene varios seguidores. Dialogue: 0,0:07:49.88,0:07:54.20,Default,,0000,0000,0000,,Gente como Elon Musk y\NStephen Hawking lo apoyan. Dialogue: 0,0:07:54.88,0:07:57.28,Default,,0000,0000,0000,,Con todo respeto Dialogue: 0,0:07:58.16,0:08:00.18,Default,,0000,0000,0000,,a estas mentes brillantes, Dialogue: 0,0:08:00.20,0:08:02.46,Default,,0000,0000,0000,,creo que están completamente equivocados. Dialogue: 0,0:08:02.48,0:08:05.66,Default,,0000,0000,0000,,Hay muchas partes del argumento \Ndel Dr. Bostrom que analizar, Dialogue: 0,0:08:05.68,0:08:07.82,Default,,0000,0000,0000,,y no tengo tiempo para hacerlo, Dialogue: 0,0:08:07.84,0:08:10.54,Default,,0000,0000,0000,,pero brevemente, piensen esto: Dialogue: 0,0:08:10.56,0:08:14.16,Default,,0000,0000,0000,,el superconocimiento es muy distinto \Nal superhacer. Dialogue: 0,0:08:14.16,0:08:16.38,Default,,0000,0000,0000,,HAL era una amenaza\Npara la flota del Discovery Dialogue: 0,0:08:16.38,0:08:20.66,Default,,0000,0000,0000,,en la medida en que controlaba\Ntodos los aspectos del Discovery. Dialogue: 0,0:08:20.68,0:08:23.18,Default,,0000,0000,0000,,Se necesitaría una superinteligencia. Dialogue: 0,0:08:23.20,0:08:25.70,Default,,0000,0000,0000,,Y un dominio total de nuestro mundo. Dialogue: 0,0:08:25.72,0:08:28.54,Default,,0000,0000,0000,,Skynet de la película "Terminator" Dialogue: 0,0:08:28.56,0:08:30.34,Default,,0000,0000,0000,,tenía una superinteligencia Dialogue: 0,0:08:30.34,0:08:31.96,Default,,0000,0000,0000,,que controlaba la voluntad humana, Dialogue: 0,0:08:31.96,0:08:35.70,Default,,0000,0000,0000,,y controlaba cada dispositivo\Nen todos los rincones del mundo. Dialogue: 0,0:08:35.72,0:08:37.18,Default,,0000,0000,0000,,Siendo prácticos, Dialogue: 0,0:08:37.20,0:08:39.30,Default,,0000,0000,0000,,eso no pasará. Dialogue: 0,0:08:39.32,0:08:42.38,Default,,0000,0000,0000,,No estamos construyendo IAs\Nque controlen el clima, Dialogue: 0,0:08:42.40,0:08:43.74,Default,,0000,0000,0000,,que controlen las mareas, Dialogue: 0,0:08:43.76,0:08:47.14,Default,,0000,0000,0000,,que nos controlen a nosotros, \Ncaprichosos y caóticos humanos. Dialogue: 0,0:08:47.16,0:08:51.06,Default,,0000,0000,0000,,Además, si tal \Ninteligencia artificial existiera, Dialogue: 0,0:08:51.08,0:08:54.02,Default,,0000,0000,0000,,tendría que competir contra\Nlas economías del hombre, Dialogue: 0,0:08:54.04,0:08:56.56,Default,,0000,0000,0000,,y por tanto competir por recursos\Ncontra nosotros. Dialogue: 0,0:08:57.20,0:08:58.42,Default,,0000,0000,0000,,Y al final Dialogue: 0,0:08:58.44,0:08:59.68,Default,,0000,0000,0000,,--no le digan a Siri-- Dialogue: 0,0:09:00.26,0:09:01.82,Default,,0000,0000,0000,,siempre podremos desconectarlos. Dialogue: 0,0:09:01.84,0:09:03.96,Default,,0000,0000,0000,,(Risas) Dialogue: 0,0:09:05.36,0:09:07.82,Default,,0000,0000,0000,,Estamos en una increíble aventura Dialogue: 0,0:09:07.84,0:09:10.34,Default,,0000,0000,0000,,de coevolución con nuestras máquinas. Dialogue: 0,0:09:10.36,0:09:12.86,Default,,0000,0000,0000,,Los humanos que somos hoy Dialogue: 0,0:09:12.88,0:09:15.42,Default,,0000,0000,0000,,no son los humanos que seremos. Dialogue: 0,0:09:15.44,0:09:18.58,Default,,0000,0000,0000,,Preocuparse ahorita del ascenso\Nde una superinteligencia Dialogue: 0,0:09:18.60,0:09:21.66,Default,,0000,0000,0000,,es una distracción peligrosa\Nen muchos sentidos Dialogue: 0,0:09:21.68,0:09:24.02,Default,,0000,0000,0000,,porque el ascenso de la computación Dialogue: 0,0:09:24.04,0:09:27.06,Default,,0000,0000,0000,,trajo consigo muchos problemas\Nhumanos y sociales Dialogue: 0,0:09:27.08,0:09:28.88,Default,,0000,0000,0000,,de los que debemos ocuparnos ahora. Dialogue: 0,0:09:29.36,0:09:32.18,Default,,0000,0000,0000,,¿Cómo organizar a la sociedad Dialogue: 0,0:09:32.20,0:09:34.54,Default,,0000,0000,0000,,cuando la necesidad de trabajo \Nhumano decrece? Dialogue: 0,0:09:34.56,0:09:38.38,Default,,0000,0000,0000,,¿Cómo llevar conocimiento y educación\Na través del mundo Dialogue: 0,0:09:38.40,0:09:40.18,Default,,0000,0000,0000,,respetando nuestras diferencias? Dialogue: 0,0:09:40.20,0:09:44.46,Default,,0000,0000,0000,,¿Cómo expandir y mejorar la vida\Ncon la atención médica cognitiva? Dialogue: 0,0:09:44.48,0:09:47.36,Default,,0000,0000,0000,,¿Cómo usar la computación Dialogue: 0,0:09:47.36,0:09:49.32,Default,,0000,0000,0000,,para ayudarnos a alcanzar las estrellas? Dialogue: 0,0:09:49.76,0:09:51.80,Default,,0000,0000,0000,,Eso es lo emocionante. Dialogue: 0,0:09:52.40,0:09:54.74,Default,,0000,0000,0000,,Las oportunidades para usar la computación Dialogue: 0,0:09:54.76,0:09:56.30,Default,,0000,0000,0000,,y fomentar la experiencia humana Dialogue: 0,0:09:56.32,0:09:57.74,Default,,0000,0000,0000,,están a nuestro alcance, Dialogue: 0,0:09:57.76,0:09:59.62,Default,,0000,0000,0000,,aquí y ahora, Dialogue: 0,0:09:59.64,0:10:01.32,Default,,0000,0000,0000,,y apenas hemos comenzado. Dialogue: 0,0:10:02.28,0:10:03.50,Default,,0000,0000,0000,,Muchas gracias. Dialogue: 0,0:10:03.52,0:10:07.81,Default,,0000,0000,0000,,(Aplausos)