1 00:00:00,000 --> 00:00:04,600 Cuando era niño, era un nerd por excelencia. 2 00:00:05,320 --> 00:00:07,496 Creo que algunos de Uds. también. 3 00:00:07,520 --> 00:00:08,736 (Risas) 4 00:00:08,760 --> 00:00:11,976 Y Ud. señor, el que se rio más fuerte, probablemente aún lo sea. 5 00:00:12,000 --> 00:00:14,256 (Risas) 6 00:00:14,280 --> 00:00:17,776 Crecí en un pueblo pequeño en los llanos del norte de Tejas, 7 00:00:17,800 --> 00:00:21,136 hijo de un comisario, que fue hijo de un pastor. 8 00:00:21,160 --> 00:00:23,080 Meterse en problemas no era una opción. 9 00:00:24,040 --> 00:00:27,296 Así es que comencé a leer libros de cálculo por diversión. 10 00:00:27,320 --> 00:00:28,856 (Risas) 11 00:00:28,880 --> 00:00:30,576 Uds. también lo hicieron. 12 00:00:30,600 --> 00:00:34,336 Eso me llevó a crear un láser, una computadora y modelos de cohetes, 13 00:00:34,360 --> 00:00:37,470 y eso me llevó a hacer combustible para cohetes en mi habitación. 14 00:00:37,960 --> 00:00:41,616 En términos científicos, 15 00:00:41,640 --> 00:00:44,896 esta es una muy mala idea. 16 00:00:44,920 --> 00:00:46,136 (Risas) 17 00:00:46,160 --> 00:00:48,336 Por esos días 18 00:00:48,360 --> 00:00:51,576 se estrenó "2001: Una Odisea en el Espacio" de Stanley Kubrick, 19 00:00:51,600 --> 00:00:53,800 y mi vida cambió para siempre. 20 00:00:54,280 --> 00:00:56,336 Me encantó todo de esa película, 21 00:00:56,360 --> 00:00:58,896 especialmente el HAL 9000. 22 00:00:58,920 --> 00:01:00,976 HAL era un computador sensible 23 00:01:01,000 --> 00:01:03,456 diseñado para guiar la aeronave Discovery 24 00:01:03,480 --> 00:01:06,016 de la Tierra a Júpiter. 25 00:01:06,040 --> 00:01:08,096 HAL además era imperfecto, 26 00:01:08,120 --> 00:01:12,400 porque eligió el valor de la misión sobre la vida humana. 27 00:01:12,840 --> 00:01:14,936 HAL era un personaje ficticio, 28 00:01:14,960 --> 00:01:17,616 y sin embargo habla sobre nuestros temores, 29 00:01:17,640 --> 00:01:19,736 nuestros temores a ser subyugados 30 00:01:19,760 --> 00:01:22,776 por alguna insensible inteligencia artificial 31 00:01:22,800 --> 00:01:24,760 indiferente a nuestra humanidad. 32 00:01:25,880 --> 00:01:28,456 Creo que esos temores son infundados. 33 00:01:28,480 --> 00:01:31,176 De hecho, estamos en un tiempo notable 34 00:01:31,200 --> 00:01:32,736 en la historia de la humanidad, 35 00:01:32,760 --> 00:01:37,736 donde, motivados por la negación a aceptar los límites del cuerpo y mente, 36 00:01:37,760 --> 00:01:39,456 construimos máquinas 37 00:01:39,480 --> 00:01:43,096 de complejidad y gracia exquisita y hermosa 38 00:01:43,120 --> 00:01:45,176 que expanden la experiencia humana 39 00:01:45,200 --> 00:01:46,880 más allá de nuestra imaginación. 40 00:01:47,420 --> 00:01:50,456 Tras una carrera que me llevó de la Academia de la Fuerza Aérea 41 00:01:50,466 --> 00:01:52,256 a comandante de estación espacial, 42 00:01:52,280 --> 00:01:53,976 me volví ingeniero de sistemas, 43 00:01:54,000 --> 00:01:56,736 y recientemente me encontré con un problema de ingeniería 44 00:01:56,760 --> 00:01:59,336 relacionado con la misión de la NASA a Marte. 45 00:01:59,360 --> 00:02:01,856 En vuelos espaciales a la Luna, 46 00:02:01,880 --> 00:02:04,960 dependemos del control de la misión en Houston 47 00:02:04,960 --> 00:02:07,016 para vigilar todos los aspectos de un vuelo. 48 00:02:07,040 --> 00:02:10,576 Sin embargo, Marte está 200 veces más lejos, 49 00:02:10,600 --> 00:02:13,816 como resultado toma en promedio 13 minutos 50 00:02:13,840 --> 00:02:16,976 para que una señal viaje de la Tierra a Marte. 51 00:02:17,000 --> 00:02:20,400 Si hay algún percance, no hay suficiente tiempo. 52 00:02:20,840 --> 00:02:23,336 Una solución razonable de ingeniería 53 00:02:23,360 --> 00:02:25,936 nos incita a instalar el control de la misión 54 00:02:25,960 --> 00:02:28,976 dentro de las paredes de la aeronave Orión. 55 00:02:29,000 --> 00:02:31,896 Otra idea fascinante en el perfil de la misión 56 00:02:31,920 --> 00:02:34,800 es colocar robots humanoides en la superficie de Marte 57 00:02:34,800 --> 00:02:36,780 antes de que los humanos mismos lleguen, 58 00:02:36,780 --> 00:02:38,536 primero para construir instalaciones 59 00:02:38,536 --> 00:02:41,760 y luego para servir como colaboradores en el equipo científico. 60 00:02:43,400 --> 00:02:46,136 Al mirar esto desde la ingeniería, 61 00:02:46,160 --> 00:02:49,336 me quedó claro que lo que necesitaba diseñar 62 00:02:49,360 --> 00:02:51,536 era una inteligencia artificial muy lista, 63 00:02:51,560 --> 00:02:53,936 colaborativa y social. 64 00:02:53,960 --> 00:02:58,256 En otras palabras, necesitaba construir algo muy parecido a HAL 65 00:02:58,280 --> 00:03:00,696 pero sin las tendencias homicidas. 66 00:03:00,720 --> 00:03:02,080 (Risas) 67 00:03:02,920 --> 00:03:04,736 Detengámonos un momento. 68 00:03:04,760 --> 00:03:08,656 ¿Es realmente posible construir inteligencia artificial así? 69 00:03:08,680 --> 00:03:10,136 De hecho, sí lo es. 70 00:03:10,160 --> 00:03:11,400 En muchas maneras, 71 00:03:11,400 --> 00:03:13,496 este es un problema difícil de la ingeniería 72 00:03:13,496 --> 00:03:14,896 con elementos de IA, 73 00:03:14,920 --> 00:03:19,616 no es un simple problema de IA que necesite diseñarse. 74 00:03:19,640 --> 00:03:22,240 Parafraseando a Alan Turing, 75 00:03:22,240 --> 00:03:24,696 no me interesa construir una máquina sensible. 76 00:03:24,720 --> 00:03:26,296 No voy a construir un HAL. 77 00:03:26,320 --> 00:03:28,736 Todo lo que busco es un cerebro sencillo, 78 00:03:28,760 --> 00:03:31,880 algo que ofrezca una ilusión de inteligencia. 79 00:03:33,000 --> 00:03:36,136 El arte y la ciencia de la computación ha pasado por mucho 80 00:03:36,160 --> 00:03:37,656 desde la aparición de HAL, 81 00:03:37,680 --> 00:03:40,896 e imagino que si su inventor Dr. Chandra estuviera aquí hoy, 82 00:03:40,920 --> 00:03:43,256 tendría mucho que preguntarnos. 83 00:03:43,280 --> 00:03:45,376 ¿Es realmente posible 84 00:03:45,400 --> 00:03:49,416 tomar un sistema de millones y millones de dispositivos, 85 00:03:49,440 --> 00:03:50,896 para leer flujos de datos, 86 00:03:50,920 --> 00:03:53,176 para predecir fallas y actuar con antelación? 87 00:03:53,200 --> 00:03:54,416 Sí. 88 00:03:54,440 --> 00:03:57,616 ¿Podemos construir sistemas que se comuniquen con humanos? 89 00:03:57,640 --> 00:03:58,856 Sí. 90 00:03:58,880 --> 00:04:01,856 ¿Podemos construir sistemas que reconozcan objetos, emociones, 91 00:04:01,880 --> 00:04:05,256 que se emocionen, jueguen e incluso que lean los labios? 92 00:04:05,280 --> 00:04:06,460 Sí. 93 00:04:06,460 --> 00:04:08,796 ¿Podemos construir un sistema que fije objetivos, 94 00:04:08,796 --> 00:04:12,296 que lleve a cabo planes contra esos objetivos y siga aprendiendo más? 95 00:04:12,320 --> 00:04:13,536 Sí. 96 00:04:13,560 --> 00:04:16,896 ¿Podemos construir sistemas que piensen por sí mismos? 97 00:04:16,920 --> 00:04:18,416 Estamos aprendiendo a hacerlo. 98 00:04:18,440 --> 00:04:21,920 ¿Podemos construir sistemas con fundamentos éticos y morales? 99 00:04:22,480 --> 00:04:24,520 Debemos aprender cómo hacerlo. 100 00:04:25,360 --> 00:04:26,736 Aceptemos por un momento 101 00:04:26,760 --> 00:04:29,656 que es posible construir tal inteligencia artificial 102 00:04:29,680 --> 00:04:31,816 para estas misiones y otras. 103 00:04:31,840 --> 00:04:34,376 La siguiente pregunta que deben formularse es, 104 00:04:34,400 --> 00:04:35,856 ¿deberíamos temerle? 105 00:04:35,880 --> 00:04:37,856 Toda nueva tecnología 106 00:04:37,880 --> 00:04:40,776 trae consigo algunos temores. 107 00:04:40,800 --> 00:04:42,496 Cuando vimos autos por primera vez, 108 00:04:42,520 --> 00:04:46,536 la gente temía que viéramos la destrucción de la familia. 109 00:04:46,560 --> 00:04:49,256 Cuando se inventaron los teléfonos, 110 00:04:49,280 --> 00:04:52,176 la gente temía que arruinara la conversación civilizada. 111 00:04:52,200 --> 00:04:55,970 En algún momento, vimos a la palabra escrita aparecer en todos lados, 112 00:04:55,970 --> 00:04:58,656 la gente creyó que perderíamos la habilidad de memorizar. 113 00:04:58,680 --> 00:05:00,736 Todo esto es cierto hasta cierto grado, 114 00:05:00,760 --> 00:05:03,176 pero estas tecnologías también 115 00:05:03,200 --> 00:05:06,576 nos dieron cosas que expandieron la experiencia humana 116 00:05:06,600 --> 00:05:08,480 de manera profunda. 117 00:05:09,840 --> 00:05:12,120 Así que vayamos más lejos. 118 00:05:13,120 --> 00:05:17,856 No temo la creación de una IA así, 119 00:05:17,880 --> 00:05:21,696 porque finalmente encarnará algunos de nuestros valores. 120 00:05:21,720 --> 00:05:25,216 Consideren lo siguiente: construir un sistema cognitivo es muy distinto 121 00:05:25,240 --> 00:05:28,536 a construir uno tradicional intensivo en software como en el pasado. 122 00:05:28,560 --> 00:05:31,016 No los programamos. Les enseñamos. 123 00:05:31,040 --> 00:05:33,696 Para enseñarle a un sistema a reconocer flores, 124 00:05:33,720 --> 00:05:36,736 le muestro miles de flores que me gustan. 125 00:05:36,760 --> 00:05:39,016 Para enseñarle a jugar... 126 00:05:39,040 --> 00:05:41,000 Bueno, lo haría y Uds. también. 127 00:05:42,600 --> 00:05:44,640 Me gustan las flores. 128 00:05:45,440 --> 00:05:48,296 Para enseñarle a un sistema a jugar un juego como Go, 129 00:05:48,320 --> 00:05:50,370 lo pondría a jugar miles de juegos de Go, 130 00:05:50,370 --> 00:05:52,056 y en el proceso también le enseñaría 131 00:05:52,080 --> 00:05:54,496 a discernir un buen juego de uno malo. 132 00:05:54,520 --> 00:05:58,200 Si quiero crear un asistente legal con inteligencia artificial, 133 00:05:58,200 --> 00:06:00,136 le enseñaría algo del corpus legislativo 134 00:06:00,136 --> 00:06:02,896 combinando al mismo tiempo 135 00:06:02,920 --> 00:06:06,220 el sentido de la piedad y la justicia que también son parte de la ley. 136 00:06:06,560 --> 00:06:09,536 En términos científicos, lo llamamos verdad en tierra firme, 137 00:06:09,560 --> 00:06:11,576 este es el punto importante: 138 00:06:11,600 --> 00:06:13,056 al producir estas máquinas, 139 00:06:13,080 --> 00:06:16,496 les estamos enseñando también el sentido de nuestros valores. 140 00:06:16,520 --> 00:06:19,656 Para este fin, confío en la inteligencia artificial 141 00:06:19,680 --> 00:06:23,320 tanto, si no más, que en un humano bien entrenado. 142 00:06:24,080 --> 00:06:25,296 Quizá se pregunten 143 00:06:25,320 --> 00:06:27,936 ¿qué hay de los agentes rebeldes, 144 00:06:27,960 --> 00:06:31,296 algunas organizaciones sólidas no gubernamentales? 145 00:06:31,320 --> 00:06:35,136 No le temo a la inteligencia artificial en manos de un lobo solitario. 146 00:06:35,160 --> 00:06:39,696 Claramente no podemos protegernos de todo tipo de violencia, 147 00:06:39,720 --> 00:06:41,856 en realidad, un sistema así 148 00:06:41,880 --> 00:06:44,976 requiere entrenamiento importante y sutil 149 00:06:45,000 --> 00:06:47,296 más allá de los recursos de un individuo. 150 00:06:47,320 --> 00:06:48,536 Además, 151 00:06:48,560 --> 00:06:51,816 se trata de algo más que inyectar un virus en el internet global, 152 00:06:51,840 --> 00:06:54,936 donde al presionar un botón, se esparce a millones de lugares 153 00:06:54,960 --> 00:06:57,416 y las laptops comienzan a estallar en pedazos. 154 00:06:57,440 --> 00:07:00,256 Este tipo de sustancias son más grandes 155 00:07:00,280 --> 00:07:01,995 y se les ve venir. 156 00:07:02,520 --> 00:07:05,576 ¿Temo que ese tipo de inteligencia artificial 157 00:07:05,600 --> 00:07:07,560 amenace a la humanidad? 158 00:07:08,280 --> 00:07:12,656 Si miran películas como "Matrix", "Metrópolis", 159 00:07:12,680 --> 00:07:15,856 "Terminator" y shows como "Westworld", 160 00:07:15,880 --> 00:07:18,016 todos hablan de este miedo. 161 00:07:18,040 --> 00:07:22,336 El libro "Superinteligencia" del filósofo Nick Bostrom, 162 00:07:22,360 --> 00:07:23,896 habla de este tema 163 00:07:23,920 --> 00:07:27,936 y opina que una superinteligencia no solo puede ser peligrosa, 164 00:07:27,960 --> 00:07:31,816 sino que podría representar una amenaza existencial para la humanidad. 165 00:07:31,840 --> 00:07:34,056 El argumento fundamental del Dr. Bostrom 166 00:07:34,080 --> 00:07:36,816 es que dichos sistemas finalmente 167 00:07:36,840 --> 00:07:40,096 tendrán una necesidad insaciable de información 168 00:07:40,120 --> 00:07:43,016 que quizá aprendan cómo aprender 169 00:07:43,040 --> 00:07:45,656 y finalmente descubran que pueden tener objetivos 170 00:07:45,680 --> 00:07:47,976 contrarios a las necesidades humanas. 171 00:07:48,000 --> 00:07:49,856 El Dr. Bostrom tiene varios seguidores. 172 00:07:49,880 --> 00:07:54,200 Gente como Elon Musk y Stephen Hawking lo apoyan. 173 00:07:54,880 --> 00:07:57,280 Con todo respeto 174 00:07:58,160 --> 00:08:00,176 a estas mentes brillantes, 175 00:08:00,200 --> 00:08:02,456 creo que están completamente equivocados. 176 00:08:02,480 --> 00:08:05,656 Hay muchas partes del argumento del Dr. Bostrom que analizar, 177 00:08:05,680 --> 00:08:07,816 y no tengo tiempo para hacerlo, 178 00:08:07,840 --> 00:08:10,536 pero brevemente, piensen esto: 179 00:08:10,560 --> 00:08:14,160 el superconocimiento es muy distinto al superhacer. 180 00:08:14,160 --> 00:08:16,376 HAL era una amenaza para la flota del Discovery 181 00:08:16,376 --> 00:08:20,656 en la medida en que controlaba todos los aspectos del Discovery. 182 00:08:20,680 --> 00:08:23,176 Se necesitaría una superinteligencia. 183 00:08:23,200 --> 00:08:25,696 Y un dominio total de nuestro mundo. 184 00:08:25,720 --> 00:08:28,536 Skynet de la película "Terminator" 185 00:08:28,560 --> 00:08:30,340 tenía una superinteligencia 186 00:08:30,340 --> 00:08:31,956 que controlaba la voluntad humana, 187 00:08:31,956 --> 00:08:35,696 y controlaba cada dispositivo en todos los rincones del mundo. 188 00:08:35,720 --> 00:08:37,176 Siendo prácticos, 189 00:08:37,200 --> 00:08:39,296 eso no pasará. 190 00:08:39,320 --> 00:08:42,376 No estamos construyendo IAs que controlen el clima, 191 00:08:42,400 --> 00:08:43,736 que controlen las mareas, 192 00:08:43,760 --> 00:08:47,136 que nos controlen a nosotros, caprichosos y caóticos humanos. 193 00:08:47,160 --> 00:08:51,056 Además, si tal inteligencia artificial existiera, 194 00:08:51,080 --> 00:08:54,016 tendría que competir contra las economías del hombre, 195 00:08:54,040 --> 00:08:56,560 y por tanto competir por recursos contra nosotros. 196 00:08:57,200 --> 00:08:58,416 Y al final 197 00:08:58,440 --> 00:08:59,680 --no le digan a Siri-- 198 00:09:00,260 --> 00:09:01,816 siempre podremos desconectarlos. 199 00:09:01,840 --> 00:09:03,960 (Risas) 200 00:09:05,360 --> 00:09:07,816 Estamos en una increíble aventura 201 00:09:07,840 --> 00:09:10,336 de coevolución con nuestras máquinas. 202 00:09:10,360 --> 00:09:12,856 Los humanos que somos hoy 203 00:09:12,880 --> 00:09:15,416 no son los humanos que seremos. 204 00:09:15,440 --> 00:09:18,576 Preocuparse ahorita del ascenso de una superinteligencia 205 00:09:18,600 --> 00:09:21,656 es una distracción peligrosa en muchos sentidos 206 00:09:21,680 --> 00:09:24,016 porque el ascenso de la computación 207 00:09:24,040 --> 00:09:27,056 trajo consigo muchos problemas humanos y sociales 208 00:09:27,080 --> 00:09:28,880 de los que debemos ocuparnos ahora. 209 00:09:29,360 --> 00:09:32,176 ¿Cómo organizar a la sociedad 210 00:09:32,200 --> 00:09:34,536 cuando la necesidad de trabajo humano decrece? 211 00:09:34,560 --> 00:09:38,376 ¿Cómo llevar conocimiento y educación a través del mundo 212 00:09:38,400 --> 00:09:40,176 respetando nuestras diferencias? 213 00:09:40,200 --> 00:09:44,456 ¿Cómo expandir y mejorar la vida con la atención médica cognitiva? 214 00:09:44,480 --> 00:09:47,360 ¿Cómo usar la computación 215 00:09:47,360 --> 00:09:49,320 para ayudarnos a alcanzar las estrellas? 216 00:09:49,760 --> 00:09:51,800 Eso es lo emocionante. 217 00:09:52,400 --> 00:09:54,736 Las oportunidades para usar la computación 218 00:09:54,760 --> 00:09:56,296 y fomentar la experiencia humana 219 00:09:56,320 --> 00:09:57,736 están a nuestro alcance, 220 00:09:57,760 --> 00:09:59,616 aquí y ahora, 221 00:09:59,640 --> 00:10:01,320 y apenas hemos comenzado. 222 00:10:02,280 --> 00:10:03,496 Muchas gracias. 223 00:10:03,520 --> 00:10:07,806 (Aplausos)