0:00:01.000,0:00:02.479 Chris Anderson: Nick Bostrom. 0:00:02.809,0:00:06.809 Nos has dado muchas ideas locas. 0:00:06.809,0:00:08.679 Creo que hace un par de décadas, 0:00:08.679,0:00:11.322 defendías que estaríamos [br]viviendo una simulación, 0:00:11.322,0:00:13.155 o que, probablemente, vivíamos en una. 0:00:13.375,0:00:14.750 Recientemente, 0:00:14.750,0:00:19.351 has dado ejemplos muy claros de [br]cómo la inteligencia artificial general 0:00:19.351,0:00:21.538 podría generar resultados terribles. 0:00:21.538,0:00:24.387 Y este año estás a punto de publicar 0:00:25.347,0:00:29.267 un ensayo sobre algo denominado[br]la hipótesis del mundo vulnerable. 0:00:29.267,0:00:34.065 Nuestro trabajo esta tarde consiste[br]en ofrecer una guía ilustrada sobre eso. 0:00:34.821,0:00:36.174 Así que empecemos. 0:00:36.833,0:00:38.625 ¿En qué consiste esa hipótesis? 0:00:40.400,0:00:42.238 Nick Bostrom: Se trata de pensar 0:00:42.238,0:00:45.782 en una especie de característica[br]estructural de la actual condición humana. 0:00:47.125,0:00:49.500 Como te gusta la metáfora de la urna, 0:00:49.500,0:00:51.213 voy a utilizarla para explicarlo. 0:00:51.653,0:00:54.898 Imagínate una gran urna llena de bolas 0:00:55.792,0:00:59.750 que representan ideas,[br]métodos, posibles tecnologías. 0:01:00.983,0:01:04.559 Puedes pensar en la historia[br]de la creatividad humana 0:01:04.559,0:01:08.087 como el proceso de extraer [br]de esta urna una bola tras otra, 0:01:08.497,0:01:11.667 y el efecto neto hasta la fecha[br]ha sido muy beneficioso, ¿verdad? 0:01:11.667,0:01:14.597 Hemos extraído [br]una gran cantidad de bolas blancas, 0:01:14.597,0:01:17.292 de varias tonalidades de gris,[br]con pros y contras. 0:01:18.042,0:01:21.000 Hasta ahora no hemos sacado la bola negra: 0:01:22.292,0:01:27.768 una tecnología que invariablemente[br]destruye la civilización que la descubre. 0:01:27.768,0:01:30.979 Mi ensayo trata de pensar[br]qué podría ser esa bola negra. 0:01:30.979,0:01:33.117 CA: Así que defines la bola negra 0:01:33.117,0:01:37.081 como una que llevará inevitablemente [br]a la destrucción de la civilización. 0:01:37.081,0:01:41.534 NB: Salvo que salgamos de lo que denomino [br]condición semianárquica por defecto. 0:01:41.934,0:01:43.458 Bueno, más o menos por defecto. 0:01:44.333,0:01:47.851 CA: Haces que este caso adquiera[br]carácter de urgencia 0:01:47.851,0:01:49.917 al mostrar contraejemplos 0:01:49.917,0:01:52.851 que crees que demuestran[br]que hasta ahora hemos tenido suerte, 0:01:52.851,0:01:55.556 que puede que hayamos sacado [br]la bola de la muerte, 0:01:55.556,0:01:57.183 sin habernos siquiera dado cuenta. 0:01:57.183,0:01:59.625 Hay una cita al respecto, ¿cuál es? 0:02:00.465,0:02:04.979 NB: Bueno, imagino que solo trato[br]de ilustrar la dificultad de prever 0:02:05.438,0:02:08.143 hacia dónde llevarán[br]los descubrimientos básicos, 0:02:08.143,0:02:10.205 simplemente no tenemos esa capacidad. 0:02:11.250,0:02:14.851 Porque nos hemos hecho bastante[br]hábiles extrayendo bolas, 0:02:14.851,0:02:18.351 pero realmente no tenemos la capacidad[br]de devolver la bola a la urna. 0:02:18.351,0:02:20.682 Podemos inventar, pero no desinventar. 0:02:21.583,0:02:23.951 Así que nuestra estrategia, en realidad, 0:02:23.951,0:02:26.453 es confiar en que no haya[br]una bola negra en la urna. 0:02:26.453,0:02:30.893 CA: Así que una vez que está fuera,[br]no se puede devolver a la urna, 0:02:30.893,0:02:32.458 y crees que hemos tenido suerte. 0:02:32.458,0:02:34.708 Cuéntanos un par de ejemplos. 0:02:34.708,0:02:37.362 Hablas de diferentes tipos[br]de vulnerabilidad. 0:02:37.833,0:02:40.052 NB: El tipo más fácil de comprender 0:02:40.268,0:02:45.548 es una tecnología que hace muy fácil[br]producir una enorme destrucción. 0:02:47.375,0:02:50.033 La biología sintética podría ser[br]una fuente abundante 0:02:50.033,0:02:51.565 de ese tipo de bola negra, 0:02:51.565,0:02:54.413 pero hay muchas otras cosas[br]en las que podríamos pensar, 0:02:54.413,0:02:56.949 como la geoingeniería,[br]realmente genial, ¿verdad? 0:02:56.949,0:02:58.951 Podríamos combatir[br]el calentamiento global, 0:02:58.951,0:03:01.257 pero tampoco queremos[br]que sea demasiado sencillo, 0:03:01.257,0:03:04.177 que cualquier persona[br]y su abuela tengan la capacidad 0:03:04.177,0:03:06.336 de alterar radicalmente[br]el clima de la Tierra. 0:03:06.650,0:03:10.593 O tal vez producir en masa [br]drones autónomos letales, 0:03:10.593,0:03:13.609 enjambres de robots asesinos[br]del tamaño de un mosquito. 0:03:14.440,0:03:16.759 Nanotecnología,[br]inteligencia artificial general. 0:03:16.759,0:03:19.996 CA: Tú argumentas en el ensayo[br]que fue una cuestión de suerte 0:03:19.996,0:03:23.430 que el descubrimiento [br]de la energía nuclear 0:03:23.430,0:03:24.823 pudiera crear una bomba; 0:03:25.215,0:03:28.250 podría haber sido el caso[br]de que fuera posible crear una bomba 0:03:28.250,0:03:31.093 con recursos mucho menores,[br]accesibles a cualquiera. 0:03:31.833,0:03:35.393 NB: Sí, creo que allá por los años 30, 0:03:35.393,0:03:39.208 cuando por primera vez hicimos[br]grandes avances en física nuclear, 0:03:39.732,0:03:41.400 algunas figuras insignes expusieron 0:03:41.400,0:03:44.130 que era posible crear[br]reacciones nucleares en cadena 0:03:44.130,0:03:47.588 para luego caer en la cuenta de que eso[br]podría llevar a crear una bomba. 0:03:47.956,0:03:51.909 Investigamos y descubrimos[br]que para hacer una bomba nuclear 0:03:51.909,0:03:54.155 se necesita uranio enriquecido o plutonio, 0:03:54.155,0:03:56.362 que son materiales[br]muy difíciles de conseguir. 0:03:56.362,0:03:58.553 Se precisan ultracentrifugadoras, 0:03:59.293,0:04:01.935 reactores para gigantescas[br]cantidades de energía. 0:04:01.935,0:04:04.017 Pero imagínate que en lugar de eso, 0:04:04.017,0:04:07.180 hubiera habido una manera fácil[br]de liberar la energía del átomo. 0:04:07.750,0:04:11.200 Que tal vez calentando arena[br]en el microondas o algo así 0:04:11.200,0:04:13.561 se hubiese podido crear[br]una detonación nuclear. 0:04:13.561,0:04:15.498 Sabemos que es físicamente imposible. 0:04:15.498,0:04:18.129 Pero antes de desarrollar[br]esa física relevante, 0:04:18.129,0:04:20.233 ¿cómo se podría haber sabido[br]cómo acabaría? 0:04:20.353,0:04:22.551 CA: A pesar de eso, ¿no se podría alegar 0:04:22.551,0:04:24.743 que para que la vida[br]evolucionara en la Tierra 0:04:24.743,0:04:26.932 se necesitaría cierto entorno estable, 0:04:27.462,0:04:30.603 y que si fuera tan fácil crear[br]reacciones nucleares masivas 0:04:30.603,0:04:32.468 la Tierra nunca habría sido estable, 0:04:32.468,0:04:34.704 y por tanto no podríamos estar aquí. 0:04:34.704,0:04:38.291 NB: Sí, salvo que hubiera algo fácil [br]de hacer a propósito, 0:04:38.291,0:04:40.871 pero que no ocurriría solo por azar. 0:04:40.871,0:04:43.112 Es decir, cosas que podemos[br]hacer con facilidad, 0:04:43.112,0:04:45.116 podemos apilar 10 bloques uno sobre otro, 0:04:45.116,0:04:48.163 pero en la naturaleza, no se[br]da una pila de 10 bloques. 0:04:48.163,0:04:51.563 CA: De acuerdo, quizá esto es[br]lo que más nos preocupa a la mayoría, 0:04:51.950,0:04:55.187 y sí, la biología sintética es [br]tal vez la vía más rápida 0:04:55.187,0:04:58.608 que podemos prever en nuestro futuro[br]cercano para llegar hasta aquí. 0:04:58.608,0:05:01.437 NB: Sí, imagínate lo que eso[br]habría supuesto, 0:05:01.437,0:05:04.968 si, digamos, cualquiera trabajando[br]en su cocina por la tarde 0:05:04.968,0:05:06.321 pudiera destruir una ciudad. 0:05:06.889,0:05:09.382 Cuesta entender[br]que la civilización moderna, 0:05:09.382,0:05:11.893 tal como la conocemos,[br]haya podido sobrevivir a eso, 0:05:11.893,0:05:14.531 porque en cualquier población[br]de un millón de personas 0:05:14.531,0:05:16.809 siempre habrá alguien que,[br]por algún motivo, 0:05:16.809,0:05:18.917 quiera utilizar ese poder de destrucción. 0:05:19.750,0:05:23.133 Así que si ese residuo apocalíptico 0:05:23.133,0:05:25.127 eligiera destruir una ciudad, o peor aún, 0:05:25.127,0:05:26.870 las ciudades podrían ser destruidas. 0:05:26.870,0:05:28.701 CA: Hay otra clase de vulnerabilidad, 0:05:28.701,0:05:29.898 hábleme de ella. 0:05:30.542,0:05:34.502 NB: Sí, además de estos tipos[br]evidentes de bolas negras 0:05:34.502,0:05:37.182 que podrían hacer que muchas cosas[br]volaran por los aires, 0:05:37.182,0:05:41.833 hay otros tipos que pueden[br]crear malos incentivos 0:05:41.833,0:05:43.869 para que los humanos[br]hagamos cosas dañinas. 0:05:44.083,0:05:47.706 El Tipo 2a, podríamos llamarlo, 0:05:48.208,0:05:52.726 serían tecnologías que posibilitan[br]a los grandes poderes 0:05:52.726,0:05:56.747 usar su enorme fuerza[br]para crear destrucción. 0:05:57.250,0:06:00.353 Las armas nucleares[br]están muy cerca de esto, ¿verdad? 0:06:02.083,0:06:05.143 Hemos gastado más de USD 10 billones 0:06:05.143,0:06:07.684 para construir 70 000 cabezas nucleares 0:06:07.684,0:06:10.167 que están en estado de alerta instantánea. 0:06:10.167,0:06:12.434 Hubo varios momentos[br]durante la Guerra Fría 0:06:12.434,0:06:14.446 en los que casi nos volamos por los aires. 0:06:14.446,0:06:16.641 No es que muchos pensaran[br]que era una gran idea 0:06:16.641,0:06:19.407 gastarnos USD 10 billones [br]para volarnos por los aires, 0:06:19.407,0:06:22.007 pero los incentivos eran tales[br]que nos encontrábamos... 0:06:22.007,0:06:23.408 podría haber sido mucho peor. 0:06:23.408,0:06:25.792 Imagina que hubiera habido[br]un primer ataque seguro. 0:06:26.500,0:06:29.855 Habría sido muy difícil,[br]en una situación de crisis, 0:06:29.855,0:06:32.952 reprimir el lanzamiento[br]de todos los misiles nucleares, 0:06:32.952,0:06:35.968 aunque solo fuera por el temor[br]a que lo hiciera el otro. 0:06:35.968,0:06:38.135 CA: De acuerdo, la destrucción[br]mutua asegurada 0:06:38.135,0:06:40.400 mantuvo la Guerra Fría[br]relativamente estable, 0:06:40.400,0:06:42.463 porque sin eso,[br]podríamos no estar hoy aquí. 0:06:42.463,0:06:44.233 NB: Pudo haber sido más inestable, 0:06:44.233,0:06:46.588 y pudo haber otras propiedades[br]de la tecnología, 0:06:46.588,0:06:49.625 pudo haber sido más difícil[br]lograr tratados armamentísticos, 0:06:49.625,0:06:51.250 si en vez de cabezas nucleares, 0:06:51.250,0:06:53.768 hubiera habido cosas más pequeñas[br]o menos distintivas. 0:06:53.768,0:06:56.811 CA: Al igual que los malos incentivos[br]para los actores del poder, 0:06:56.811,0:07:00.527 también te preocupan los malos incentivos[br]para todos nosotros, en este Tipo 2a. 0:07:00.527,0:07:04.545 NB: Sí, podemos poner el caso[br]del calentamiento global. 0:07:06.958,0:07:09.025 Hay muchos pequeños inconvenientes 0:07:09.025,0:07:11.693 que nos llevan a hacer cosas 0:07:11.693,0:07:13.958 que individualmente[br]no tienen efecto, ¿verdad? 0:07:13.958,0:07:16.148 Pero si miles de millones[br]de personas lo hacen, 0:07:16.148,0:07:18.292 acumulativamente,[br]tiene un efecto perjudicial. 0:07:18.292,0:07:21.085 El calentamiento global[br]podría haber sido mucho peor. 0:07:21.085,0:07:24.185 Tenemos el parámetro[br]de la sensibilidad climática. 0:07:24.185,0:07:27.148 Se trata de un parámetro[br]que indica cuánto se calentaría 0:07:27.148,0:07:29.956 si emitieras cierta cantidad[br]de gases de efecto invernadero. 0:07:30.250,0:07:32.643 Pero, suponiendo que fuera el caso 0:07:32.643,0:07:36.006 de que con la cantidad de gases[br]de efecto invernadero que hemos emitido 0:07:36.006,0:07:40.757 en lugar de que la temperatura subiera,[br]entre 3 y 4.5 º C hasta 2100, 0:07:41.042,0:07:43.542 imagina que hubieran sido 15 o 20 ºC, 0:07:44.375,0:07:46.574 entonces estaríamos[br]en una situación muy mala. 0:07:46.574,0:07:49.283 O que la energía renovable[br]fuera más difícil de producir. 0:07:49.283,0:07:51.818 o que hubiera más combustibles[br]fósiles en el subsuelo. 0:07:51.818,0:07:54.083 CA: No se podría argumentar que, 0:07:54.083,0:07:57.184 si lo que hacemos hoy 0:07:57.184,0:08:01.792 hubiera producido 10 º C de diferencia[br]en un periodo que pudiéramos ver, 0:08:01.792,0:08:05.476 la humanidad ya se habría puesto las pilas[br]para hacer algo al respecto. 0:08:05.476,0:08:07.889 Somos estúpidos, pero quizá no tanto. 0:08:07.889,0:08:09.151 O tal vez sí. 0:08:09.151,0:08:10.533 NB: No apostaría por ello. 0:08:10.533,0:08:12.281 (Risas) 0:08:13.125,0:08:15.539 Puedes imaginarte otras características. 0:08:16.339,0:08:20.241 En estos momentos es algo difícil cambiar[br]a las renovables y todo eso, de acuerdo, 0:08:20.241,0:08:21.683 pero se puede hacer. 0:08:21.683,0:08:24.643 Pero podría haber sucedido que,[br]con una física algo diferente, 0:08:24.643,0:08:27.131 hubiera sido mucho más difícil[br]hacer estas cosas. 0:08:28.296,0:08:32.348 CA: ¿Qué opinas, Nick, crees que,[br]teniendo en cuenta todo esto, 0:08:34.039,0:08:37.950 este planeta, nosotros como humanidad,[br]conformamos un mundo vulnerable, 0:08:37.950,0:08:40.419 que hay una bola de muerte[br]en nuestro futuro? 0:08:43.898,0:08:45.240 NB: Es difícil de decir, 0:08:45.240,0:08:51.433 creo que también hay algunas bolas doradas[br]en la urna, o eso parece. 0:08:51.667,0:08:54.059 Puede que haya algunas bolas doradas 0:08:54.059,0:08:57.236 que nos puedan proteger[br]de las bolas negras. 0:08:57.583,0:09:00.218 Y no sé en qué orden van a salir. 0:09:00.583,0:09:04.211 CA: Una posible crítica[br]filosófica a esta idea 0:09:04.434,0:09:10.125 es que implica la visión de que el futuro[br]está básicamente determinado. 0:09:10.125,0:09:12.881 De que o bien está esa bola ahí o no está. 0:09:12.881,0:09:17.437 Y de alguna manera, no es una visión[br]del futuro en la que quiero creer. 0:09:17.437,0:09:19.752 Quiero creer que el futuro[br]es indeterminado, 0:09:19.752,0:09:24.643 que nuestras decisiones de hoy[br]determinarán qué tipos de bolas sacamos. 0:09:25.917,0:09:29.844 NB: Si seguimos inventando, 0:09:29.844,0:09:32.042 al final acabaremos[br]sacando todas las bolas. 0:09:32.625,0:09:35.859 Creo que hay una forma débil[br]de determinismo tecnológico 0:09:35.859,0:09:37.339 que es bastante plausible, 0:09:37.339,0:09:40.320 como que es bastante improbable[br]que encontremos una sociedad 0:09:40.320,0:09:43.083 que use hachas de pedernal[br]y aviones tipo jet. 0:09:44.208,0:09:48.268 Pero casi puedes pensar en una tecnología[br]como un conjunto de posibilidades. 0:09:48.268,0:09:50.745 La tecnología nos permite[br]hacer varias cosas 0:09:50.745,0:09:52.725 y conseguir diversos efectos en el mundo. 0:09:52.725,0:09:55.407 Cómo la usemos depende[br]de nuestra elección como humanos. 0:09:55.787,0:09:58.615 Pero si pensamos [br]en estos tres tipos de vulnerabilidades, 0:09:58.615,0:10:02.282 hacen unas asunciones bastante débiles[br]sobre cómo podríamos elegir utilizarla. 0:10:02.282,0:10:05.644 En el Tipo 1 de vulnerabilidad,[br]con su poder destructor masivo, 0:10:05.644,0:10:07.677 es una asunción bastante débil suponer 0:10:07.677,0:10:09.723 que en una población[br]de millones de personas 0:10:09.723,0:10:12.158 haya alguno que elija[br]usarlo de manera destructiva. 0:10:12.542,0:10:15.000 CA: Para mí, el argumento más inquietante 0:10:15.000,0:10:19.583 es que puede que tengamos[br]cierta visión de la urna, 0:10:19.583,0:10:22.651 que hace pensar que muy posiblemente[br]estemos condenados. 0:10:23.125,0:10:27.768 Por ejemplo, si crees[br]en el poder de la aceleración, 0:10:27.768,0:10:29.942 esa tecnología inherentemente se acelera, 0:10:29.942,0:10:32.292 y si creamos la herramientas[br]que nos den más poder 0:10:32.292,0:10:35.309 llegaremos a un punto 0:10:35.309,0:10:38.123 en el que un solo individuo[br]pueda acabar con todo, 0:10:38.292,0:10:41.143 y eso nos lleva a pensar[br]que estamos apañados. 0:10:41.143,0:10:43.391 ¿No es un argumento bastante alarmante? 0:10:44.125,0:10:45.875 NB: Ah, sí... 0:10:46.708,0:10:47.886 (Risas) 0:10:48.140,0:10:49.333 Creo que... 0:10:50.875,0:10:52.476 Sí, tenemos más y más poder, 0:10:53.940,0:10:55.924 y es cada vez más sencillo utilizarlo, 0:10:56.458,0:10:58.438 pero también podemos inventar tecnologías 0:10:58.438,0:11:02.083 que nos ayuden a controlar [br]cómo las personas utilizan ese poder. 0:11:02.083,0:11:04.508 CA: Hablemos de eso, de la respuesta. 0:11:04.508,0:11:09.048 Imagina todas las posibilidades[br]que tenemos ahora, 0:11:09.417,0:11:11.513 no es solo la biología sintética, 0:11:11.513,0:11:15.558 sino cosas como la ciberguerra,[br]la inteligencia artificial, etc., 0:11:16.542,0:11:20.959 que indican que nuestro futuro[br]puede estar seriamente condenado. 0:11:20.959,0:11:22.848 ¿Cuáles son las posibles respuestas? 0:11:23.228,0:11:26.921 Has hablado de cuatro posibles respuestas. 0:11:27.625,0:11:31.268 NB: Restringir el desarrollo tecnológico[br]no parece prometedor, 0:11:31.268,0:11:34.638 si hablamos de un parón general[br]del progreso tecnológico, 0:11:34.638,0:11:38.103 no creo que sea ni factible[br]ni deseable, aunque lo pudiéramos hacer. 0:11:38.167,0:11:41.044 Creo que hay áreas muy limitadas 0:11:41.044,0:11:43.921 en las que tal vez desees[br]un progreso tecnológico más lento. 0:11:43.921,0:11:47.531 No creo que quieras un progreso[br]mayor en bioarmamento, 0:11:47.801,0:11:49.434 o en separación isotópica, 0:11:49.434,0:11:51.888 que facilitaría la creación[br]de armas nucleares. 0:11:52.583,0:11:55.893 CA: Antes solía estar[br]totalmente de acuerdo en eso. 0:11:55.893,0:11:59.184 Pero me gustaría retroceder[br]un paso un momento. 0:11:59.184,0:12:02.898 Antes de nada, si ves la historia [br]de hace un par de décadas, 0:12:03.360,0:12:06.809 ha sido una continua[br]aceleración a toda velocidad, 0:12:06.809,0:12:08.708 está bien, pero es nuestra elección, 0:12:08.708,0:12:12.976 pero si te fijas en la globalización[br]y su rápida aceleración, 0:12:12.976,0:12:16.434 si te fijas en la estrategia[br]de "muévete rápido y rompe cosas" 0:12:16.434,0:12:18.228 y lo que ha producido, 0:12:18.542,0:12:21.309 y luego te fijas en el potencia[br]de la biología sintética, 0:12:21.309,0:12:27.205 no creo que debamos avanzar rápidamente[br]sin ningún tipo de restricción 0:12:27.205,0:12:30.498 hacia un mundo en el que pueda haber[br]una impresora de ADN en cada casa 0:12:30.498,0:12:32.365 en cada laboratorio de secundaria. 0:12:33.087,0:12:34.761 Hay algunas restricciones, ¿verdad? 0:12:34.761,0:12:37.842 NB: Posiblemente en la primera parte,[br]en la no factibilidad, 0:12:37.842,0:12:41.410 si crees que sería deseable pararla,[br]aparece el problema de la factibilidad. 0:12:41.410,0:12:44.059 No ayudaría que un país... 0:12:44.059,0:12:46.115 CA: No, no ayudaría[br]que un país lo hiciera, 0:12:46.115,0:12:48.793 pero hemos tenido[br]tratados con anterioridad. 0:12:49.333,0:12:52.424 Así es como hemos sobrevivido[br]a la amenaza nuclear, 0:12:52.618,0:12:56.326 gracias a que hemos salido y hemos pasado[br]por el penoso proceso de negociación. 0:12:56.542,0:13:01.736 Me pregunto si la lógica no es acaso[br]que nosotros, como prioridad global, 0:13:02.000,0:13:06.114 no deberíamos salir e intentar[br]negociar normas muy duras 0:13:06.114,0:13:09.101 sobre dónde se hace la investigación[br]en biología sintética, 0:13:09.101,0:13:11.856 porque no es algo[br]que quieras democratizar, ¿no? 0:13:11.856,0:13:13.803 NB: Estoy totalmente de acuerdo con eso, 0:13:13.803,0:13:18.059 sería deseable, por ejemplo, 0:13:18.059,0:13:21.294 tener máquinas para sintetizar ADN, 0:13:21.628,0:13:25.292 no de manera en la que cada laboratorio[br]sea el dueño de su propio dispositivo, 0:13:25.292,0:13:26.588 sino como un servicio. 0:13:26.792,0:13:29.100 Podría haber [br]cuatro o cinco lugares en el mundo 0:13:29.100,0:13:32.851 a los que enviar el modelo digital[br]y recibir el ADN de vuelta, ¿verdad? 0:13:32.851,0:13:36.653 Entonces, tendrías la habilidad,[br]si un día fuera necesario, 0:13:36.653,0:13:38.984 tendríamos un número finito[br]de cuellos de botella. 0:13:39.458,0:13:42.976 Creo que tienes que fijarte[br]en ciertos tipos de oportunidades 0:13:42.976,0:13:45.059 sobre las que quieres tener control. 0:13:45.059,0:13:46.726 CA: Crees, fundamentalmente, 0:13:46.726,0:13:49.643 que no vamos a conseguir retenerlo. 0:13:49.643,0:13:52.497 Que alguien, en algún lugar[br]como Corea del Norte, 0:13:52.497,0:13:57.114 va a descubrir este conocimiento,[br]si es que es posible descubrirlo. 0:13:57.114,0:13:59.311 NB: Parece posible[br]en las condiciones actuales. 0:13:59.311,0:14:00.895 No es solo la biología sintética, 0:14:00.895,0:14:03.937 sino que cualquier cambio[br]nuevo y profundo en el mundo 0:14:03.937,0:14:05.727 puede convertirse en una bola negra. 0:14:05.727,0:14:07.583 CA: Vamos a ver otra posible respuesta. 0:14:07.583,0:14:10.116 NB: Creo que esto también[br]tiene un potencial limitado. 0:14:11.251,0:14:13.399 Con el Tipo 1 de vulnerabilidad, 0:14:13.753,0:14:18.992 si puedes reducir el número[br]de personas motivadas a destruir el mundo, 0:14:18.992,0:14:21.009 si solo ellos tuvieran[br]acceso a los medios, 0:14:21.009,0:14:22.211 eso estaría bien. 0:14:22.211,0:14:24.105 CA: En esta imagen que nos muestras, 0:14:24.105,0:14:27.774 imaginas esos drones de reconocimiento[br]facial volando alrededor del mundo. 0:14:27.774,0:14:30.927 Cuando detectan a alguien[br]con signos de comportamiento sociopático, 0:14:31.267,0:14:33.451 lo cubren de amor y lo curan. 0:14:33.875,0:14:35.768 NB: Creo que es una imagen híbrida. 0:14:35.768,0:14:39.777 Eliminar puede significar[br]encarcelar o matar, 0:14:40.057,0:14:42.675 o persuadir de una visión[br]más optimista del mundo. 0:14:42.875,0:14:45.151 Pero el asunto es, 0:14:45.151,0:14:46.852 imagina que tuvieras éxito 0:14:46.852,0:14:49.793 y redujeras el número[br]de esos individuos a la mitad. 0:14:49.793,0:14:51.912 Si lo quieres hacer[br]mediante la persuasión, 0:14:51.912,0:14:54.154 estás compitiendo[br]contra otras fuerzas poderosas 0:14:54.154,0:14:55.847 que tratan de persuadir a la gente: 0:14:55.847,0:14:58.288 partidos políticos, religión[br]o el sistema educativo. 0:14:58.288,0:15:00.153 Pero imagina que lo reduces a la mitad; 0:15:00.153,0:15:02.281 no creo que el riesgo[br]se redujera a la mitad, 0:15:02.281,0:15:03.726 sino a un 5 o 10 %. 0:15:03.726,0:15:06.645 CA: No recomiendas que nos juguemos[br]el futuro de la humanidad 0:15:06.645,0:15:07.845 a la respuesta 2. 0:15:08.085,0:15:11.143 NB: Creo que está muy bien[br]tratar de disuadir a las personas, 0:15:11.143,0:15:13.893 pero no deberíamos considerarlo[br]nuestro único salvavidas. 0:15:13.893,0:15:15.274 CA: ¿Y la tercera? 0:15:15.458,0:15:18.351 NB: Creo que hay tres métodos generales 0:15:18.351,0:15:22.351 con los que que podemos tener[br]la habilidad de estabilizar el mundo 0:15:22.351,0:15:25.351 contra todo el espectro[br]de posibles vulnerabilidades. 0:15:25.351,0:15:27.105 Y probablemente necesitamos las dos. 0:15:27.410,0:15:33.008 Una es una habilidad extremadamente[br]efectiva de crear políticas preventivas, 0:15:33.292,0:15:34.816 pensadas para interceptar. 0:15:34.816,0:15:37.441 Si todos empezaran[br]a hacer esto tan peligroso, 0:15:37.625,0:15:40.329 podrías interceptarlos[br]en tiempo real y detenerlos. 0:15:40.689,0:15:42.785 Esto requeriría vigilancia ubicua, 0:15:42.785,0:15:45.120 todo el mundo estaría[br]monitorizado todo el tiempo. 0:15:46.137,0:15:48.917 CA: Esto es "Minority Report", en esencia. 0:15:48.917,0:15:50.851 NB: Tal vez tendrías algoritmos de IA, 0:15:50.851,0:15:55.292 grandes centros de libertad[br]que estarían revisándolos, etc. 0:15:56.583,0:15:58.420 CA: ¿Sabes que la vigilancia masiva 0:15:58.420,0:16:01.000 no es un término[br]muy popular en este momento? 0:16:01.000,0:16:02.550 (Risas) 0:16:03.378,0:16:05.392 NB: Sí, ese pequeño dispositivo, 0:16:05.392,0:16:08.893 imagina un tipo de collar[br]que tuvieras que llevar todo el tiempo 0:16:08.893,0:16:10.917 con cámaras multidireccionales. 0:16:11.652,0:16:13.407 Pero para hacerlo más llevadero, 0:16:13.407,0:16:15.903 imagínate llamarlo[br]"etiqueta de libertad" o algo así. 0:16:15.903,0:16:18.184 (Risas) 0:16:18.184,0:16:19.500 CA: De acuerdo. 0:16:19.500,0:16:21.625 Esta es la conversación, amigos, 0:16:21.625,0:16:24.744 esta es la razón por la que es[br]una conversación alucinante. 0:16:24.744,0:16:28.029 NB: De hecho, ya hay una gran conversación[br]sobre de esto, obviamente. 0:16:28.897,0:16:31.533 Entraña grandes problemas[br]y riesgos, ¿verdad? 0:16:31.533,0:16:32.934 Tal vez volvamos a eso. 0:16:32.934,0:16:36.906 Así que última, la otra capacidad[br]de estabilización general 0:16:36.906,0:16:38.887 es llenar otro vacío de gobernanza. 0:16:38.887,0:16:43.101 De modo que la vigilancia sería[br]un vacío de gobernanza a nivel micro, 0:16:43.101,0:16:46.036 como impedir que cualquiera[br]haga algo altamente ilegal. 0:16:46.250,0:16:49.983 Pero hay un vacío de gobernanza[br]a nivel macro, global. 0:16:49.983,0:16:54.370 Necesitarías la habilidad,[br]de manera fiable, 0:16:54.370,0:16:57.309 de prevenir los mayores fallos[br]de coordinación global, 0:16:57.309,0:17:00.661 para evitar guerras entre grandes poderes, 0:17:00.661,0:17:02.208 guerras armamentísticas, 0:17:03.380,0:17:05.708 problemas cataclísmicos[br]de los bienes comunes, 0:17:07.667,0:17:11.466 para poder lidiar[br]con las vulnerabilidades del Tipo 2a. 0:17:11.875,0:17:15.899 CA: La gobernanza global es un término[br]totalmente en desuso ahora, 0:17:16.107,0:17:17.645 pero se podría argumentar 0:17:17.645,0:17:19.853 que a lo largo de la historia[br]de la humanidad, 0:17:19.853,0:17:24.711 en cada fase del aumento[br]del poder tecnológico, 0:17:25.365,0:17:28.625 la gente se ha reorganizado[br]para centralizar el poder, por así decir, 0:17:28.625,0:17:32.059 Por ejemplo, cuando una banda[br]errante de criminales 0:17:32.059,0:17:33.768 podía conquistar una sociedad, 0:17:33.768,0:17:35.771 se respondía con el Estado nación, 0:17:35.771,0:17:38.126 y se centralizaba la fuerza,[br]policial o militar, 0:17:38.126,0:17:40.143 así que "no, no puedes hacer eso". 0:17:40.143,0:17:45.846 La lógica de que una sola persona o grupo[br]pueda conquistar la humanidad 0:17:45.846,0:17:49.247 tal vez signifique que en algún momento[br]tendremos que tomar este camino, 0:17:49.247,0:17:50.725 al menos en cierta manera, ¿no? 0:17:50.725,0:17:54.309 NB: Es cierto que la escala[br]de la organización política ha aumentado 0:17:54.309,0:17:56.416 a lo largo de la historia de la humanidad. 0:17:56.416,0:17:58.612 Solíamos ser grupos [br]de cazadores-recolectores, 0:17:58.612,0:18:01.090 luego liderados por jefes,[br]Estados naciones, naciones, 0:18:01.090,0:18:05.246 y ahora hay organizaciones[br]internacionales y todo eso. 0:18:05.500,0:18:07.688 De nuevo, solo quiero asegurarme 0:18:07.688,0:18:10.684 de que remarco que obviamente[br]hay enormes desventajas, 0:18:10.684,0:18:12.420 y desde luego, riesgos descomunales, 0:18:12.420,0:18:15.601 tanto en la vigilancia masiva[br]como en la gobernanza global. 0:18:15.601,0:18:18.144 Solo estoy destacando que,[br]si tenemos suerte, 0:18:18.144,0:18:19.693 el mundo puede llegar a un punto 0:18:19.693,0:18:22.228 en el que solo así podamos[br]sobrevivir a la bola negra. 0:18:22.458,0:18:24.215 CA: La lógica de esta teoría, 0:18:24.976,0:18:26.268 me parece, 0:18:26.268,0:18:29.893 es que tenemos que asumir[br]que no podemos tenerlo todo. 0:18:29.893,0:18:36.300 Que el sueño inocente, por así decir,[br]que muchos de nosotros teníamos 0:18:36.300,0:18:39.851 de que esa tecnología siempre[br]va a ser una fuerza positiva, 0:18:39.851,0:18:42.851 sigue adelante, no pares,[br]ve tan rápido como puedas 0:18:42.851,0:18:44.972 y no te fijes en las consecuencias, 0:18:45.250,0:18:46.694 ya no es una opción. 0:18:46.958,0:18:48.893 Podemos tenerlo. 0:18:48.893,0:18:50.184 Si podemos tenerlo, 0:18:50.184,0:18:54.250 tendremos que aceptar algunos aspectos[br]muy incómodos que conlleva, 0:18:54.250,0:18:56.930 y entrar esta carrera armamentística[br]con nosotros mismos, 0:18:56.930,0:18:59.285 de modo que si quieres poder[br]tienes que limitarlo, 0:18:59.285,0:19:00.664 y más te vale averiguar cómo. 0:19:00.934,0:19:04.434 NB: Creo que es una opción, 0:19:04.434,0:19:07.026 una opción muy tentadora,[br]diría que la más sencilla, 0:19:07.026,0:19:08.542 y podría funcionar, 0:19:08.542,0:19:13.351 pero significa que somos fundamentalmente[br]vulnerables a extraer la bola negra. 0:19:13.351,0:19:15.452 Pero pienso que con un poco[br]de coordinación, 0:19:15.452,0:19:18.292 pongamos que has resuelto[br]el problema de la macrogobernanza 0:19:18.292,0:19:19.917 y el de la microgobernanza, 0:19:19.917,0:19:22.226 podríamos extraer[br]todas las bolas de la urna 0:19:22.226,0:19:23.918 y beneficiarnos enormemente. 0:19:24.542,0:19:27.836 CA: Y si estamos viviendo[br]en una simulación, ¿qué más da? 0:19:27.836,0:19:29.333 Simplemente nos reiniciamos. 0:19:29.333,0:19:30.601 (Risas) 0:19:30.601,0:19:32.268 NB: Entonces... 0:19:32.268,0:19:34.598 (Risas) 0:19:34.598,0:19:36.208 Eso no me lo esperaba. 0:19:38.125,0:19:39.577 CA: ¿Cuál es tu opinión? 0:19:39.577,0:19:41.150 Si juntamos todas las piezas, 0:19:41.150,0:19:43.760 qué posibilidades tenemos[br]de estar condenados? 0:19:44.250,0:19:45.788 (Risas) 0:19:46.852,0:19:49.488 Me encanta que la gente se ría[br]cuando hago esa pregunta. 0:19:49.488,0:19:51.089 NB: A nivel individual, 0:19:51.349,0:19:54.684 parece que ya estamos condenados,[br]solo con el cronograma, 0:19:54.684,0:19:57.309 nos pudrimos y envejecemos[br]y todo eso, ¿verdad? 0:19:57.309,0:19:58.554 (Risas) 0:19:58.554,0:20:00.407 La verdad es que es un poco complicado. 0:20:00.407,0:20:03.164 Si quieres hacerte una idea[br]para obtener una probabilidad, 0:20:03.164,0:20:04.596 antes de nada, ¿quiénes somos? 0:20:04.596,0:20:07.476 Si eres muy mayor, seguramente[br]morirás de causas naturales, 0:20:07.476,0:20:09.571 si eres muy joven, tal vez vivas 100 años; 0:20:09.571,0:20:11.858 la probabilidad dependerá[br]de a quién preguntes. 0:20:11.858,0:20:15.300 Luego está el umbral: ¿Qué se considera[br]como devastación de la humanidad? 0:20:16.292,0:20:21.562 Sobre el papel, no necesito[br]una catástrofe existencial 0:20:21.832,0:20:23.633 para que la considere como tal. 0:20:23.633,0:20:25.125 Es cuestión de definición: 0:20:25.125,0:20:28.432 si digo mil millones de muertos,[br]o la reducción del PIB al 50 %, 0:20:28.432,0:20:30.638 así que dependiendo[br]de dónde pongas el umbral, 0:20:30.638,0:20:33.018 obtienes una estimación[br]de probabilidad diferente. 0:20:33.018,0:20:37.009 Supongo que me podrías catalogar[br]como un optimista asustado. 0:20:37.009,0:20:38.458 (Risas) 0:20:38.458,0:20:40.101 CA: Eres un optimista asustado, 0:20:40.101,0:20:45.213 y creo que acabas de crear[br]una gran cantidad de personas asustadas... 0:20:45.213,0:20:46.402 (Risas) 0:20:46.402,0:20:47.569 NB: En la simulación. 0:20:47.569,0:20:48.811 CA: En una simulación. 0:20:48.811,0:20:50.859 Nick Bostrom, tu mente me fascina, 0:20:50.859,0:20:53.256 muchas gracias por asustarnos[br]hasta la médula. 0:20:53.256,0:20:55.681 (Aplausos)