Cómo la civilización se puede autodestruir y cuatro maneras de evitarlo
-
0:01 - 0:02Chris Anderson: Nick Bostrom.
-
0:03 - 0:07Nos has dado muchas ideas locas.
-
0:07 - 0:09Creo que hace un par de décadas,
-
0:09 - 0:11defendías que estaríamos
viviendo una simulación, -
0:11 - 0:13o que, probablemente, vivíamos en una.
-
0:13 - 0:15Recientemente,
-
0:15 - 0:19has dado ejemplos muy claros de
cómo la inteligencia artificial general -
0:19 - 0:22podría generar resultados terribles.
-
0:22 - 0:24Y este año estás a punto de publicar
-
0:25 - 0:29un ensayo sobre algo denominado
la hipótesis del mundo vulnerable. -
0:29 - 0:34Nuestro trabajo esta tarde consiste
en ofrecer una guía ilustrada sobre eso. -
0:35 - 0:36Así que empecemos.
-
0:37 - 0:39¿En qué consiste esa hipótesis?
-
0:40 - 0:42Nick Bostrom: Se trata de pensar
-
0:42 - 0:46en una especie de característica
estructural de la actual condición humana. -
0:47 - 0:50Como te gusta la metáfora de la urna,
-
0:50 - 0:51voy a utilizarla para explicarlo.
-
0:52 - 0:55Imagínate una gran urna llena de bolas
-
0:56 - 1:00que representan ideas,
métodos, posibles tecnologías. -
1:01 - 1:05Puedes pensar en la historia
de la creatividad humana -
1:05 - 1:08como el proceso de extraer
de esta urna una bola tras otra, -
1:08 - 1:12y el efecto neto hasta la fecha
ha sido muy beneficioso, ¿verdad? -
1:12 - 1:15Hemos extraído
una gran cantidad de bolas blancas, -
1:15 - 1:17de varias tonalidades de gris,
con pros y contras. -
1:18 - 1:21Hasta ahora no hemos sacado la bola negra:
-
1:22 - 1:28una tecnología que invariablemente
destruye la civilización que la descubre. -
1:28 - 1:31Mi ensayo trata de pensar
qué podría ser esa bola negra. -
1:31 - 1:33CA: Así que defines la bola negra
-
1:33 - 1:37como una que llevará inevitablemente
a la destrucción de la civilización. -
1:37 - 1:42NB: Salvo que salgamos de lo que denomino
condición semianárquica por defecto. -
1:42 - 1:43Bueno, más o menos por defecto.
-
1:44 - 1:48CA: Haces que este caso adquiera
carácter de urgencia -
1:48 - 1:50al mostrar contraejemplos
-
1:50 - 1:53que crees que demuestran
que hasta ahora hemos tenido suerte, -
1:53 - 1:56que puede que hayamos sacado
la bola de la muerte, -
1:56 - 1:57sin habernos siquiera dado cuenta.
-
1:57 - 2:00Hay una cita al respecto, ¿cuál es?
-
2:00 - 2:05NB: Bueno, imagino que solo trato
de ilustrar la dificultad de prever -
2:05 - 2:08hacia dónde llevarán
los descubrimientos básicos, -
2:08 - 2:10simplemente no tenemos esa capacidad.
-
2:11 - 2:15Porque nos hemos hecho bastante
hábiles extrayendo bolas, -
2:15 - 2:18pero realmente no tenemos la capacidad
de devolver la bola a la urna. -
2:18 - 2:21Podemos inventar, pero no desinventar.
-
2:22 - 2:24Así que nuestra estrategia, en realidad,
-
2:24 - 2:26es confiar en que no haya
una bola negra en la urna. -
2:26 - 2:31CA: Así que una vez que está fuera,
no se puede devolver a la urna, -
2:31 - 2:32y crees que hemos tenido suerte.
-
2:32 - 2:35Cuéntanos un par de ejemplos.
-
2:35 - 2:37Hablas de diferentes tipos
de vulnerabilidad. -
2:38 - 2:40NB: El tipo más fácil de comprender
-
2:40 - 2:46es una tecnología que hace muy fácil
producir una enorme destrucción. -
2:47 - 2:50La biología sintética podría ser
una fuente abundante -
2:50 - 2:52de ese tipo de bola negra,
-
2:52 - 2:54pero hay muchas otras cosas
en las que podríamos pensar, -
2:54 - 2:57como la geoingeniería,
realmente genial, ¿verdad? -
2:57 - 2:59Podríamos combatir
el calentamiento global, -
2:59 - 3:01pero tampoco queremos
que sea demasiado sencillo, -
3:01 - 3:04que cualquier persona
y su abuela tengan la capacidad -
3:04 - 3:06de alterar radicalmente
el clima de la Tierra. -
3:07 - 3:11O tal vez producir en masa
drones autónomos letales, -
3:11 - 3:14enjambres de robots asesinos
del tamaño de un mosquito. -
3:14 - 3:17Nanotecnología,
inteligencia artificial general. -
3:17 - 3:20CA: Tú argumentas en el ensayo
que fue una cuestión de suerte -
3:20 - 3:23que el descubrimiento
de la energía nuclear -
3:23 - 3:25pudiera crear una bomba;
-
3:25 - 3:28podría haber sido el caso
de que fuera posible crear una bomba -
3:28 - 3:31con recursos mucho menores,
accesibles a cualquiera. -
3:32 - 3:35NB: Sí, creo que allá por los años 30,
-
3:35 - 3:39cuando por primera vez hicimos
grandes avances en física nuclear, -
3:40 - 3:41algunas figuras insignes expusieron
-
3:41 - 3:44que era posible crear
reacciones nucleares en cadena -
3:44 - 3:48para luego caer en la cuenta de que eso
podría llevar a crear una bomba. -
3:48 - 3:52Investigamos y descubrimos
que para hacer una bomba nuclear -
3:52 - 3:54se necesita uranio enriquecido o plutonio,
-
3:54 - 3:56que son materiales
muy difíciles de conseguir. -
3:56 - 3:59Se precisan ultracentrifugadoras,
-
3:59 - 4:02reactores para gigantescas
cantidades de energía. -
4:02 - 4:04Pero imagínate que en lugar de eso,
-
4:04 - 4:07hubiera habido una manera fácil
de liberar la energía del átomo. -
4:08 - 4:11Que tal vez calentando arena
en el microondas o algo así -
4:11 - 4:14se hubiese podido crear
una detonación nuclear. -
4:14 - 4:15Sabemos que es físicamente imposible.
-
4:15 - 4:18Pero antes de desarrollar
esa física relevante, -
4:18 - 4:20¿cómo se podría haber sabido
cómo acabaría? -
4:20 - 4:23CA: A pesar de eso, ¿no se podría alegar
-
4:23 - 4:25que para que la vida
evolucionara en la Tierra -
4:25 - 4:27se necesitaría cierto entorno estable,
-
4:27 - 4:31y que si fuera tan fácil crear
reacciones nucleares masivas -
4:31 - 4:32la Tierra nunca habría sido estable,
-
4:32 - 4:35y por tanto no podríamos estar aquí.
-
4:35 - 4:38NB: Sí, salvo que hubiera algo fácil
de hacer a propósito, -
4:38 - 4:41pero que no ocurriría solo por azar.
-
4:41 - 4:43Es decir, cosas que podemos
hacer con facilidad, -
4:43 - 4:45podemos apilar 10 bloques uno sobre otro,
-
4:45 - 4:48pero en la naturaleza, no se
da una pila de 10 bloques. -
4:48 - 4:52CA: De acuerdo, quizá esto es
lo que más nos preocupa a la mayoría, -
4:52 - 4:55y sí, la biología sintética es
tal vez la vía más rápida -
4:55 - 4:59que podemos prever en nuestro futuro
cercano para llegar hasta aquí. -
4:59 - 5:01NB: Sí, imagínate lo que eso
habría supuesto, -
5:01 - 5:05si, digamos, cualquiera trabajando
en su cocina por la tarde -
5:05 - 5:06pudiera destruir una ciudad.
-
5:07 - 5:09Cuesta entender
que la civilización moderna, -
5:09 - 5:12tal como la conocemos,
haya podido sobrevivir a eso, -
5:12 - 5:15porque en cualquier población
de un millón de personas -
5:15 - 5:17siempre habrá alguien que,
por algún motivo, -
5:17 - 5:19quiera utilizar ese poder de destrucción.
-
5:20 - 5:23Así que si ese residuo apocalíptico
-
5:23 - 5:25eligiera destruir una ciudad, o peor aún,
-
5:25 - 5:27las ciudades podrían ser destruidas.
-
5:27 - 5:29CA: Hay otra clase de vulnerabilidad,
-
5:29 - 5:30hábleme de ella.
-
5:31 - 5:35NB: Sí, además de estos tipos
evidentes de bolas negras -
5:35 - 5:37que podrían hacer que muchas cosas
volaran por los aires, -
5:37 - 5:42hay otros tipos que pueden
crear malos incentivos -
5:42 - 5:44para que los humanos
hagamos cosas dañinas. -
5:44 - 5:48El Tipo 2a, podríamos llamarlo,
-
5:48 - 5:53serían tecnologías que posibilitan
a los grandes poderes -
5:53 - 5:57usar su enorme fuerza
para crear destrucción. -
5:57 - 6:00Las armas nucleares
están muy cerca de esto, ¿verdad? -
6:02 - 6:05Hemos gastado más de USD 10 billones
-
6:05 - 6:08para construir 70 000 cabezas nucleares
-
6:08 - 6:10que están en estado de alerta instantánea.
-
6:10 - 6:12Hubo varios momentos
durante la Guerra Fría -
6:12 - 6:14en los que casi nos volamos por los aires.
-
6:14 - 6:17No es que muchos pensaran
que era una gran idea -
6:17 - 6:19gastarnos USD 10 billones
para volarnos por los aires, -
6:19 - 6:22pero los incentivos eran tales
que nos encontrábamos... -
6:22 - 6:23podría haber sido mucho peor.
-
6:23 - 6:26Imagina que hubiera habido
un primer ataque seguro. -
6:26 - 6:30Habría sido muy difícil,
en una situación de crisis, -
6:30 - 6:33reprimir el lanzamiento
de todos los misiles nucleares, -
6:33 - 6:36aunque solo fuera por el temor
a que lo hiciera el otro. -
6:36 - 6:38CA: De acuerdo, la destrucción
mutua asegurada -
6:38 - 6:40mantuvo la Guerra Fría
relativamente estable, -
6:40 - 6:42porque sin eso,
podríamos no estar hoy aquí. -
6:42 - 6:44NB: Pudo haber sido más inestable,
-
6:44 - 6:47y pudo haber otras propiedades
de la tecnología, -
6:47 - 6:50pudo haber sido más difícil
lograr tratados armamentísticos, -
6:50 - 6:51si en vez de cabezas nucleares,
-
6:51 - 6:54hubiera habido cosas más pequeñas
o menos distintivas. -
6:54 - 6:57CA: Al igual que los malos incentivos
para los actores del poder, -
6:57 - 7:01también te preocupan los malos incentivos
para todos nosotros, en este Tipo 2a. -
7:01 - 7:05NB: Sí, podemos poner el caso
del calentamiento global. -
7:07 - 7:09Hay muchos pequeños inconvenientes
-
7:09 - 7:12que nos llevan a hacer cosas
-
7:12 - 7:14que individualmente
no tienen efecto, ¿verdad? -
7:14 - 7:16Pero si miles de millones
de personas lo hacen, -
7:16 - 7:18acumulativamente,
tiene un efecto perjudicial. -
7:18 - 7:21El calentamiento global
podría haber sido mucho peor. -
7:21 - 7:24Tenemos el parámetro
de la sensibilidad climática. -
7:24 - 7:27Se trata de un parámetro
que indica cuánto se calentaría -
7:27 - 7:30si emitieras cierta cantidad
de gases de efecto invernadero. -
7:30 - 7:33Pero, suponiendo que fuera el caso
-
7:33 - 7:36de que con la cantidad de gases
de efecto invernadero que hemos emitido -
7:36 - 7:41en lugar de que la temperatura subiera,
entre 3 y 4.5 º C hasta 2100, -
7:41 - 7:44imagina que hubieran sido 15 o 20 ºC,
-
7:44 - 7:47entonces estaríamos
en una situación muy mala. -
7:47 - 7:49O que la energía renovable
fuera más difícil de producir. -
7:49 - 7:52o que hubiera más combustibles
fósiles en el subsuelo. -
7:52 - 7:54CA: No se podría argumentar que,
-
7:54 - 7:57si lo que hacemos hoy
-
7:57 - 8:02hubiera producido 10 º C de diferencia
en un periodo que pudiéramos ver, -
8:02 - 8:05la humanidad ya se habría puesto las pilas
para hacer algo al respecto. -
8:05 - 8:08Somos estúpidos, pero quizá no tanto.
-
8:08 - 8:09O tal vez sí.
-
8:09 - 8:11NB: No apostaría por ello.
-
8:11 - 8:12(Risas)
-
8:13 - 8:16Puedes imaginarte otras características.
-
8:16 - 8:20En estos momentos es algo difícil cambiar
a las renovables y todo eso, de acuerdo, -
8:20 - 8:22pero se puede hacer.
-
8:22 - 8:25Pero podría haber sucedido que,
con una física algo diferente, -
8:25 - 8:27hubiera sido mucho más difícil
hacer estas cosas. -
8:28 - 8:32CA: ¿Qué opinas, Nick, crees que,
teniendo en cuenta todo esto, -
8:34 - 8:38este planeta, nosotros como humanidad,
conformamos un mundo vulnerable, -
8:38 - 8:40que hay una bola de muerte
en nuestro futuro? -
8:44 - 8:45NB: Es difícil de decir,
-
8:45 - 8:51creo que también hay algunas bolas doradas
en la urna, o eso parece. -
8:52 - 8:54Puede que haya algunas bolas doradas
-
8:54 - 8:57que nos puedan proteger
de las bolas negras. -
8:58 - 9:00Y no sé en qué orden van a salir.
-
9:01 - 9:04CA: Una posible crítica
filosófica a esta idea -
9:04 - 9:10es que implica la visión de que el futuro
está básicamente determinado. -
9:10 - 9:13De que o bien está esa bola ahí o no está.
-
9:13 - 9:17Y de alguna manera, no es una visión
del futuro en la que quiero creer. -
9:17 - 9:20Quiero creer que el futuro
es indeterminado, -
9:20 - 9:25que nuestras decisiones de hoy
determinarán qué tipos de bolas sacamos. -
9:26 - 9:30NB: Si seguimos inventando,
-
9:30 - 9:32al final acabaremos
sacando todas las bolas. -
9:33 - 9:36Creo que hay una forma débil
de determinismo tecnológico -
9:36 - 9:37que es bastante plausible,
-
9:37 - 9:40como que es bastante improbable
que encontremos una sociedad -
9:40 - 9:43que use hachas de pedernal
y aviones tipo jet. -
9:44 - 9:48Pero casi puedes pensar en una tecnología
como un conjunto de posibilidades. -
9:48 - 9:51La tecnología nos permite
hacer varias cosas -
9:51 - 9:53y conseguir diversos efectos en el mundo.
-
9:53 - 9:55Cómo la usemos depende
de nuestra elección como humanos. -
9:56 - 9:59Pero si pensamos
en estos tres tipos de vulnerabilidades, -
9:59 - 10:02hacen unas asunciones bastante débiles
sobre cómo podríamos elegir utilizarla. -
10:02 - 10:06En el Tipo 1 de vulnerabilidad,
con su poder destructor masivo, -
10:06 - 10:08es una asunción bastante débil suponer
-
10:08 - 10:10que en una población
de millones de personas -
10:10 - 10:12haya alguno que elija
usarlo de manera destructiva. -
10:13 - 10:15CA: Para mí, el argumento más inquietante
-
10:15 - 10:20es que puede que tengamos
cierta visión de la urna, -
10:20 - 10:23que hace pensar que muy posiblemente
estemos condenados. -
10:23 - 10:28Por ejemplo, si crees
en el poder de la aceleración, -
10:28 - 10:30esa tecnología inherentemente se acelera,
-
10:30 - 10:32y si creamos la herramientas
que nos den más poder -
10:32 - 10:35llegaremos a un punto
-
10:35 - 10:38en el que un solo individuo
pueda acabar con todo, -
10:38 - 10:41y eso nos lleva a pensar
que estamos apañados. -
10:41 - 10:43¿No es un argumento bastante alarmante?
-
10:44 - 10:46NB: Ah, sí...
-
10:47 - 10:48(Risas)
-
10:48 - 10:49Creo que...
-
10:51 - 10:52Sí, tenemos más y más poder,
-
10:54 - 10:56y es cada vez más sencillo utilizarlo,
-
10:56 - 10:58pero también podemos inventar tecnologías
-
10:58 - 11:02que nos ayuden a controlar
cómo las personas utilizan ese poder. -
11:02 - 11:05CA: Hablemos de eso, de la respuesta.
-
11:05 - 11:09Imagina todas las posibilidades
que tenemos ahora, -
11:09 - 11:12no es solo la biología sintética,
-
11:12 - 11:16sino cosas como la ciberguerra,
la inteligencia artificial, etc., -
11:17 - 11:21que indican que nuestro futuro
puede estar seriamente condenado. -
11:21 - 11:23¿Cuáles son las posibles respuestas?
-
11:23 - 11:27Has hablado de cuatro posibles respuestas.
-
11:28 - 11:31NB: Restringir el desarrollo tecnológico
no parece prometedor, -
11:31 - 11:35si hablamos de un parón general
del progreso tecnológico, -
11:35 - 11:38no creo que sea ni factible
ni deseable, aunque lo pudiéramos hacer. -
11:38 - 11:41Creo que hay áreas muy limitadas
-
11:41 - 11:44en las que tal vez desees
un progreso tecnológico más lento. -
11:44 - 11:48No creo que quieras un progreso
mayor en bioarmamento, -
11:48 - 11:49o en separación isotópica,
-
11:49 - 11:52que facilitaría la creación
de armas nucleares. -
11:53 - 11:56CA: Antes solía estar
totalmente de acuerdo en eso. -
11:56 - 11:59Pero me gustaría retroceder
un paso un momento. -
11:59 - 12:03Antes de nada, si ves la historia
de hace un par de décadas, -
12:03 - 12:07ha sido una continua
aceleración a toda velocidad, -
12:07 - 12:09está bien, pero es nuestra elección,
-
12:09 - 12:13pero si te fijas en la globalización
y su rápida aceleración, -
12:13 - 12:16si te fijas en la estrategia
de "muévete rápido y rompe cosas" -
12:16 - 12:18y lo que ha producido,
-
12:19 - 12:21y luego te fijas en el potencia
de la biología sintética, -
12:21 - 12:27no creo que debamos avanzar rápidamente
sin ningún tipo de restricción -
12:27 - 12:30hacia un mundo en el que pueda haber
una impresora de ADN en cada casa -
12:30 - 12:32en cada laboratorio de secundaria.
-
12:33 - 12:35Hay algunas restricciones, ¿verdad?
-
12:35 - 12:38NB: Posiblemente en la primera parte,
en la no factibilidad, -
12:38 - 12:41si crees que sería deseable pararla,
aparece el problema de la factibilidad. -
12:41 - 12:44No ayudaría que un país...
-
12:44 - 12:46CA: No, no ayudaría
que un país lo hiciera, -
12:46 - 12:49pero hemos tenido
tratados con anterioridad. -
12:49 - 12:52Así es como hemos sobrevivido
a la amenaza nuclear, -
12:53 - 12:56gracias a que hemos salido y hemos pasado
por el penoso proceso de negociación. -
12:57 - 13:02Me pregunto si la lógica no es acaso
que nosotros, como prioridad global, -
13:02 - 13:06no deberíamos salir e intentar
negociar normas muy duras -
13:06 - 13:09sobre dónde se hace la investigación
en biología sintética, -
13:09 - 13:12porque no es algo
que quieras democratizar, ¿no? -
13:12 - 13:14NB: Estoy totalmente de acuerdo con eso,
-
13:14 - 13:18sería deseable, por ejemplo,
-
13:18 - 13:21tener máquinas para sintetizar ADN,
-
13:22 - 13:25no de manera en la que cada laboratorio
sea el dueño de su propio dispositivo, -
13:25 - 13:27sino como un servicio.
-
13:27 - 13:29Podría haber
cuatro o cinco lugares en el mundo -
13:29 - 13:33a los que enviar el modelo digital
y recibir el ADN de vuelta, ¿verdad? -
13:33 - 13:37Entonces, tendrías la habilidad,
si un día fuera necesario, -
13:37 - 13:39tendríamos un número finito
de cuellos de botella. -
13:39 - 13:43Creo que tienes que fijarte
en ciertos tipos de oportunidades -
13:43 - 13:45sobre las que quieres tener control.
-
13:45 - 13:47CA: Crees, fundamentalmente,
-
13:47 - 13:50que no vamos a conseguir retenerlo.
-
13:50 - 13:52Que alguien, en algún lugar
como Corea del Norte, -
13:52 - 13:57va a descubrir este conocimiento,
si es que es posible descubrirlo. -
13:57 - 13:59NB: Parece posible
en las condiciones actuales. -
13:59 - 14:01No es solo la biología sintética,
-
14:01 - 14:04sino que cualquier cambio
nuevo y profundo en el mundo -
14:04 - 14:06puede convertirse en una bola negra.
-
14:06 - 14:08CA: Vamos a ver otra posible respuesta.
-
14:08 - 14:10NB: Creo que esto también
tiene un potencial limitado. -
14:11 - 14:13Con el Tipo 1 de vulnerabilidad,
-
14:14 - 14:19si puedes reducir el número
de personas motivadas a destruir el mundo, -
14:19 - 14:21si solo ellos tuvieran
acceso a los medios, -
14:21 - 14:22eso estaría bien.
-
14:22 - 14:24CA: En esta imagen que nos muestras,
-
14:24 - 14:28imaginas esos drones de reconocimiento
facial volando alrededor del mundo. -
14:28 - 14:31Cuando detectan a alguien
con signos de comportamiento sociopático, -
14:31 - 14:33lo cubren de amor y lo curan.
-
14:34 - 14:36NB: Creo que es una imagen híbrida.
-
14:36 - 14:40Eliminar puede significar
encarcelar o matar, -
14:40 - 14:43o persuadir de una visión
más optimista del mundo. -
14:43 - 14:45Pero el asunto es,
-
14:45 - 14:47imagina que tuvieras éxito
-
14:47 - 14:50y redujeras el número
de esos individuos a la mitad. -
14:50 - 14:52Si lo quieres hacer
mediante la persuasión, -
14:52 - 14:54estás compitiendo
contra otras fuerzas poderosas -
14:54 - 14:56que tratan de persuadir a la gente:
-
14:56 - 14:58partidos políticos, religión
o el sistema educativo. -
14:58 - 15:00Pero imagina que lo reduces a la mitad;
-
15:00 - 15:02no creo que el riesgo
se redujera a la mitad, -
15:02 - 15:04sino a un 5 o 10 %.
-
15:04 - 15:07CA: No recomiendas que nos juguemos
el futuro de la humanidad -
15:07 - 15:08a la respuesta 2.
-
15:08 - 15:11NB: Creo que está muy bien
tratar de disuadir a las personas, -
15:11 - 15:14pero no deberíamos considerarlo
nuestro único salvavidas. -
15:14 - 15:15CA: ¿Y la tercera?
-
15:15 - 15:18NB: Creo que hay tres métodos generales
-
15:18 - 15:22con los que que podemos tener
la habilidad de estabilizar el mundo -
15:22 - 15:25contra todo el espectro
de posibles vulnerabilidades. -
15:25 - 15:27Y probablemente necesitamos las dos.
-
15:27 - 15:33Una es una habilidad extremadamente
efectiva de crear políticas preventivas, -
15:33 - 15:35pensadas para interceptar.
-
15:35 - 15:37Si todos empezaran
a hacer esto tan peligroso, -
15:38 - 15:40podrías interceptarlos
en tiempo real y detenerlos. -
15:41 - 15:43Esto requeriría vigilancia ubicua,
-
15:43 - 15:45todo el mundo estaría
monitorizado todo el tiempo. -
15:46 - 15:49CA: Esto es "Minority Report", en esencia.
-
15:49 - 15:51NB: Tal vez tendrías algoritmos de IA,
-
15:51 - 15:55grandes centros de libertad
que estarían revisándolos, etc. -
15:57 - 15:58CA: ¿Sabes que la vigilancia masiva
-
15:58 - 16:01no es un término
muy popular en este momento? -
16:01 - 16:03(Risas)
-
16:03 - 16:05NB: Sí, ese pequeño dispositivo,
-
16:05 - 16:09imagina un tipo de collar
que tuvieras que llevar todo el tiempo -
16:09 - 16:11con cámaras multidireccionales.
-
16:12 - 16:13Pero para hacerlo más llevadero,
-
16:13 - 16:16imagínate llamarlo
"etiqueta de libertad" o algo así. -
16:16 - 16:18(Risas)
-
16:18 - 16:20CA: De acuerdo.
-
16:20 - 16:22Esta es la conversación, amigos,
-
16:22 - 16:25esta es la razón por la que es
una conversación alucinante. -
16:25 - 16:28NB: De hecho, ya hay una gran conversación
sobre de esto, obviamente. -
16:29 - 16:32Entraña grandes problemas
y riesgos, ¿verdad? -
16:32 - 16:33Tal vez volvamos a eso.
-
16:33 - 16:37Así que última, la otra capacidad
de estabilización general -
16:37 - 16:39es llenar otro vacío de gobernanza.
-
16:39 - 16:43De modo que la vigilancia sería
un vacío de gobernanza a nivel micro, -
16:43 - 16:46como impedir que cualquiera
haga algo altamente ilegal. -
16:46 - 16:50Pero hay un vacío de gobernanza
a nivel macro, global. -
16:50 - 16:54Necesitarías la habilidad,
de manera fiable, -
16:54 - 16:57de prevenir los mayores fallos
de coordinación global, -
16:57 - 17:01para evitar guerras entre grandes poderes,
-
17:01 - 17:02guerras armamentísticas,
-
17:03 - 17:06problemas cataclísmicos
de los bienes comunes, -
17:08 - 17:11para poder lidiar
con las vulnerabilidades del Tipo 2a. -
17:12 - 17:16CA: La gobernanza global es un término
totalmente en desuso ahora, -
17:16 - 17:18pero se podría argumentar
-
17:18 - 17:20que a lo largo de la historia
de la humanidad, -
17:20 - 17:25en cada fase del aumento
del poder tecnológico, -
17:25 - 17:29la gente se ha reorganizado
para centralizar el poder, por así decir, -
17:29 - 17:32Por ejemplo, cuando una banda
errante de criminales -
17:32 - 17:34podía conquistar una sociedad,
-
17:34 - 17:36se respondía con el Estado nación,
-
17:36 - 17:38y se centralizaba la fuerza,
policial o militar, -
17:38 - 17:40así que "no, no puedes hacer eso".
-
17:40 - 17:46La lógica de que una sola persona o grupo
pueda conquistar la humanidad -
17:46 - 17:49tal vez signifique que en algún momento
tendremos que tomar este camino, -
17:49 - 17:51al menos en cierta manera, ¿no?
-
17:51 - 17:54NB: Es cierto que la escala
de la organización política ha aumentado -
17:54 - 17:56a lo largo de la historia de la humanidad.
-
17:56 - 17:59Solíamos ser grupos
de cazadores-recolectores, -
17:59 - 18:01luego liderados por jefes,
Estados naciones, naciones, -
18:01 - 18:05y ahora hay organizaciones
internacionales y todo eso. -
18:06 - 18:08De nuevo, solo quiero asegurarme
-
18:08 - 18:11de que remarco que obviamente
hay enormes desventajas, -
18:11 - 18:12y desde luego, riesgos descomunales,
-
18:12 - 18:16tanto en la vigilancia masiva
como en la gobernanza global. -
18:16 - 18:18Solo estoy destacando que,
si tenemos suerte, -
18:18 - 18:20el mundo puede llegar a un punto
-
18:20 - 18:22en el que solo así podamos
sobrevivir a la bola negra. -
18:22 - 18:24CA: La lógica de esta teoría,
-
18:25 - 18:26me parece,
-
18:26 - 18:30es que tenemos que asumir
que no podemos tenerlo todo. -
18:30 - 18:36Que el sueño inocente, por así decir,
que muchos de nosotros teníamos -
18:36 - 18:40de que esa tecnología siempre
va a ser una fuerza positiva, -
18:40 - 18:43sigue adelante, no pares,
ve tan rápido como puedas -
18:43 - 18:45y no te fijes en las consecuencias,
-
18:45 - 18:47ya no es una opción.
-
18:47 - 18:49Podemos tenerlo.
-
18:49 - 18:50Si podemos tenerlo,
-
18:50 - 18:54tendremos que aceptar algunos aspectos
muy incómodos que conlleva, -
18:54 - 18:57y entrar esta carrera armamentística
con nosotros mismos, -
18:57 - 18:59de modo que si quieres poder
tienes que limitarlo, -
18:59 - 19:01y más te vale averiguar cómo.
-
19:01 - 19:04NB: Creo que es una opción,
-
19:04 - 19:07una opción muy tentadora,
diría que la más sencilla, -
19:07 - 19:09y podría funcionar,
-
19:09 - 19:13pero significa que somos fundamentalmente
vulnerables a extraer la bola negra. -
19:13 - 19:15Pero pienso que con un poco
de coordinación, -
19:15 - 19:18pongamos que has resuelto
el problema de la macrogobernanza -
19:18 - 19:20y el de la microgobernanza,
-
19:20 - 19:22podríamos extraer
todas las bolas de la urna -
19:22 - 19:24y beneficiarnos enormemente.
-
19:25 - 19:28CA: Y si estamos viviendo
en una simulación, ¿qué más da? -
19:28 - 19:29Simplemente nos reiniciamos.
-
19:29 - 19:31(Risas)
-
19:31 - 19:32NB: Entonces...
-
19:32 - 19:35(Risas)
-
19:35 - 19:36Eso no me lo esperaba.
-
19:38 - 19:40CA: ¿Cuál es tu opinión?
-
19:40 - 19:41Si juntamos todas las piezas,
-
19:41 - 19:44qué posibilidades tenemos
de estar condenados? -
19:44 - 19:46(Risas)
-
19:47 - 19:49Me encanta que la gente se ría
cuando hago esa pregunta. -
19:49 - 19:51NB: A nivel individual,
-
19:51 - 19:55parece que ya estamos condenados,
solo con el cronograma, -
19:55 - 19:57nos pudrimos y envejecemos
y todo eso, ¿verdad? -
19:57 - 19:59(Risas)
-
19:59 - 20:00La verdad es que es un poco complicado.
-
20:00 - 20:03Si quieres hacerte una idea
para obtener una probabilidad, -
20:03 - 20:05antes de nada, ¿quiénes somos?
-
20:05 - 20:07Si eres muy mayor, seguramente
morirás de causas naturales, -
20:07 - 20:10si eres muy joven, tal vez vivas 100 años;
-
20:10 - 20:12la probabilidad dependerá
de a quién preguntes. -
20:12 - 20:15Luego está el umbral: ¿Qué se considera
como devastación de la humanidad? -
20:16 - 20:22Sobre el papel, no necesito
una catástrofe existencial -
20:22 - 20:24para que la considere como tal.
-
20:24 - 20:25Es cuestión de definición:
-
20:25 - 20:28si digo mil millones de muertos,
o la reducción del PIB al 50 %, -
20:28 - 20:31así que dependiendo
de dónde pongas el umbral, -
20:31 - 20:33obtienes una estimación
de probabilidad diferente. -
20:33 - 20:37Supongo que me podrías catalogar
como un optimista asustado. -
20:37 - 20:38(Risas)
-
20:38 - 20:40CA: Eres un optimista asustado,
-
20:40 - 20:45y creo que acabas de crear
una gran cantidad de personas asustadas... -
20:45 - 20:46(Risas)
-
20:46 - 20:48NB: En la simulación.
-
20:48 - 20:49CA: En una simulación.
-
20:49 - 20:51Nick Bostrom, tu mente me fascina,
-
20:51 - 20:53muchas gracias por asustarnos
hasta la médula. -
20:53 - 20:56(Aplausos)
- Title:
- Cómo la civilización se puede autodestruir y cuatro maneras de evitarlo
- Speaker:
- Nick Bostrom
- Description:
-
La humanidad está en camino de crear una "bola negra": un avance tecnológico que podría destruirnos a todos, según el filósofo Nick Bostrom. En esta conversación incisiva y sorprendentemente alegre con Chris Anderson, director de TED, Bostrom esboza las vulnerabilidades a las que podríamos enfrentarnos en el caso de que (o cuando) nuestra espiral de invenciones se salga de nuestro control, y explora cómo podemos prevenir nuestra futura desaparición.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09