Spanish feliratok

← Cómo la civilización se puede autodestruir y cuatro maneras de evitarlo

Beágyazókód kérése
23 Languages

Showing Revision 43 created 01/28/2020 by Lidia Cámara de la Fuente.

  1. Chris Anderson: Nick Bostrom.
  2. Nos has dado muchas ideas locas.
  3. Creo que hace un par de décadas,
  4. defendías que estaríamos
    viviendo una simulación,
  5. o que, probablemente, vivíamos en una.
  6. Recientemente,
  7. has dado ejemplos muy claros de
    cómo la inteligencia artificial general
  8. podría generar resultados terribles.
  9. Y este año estás a punto de publicar
  10. un ensayo sobre algo denominado
    la hipótesis del mundo vulnerable.
  11. Nuestro trabajo esta tarde consiste
    en ofrecer una guía ilustrada sobre eso.
  12. Así que empecemos.
  13. ¿En qué consiste esa hipótesis?
  14. Nick Bostrom: Se trata de pensar

  15. en una especie de característica
    estructural de la actual condición humana.
  16. Como te gusta la metáfora de la urna,
  17. voy a utilizarla para explicarlo.
  18. Imagínate una gran urna llena de bolas
  19. que representan ideas,
    métodos, posibles tecnologías.
  20. Puedes pensar en la historia
    de la creatividad humana
  21. como el proceso de extraer
    de esta urna una bola tras otra,
  22. y el efecto neto hasta la fecha
    ha sido muy beneficioso, ¿verdad?
  23. Hemos extraído
    una gran cantidad de bolas blancas,
  24. de varias tonalidades de gris,
    con pros y contras.
  25. Hasta ahora no hemos sacado la bola negra:
  26. una tecnología que invariablemente
    destruye la civilización que la descubre.
  27. Mi ensayo trata de pensar
    qué podría ser esa bola negra.
  28. CA: Así que defines la bola negra

  29. como una que llevará inevitablemente
    a la destrucción de la civilización.
  30. NB: Salvo que salgamos de lo que denomino
    condición semianárquica por defecto.

  31. Bueno, más o menos por defecto.
  32. CA: Haces que este caso adquiera
    carácter de urgencia

  33. al mostrar contraejemplos
  34. que crees que demuestran
    que hasta ahora hemos tenido suerte,
  35. que puede que hayamos sacado
    la bola de la muerte,
  36. sin habernos siquiera dado cuenta.
  37. Hay una cita al respecto, ¿cuál es?
  38. NB: Bueno, imagino que solo trato
    de ilustrar la dificultad de prever

  39. hacia dónde llevarán
    los descubrimientos básicos,
  40. simplemente no tenemos esa capacidad.
  41. Porque nos hemos hecho bastante
    hábiles extrayendo bolas,
  42. pero realmente no tenemos la capacidad
    de devolver la bola a la urna.
  43. Podemos inventar, pero no desinventar.
  44. Así que nuestra estrategia, en realidad,
  45. es confiar en que no haya
    una bola negra en la urna.
  46. CA: Así que una vez que está fuera,
    no se puede devolver a la urna,

  47. y crees que hemos tenido suerte.
  48. Cuéntanos un par de ejemplos.
  49. Hablas de diferentes tipos
    de vulnerabilidad.
  50. NB: El tipo más fácil de comprender

  51. es una tecnología que hace muy fácil
    producir una enorme destrucción.
  52. La biología sintética podría ser
    una fuente abundante
  53. de ese tipo de bola negra,
  54. pero hay muchas otras cosas
    en las que podríamos pensar,
  55. como la geoingeniería,
    realmente genial, ¿verdad?
  56. Podríamos combatir
    el calentamiento global,
  57. pero tampoco queremos
    que sea demasiado sencillo,
  58. que cualquier persona
    y su abuela tengan la capacidad
  59. de alterar radicalmente
    el clima de la Tierra.
  60. O tal vez producir en masa
    drones autónomos letales,
  61. enjambres de robots asesinos
    del tamaño de un mosquito.
  62. Nanotecnología,
    inteligencia artificial general.

  63. CA: Tú argumentas en el ensayo
    que fue una cuestión de suerte
  64. que el descubrimiento
    de la energía nuclear
  65. pudiera crear una bomba;
  66. podría haber sido el caso
    de que fuera posible crear una bomba
  67. con recursos mucho menores,
    accesibles a cualquiera.
  68. NB: Sí, creo que allá por los años 30,

  69. cuando por primera vez hicimos
    grandes avances en física nuclear,
  70. algunas figuras insignes expusieron
  71. que era posible crear
    reacciones nucleares en cadena
  72. para luego caer en la cuenta de que eso
    podría llevar a crear una bomba.
  73. Investigamos y descubrimos
    que para hacer una bomba nuclear
  74. se necesita uranio enriquecido o plutonio,
  75. que son materiales
    muy difíciles de conseguir.
  76. Se precisan ultracentrifugadoras,
  77. reactores para gigantescas
    cantidades de energía.
  78. Pero imagínate que en lugar de eso,
  79. hubiera habido una manera fácil
    de liberar la energía del átomo.
  80. Que tal vez calentando arena
    en el microondas o algo así
  81. se hubiese podido crear
    una detonación nuclear.
  82. Sabemos que es físicamente imposible.
  83. Pero antes de desarrollar
    esa física relevante,
  84. ¿cómo se podría haber sabido
    cómo acabaría?
  85. CA: A pesar de eso, ¿no se podría alegar
  86. que para que la vida
    evolucionara en la Tierra

  87. se necesitaría cierto entorno estable,
  88. y que si fuera tan fácil crear
    reacciones nucleares masivas
  89. la Tierra nunca habría sido estable,
  90. y por tanto no podríamos estar aquí.
  91. NB: Sí, salvo que hubiera algo fácil
    de hacer a propósito,
  92. pero que no ocurriría solo por azar.

  93. Es decir, cosas que podemos
    hacer con facilidad,
  94. podemos apilar 10 bloques uno sobre otro,
  95. pero en la naturaleza, no se
    da una pila de 10 bloques.
  96. CA: De acuerdo, quizá esto es
    lo que más nos preocupa a la mayoría,
  97. y sí, la biología sintética es
    tal vez la vía más rápida

  98. que podemos prever en nuestro futuro
    cercano para llegar hasta aquí.
  99. NB: Sí, imagínate lo que eso
    habría supuesto,
  100. si, digamos, cualquiera trabajando
    en su cocina por la tarde

  101. pudiera destruir una ciudad.
  102. Cuesta entender
    que la civilización moderna,
  103. tal como la conocemos,
    haya podido sobrevivir a eso,
  104. porque en cualquier población
    de un millón de personas
  105. siempre habrá alguien que,
    por algún motivo,
  106. quiera utilizar ese poder de destrucción.
  107. Así que si ese residuo apocalíptico
  108. eligiera destruir una ciudad, o peor aún,
  109. las ciudades podrían ser destruidas.
  110. CA: Hay otra clase de vulnerabilidad,

  111. hábleme de ella.
  112. NB: Sí, además de estos tipos
    evidentes de bolas negras

  113. que podrían hacer que muchas cosas
    volaran por los aires,
  114. hay otros tipos que pueden
    crear malos incentivos
  115. para que los humanos
    hagamos cosas dañinas.
  116. El Tipo 2a, podríamos llamarlo,
  117. serían tecnologías que posibilitan
    a los grandes poderes
  118. usar su enorme fuerza
    para crear destrucción.
  119. Las armas nucleares
    están muy cerca de esto, ¿verdad?
  120. Hemos gastado más de USD 10 billones
  121. para construir 70 000 cabezas nucleares
  122. que están en estado de alerta instantánea.
  123. Hubo varios momentos
    durante la Guerra Fría
  124. en los que casi nos volamos por los aires.
  125. No es que muchos pensaran
    que era una gran idea
  126. gastarnos USD 10 billones
    para volarnos por los aires,
  127. pero los incentivos eran tales
    que nos encontrábamos...
  128. podría haber sido mucho peor.
  129. Imagina que hubiera habido
    un primer ataque seguro.
  130. Habría sido muy difícil,
    en una situación de crisis,
  131. reprimir el lanzamiento
    de todos los misiles nucleares,
  132. aunque solo fuera por el temor
    a que lo hiciera el otro.
  133. CA: De acuerdo, la destrucción
    mutua asegurada

  134. mantuvo la Guerra Fría
    relativamente estable,
  135. porque sin eso,
    podríamos no estar hoy aquí.
  136. NB: Pudo haber sido más inestable,

  137. y pudo haber otras propiedades
    de la tecnología,
  138. pudo haber sido más difícil
    lograr tratados armamentísticos,
  139. si en vez de cabezas nucleares,
  140. hubiera habido cosas más pequeñas
    o menos distintivas.
  141. CA: Al igual que los malos incentivos
    para los actores del poder,

  142. también te preocupan los malos incentivos
    para todos nosotros, en este Tipo 2a.
  143. NB: Sí, podemos poner el caso
    del calentamiento global.

  144. Hay muchos pequeños inconvenientes
  145. que nos llevan a hacer cosas
  146. que individualmente
    no tienen efecto, ¿verdad?
  147. Pero si miles de millones
    de personas lo hacen,
  148. acumulativamente,
    tiene un efecto perjudicial.
  149. El calentamiento global
    podría haber sido mucho peor.
  150. Tenemos el parámetro
    de la sensibilidad climática.
  151. Se trata de un parámetro
    que indica cuánto se calentaría
  152. si emitieras cierta cantidad
    de gases de efecto invernadero.
  153. Pero, suponiendo que fuera el caso
  154. de que con la cantidad de gases
    de efecto invernadero que hemos emitido
  155. en lugar de que la temperatura subiera,
    entre 3 y 4.5 º C hasta 2100,
  156. imagina que hubieran sido 15 o 20 ºC,
  157. entonces estaríamos
    en una situación muy mala.
  158. O que la energía renovable
    fuera más difícil de producir.
  159. o que hubiera más combustibles
    fósiles en el subsuelo.
  160. CA: No se podría argumentar que,

  161. si lo que hacemos hoy
  162. hubiera producido 10 º C de diferencia
    en un periodo que pudiéramos ver,
  163. la humanidad ya se habría puesto las pilas
    para hacer algo al respecto.
  164. Somos estúpidos, pero quizá no tanto.
  165. O tal vez sí.
  166. NB: No apostaría por ello.

  167. (Risas)

  168. Puedes imaginarte otras características.

  169. En estos momentos es algo difícil cambiar
    a las renovables y todo eso, de acuerdo,
  170. pero se puede hacer.
  171. Pero podría haber sucedido que,
    con una física algo diferente,
  172. hubiera sido mucho más difícil
    hacer estas cosas.
  173. CA: ¿Qué opinas, Nick, crees que,
    teniendo en cuenta todo esto,

  174. este planeta, nosotros como humanidad,
    conformamos un mundo vulnerable,
  175. que hay una bola de muerte
    en nuestro futuro?
  176. NB: Es difícil de decir,

  177. creo que también hay algunas bolas doradas
    en la urna, o eso parece.
  178. Puede que haya algunas bolas doradas
  179. que nos puedan proteger
    de las bolas negras.
  180. Y no sé en qué orden van a salir.
  181. CA: Una posible crítica
    filosófica a esta idea

  182. es que implica la visión de que el futuro
    está básicamente determinado.
  183. De que o bien está esa bola ahí o no está.
  184. Y de alguna manera, no es una visión
    del futuro en la que quiero creer.
  185. Quiero creer que el futuro
    es indeterminado,
  186. que nuestras decisiones de hoy
    determinarán qué tipos de bolas sacamos.
  187. NB: Si seguimos inventando,

  188. al final acabaremos
    sacando todas las bolas.
  189. Creo que hay una forma débil
    de determinismo tecnológico
  190. que es bastante plausible,
  191. como que es bastante improbable
    que encontremos una sociedad
  192. que use hachas de pedernal
    y aviones tipo jet.
  193. Pero casi puedes pensar en una tecnología
    como un conjunto de posibilidades.
  194. La tecnología nos permite
    hacer varias cosas
  195. y conseguir diversos efectos en el mundo.
  196. Cómo la usemos depende
    de nuestra elección como humanos.
  197. Pero si pensamos
    en estos tres tipos de vulnerabilidades,
  198. hacen unas asunciones bastante débiles
    sobre cómo podríamos elegir utilizarla.
  199. En el Tipo 1 de vulnerabilidad,
    con su poder destructor masivo,
  200. es una asunción bastante débil suponer
  201. que en una población
    de millones de personas
  202. haya alguno que elija
    usarlo de manera destructiva.
  203. CA: Para mí, el argumento más inquietante

  204. es que puede que tengamos
    cierta visión de la urna,
  205. que hace pensar que muy posiblemente
    estemos condenados.
  206. Por ejemplo, si crees
    en el poder de la aceleración,
  207. esa tecnología inherentemente se acelera,
  208. y si creamos la herramientas
    que nos den más poder
  209. llegaremos a un punto
  210. en el que un solo individuo
    pueda acabar con todo,
  211. y eso nos lleva a pensar
    que estamos apañados.
  212. ¿No es un argumento bastante alarmante?
  213. NB: Ah, sí...

  214. (Risas)

  215. Creo que...

  216. Sí, tenemos más y más poder,
  217. y es cada vez más sencillo utilizarlo,
  218. pero también podemos inventar tecnologías
  219. que nos ayuden a controlar
    cómo las personas utilizan ese poder.
  220. CA: Hablemos de eso, de la respuesta.

  221. Imagina todas las posibilidades
    que tenemos ahora,
  222. no es solo la biología sintética,
  223. sino cosas como la ciberguerra,
    la inteligencia artificial, etc.,
  224. que indican que nuestro futuro
    puede estar seriamente condenado.
  225. ¿Cuáles son las posibles respuestas?
  226. Has hablado de cuatro posibles respuestas.
  227. NB: Restringir el desarrollo tecnológico
    no parece prometedor,

  228. si hablamos de un parón general
    del progreso tecnológico,
  229. no creo que sea ni factible
    ni deseable, aunque lo pudiéramos hacer.
  230. Creo que hay áreas muy limitadas
  231. en las que tal vez desees
    un progreso tecnológico más lento.
  232. No creo que quieras un progreso
    mayor en bioarmamento,
  233. o en separación isotópica,
  234. que facilitaría la creación
    de armas nucleares.
  235. CA: Antes solía estar
    totalmente de acuerdo en eso.

  236. Pero me gustaría retroceder
    un paso un momento.
  237. Antes de nada, si ves la historia
    de hace un par de décadas,
  238. ha sido una continua
    aceleración a toda velocidad,
  239. está bien, pero es nuestra elección,
  240. pero si te fijas en la globalización
    y su rápida aceleración,
  241. si te fijas en la estrategia
    de "muévete rápido y rompe cosas"
  242. y lo que ha producido,
  243. y luego te fijas en el potencia
    de la biología sintética,
  244. no creo que debamos avanzar rápidamente
    sin ningún tipo de restricción
  245. hacia un mundo en el que pueda haber
    una impresora de ADN en cada casa
  246. en cada laboratorio de secundaria.
  247. Hay algunas restricciones, ¿verdad?
  248. NB: Posiblemente en la primera parte,
    en la no factibilidad,

  249. si crees que sería deseable pararla,
    aparece el problema de la factibilidad.
  250. No ayudaría que un país...
  251. CA: No, no ayudaría
    que un país lo hiciera,

  252. pero hemos tenido
    tratados con anterioridad.
  253. Así es como hemos sobrevivido
    a la amenaza nuclear,
  254. gracias a que hemos salido y hemos pasado
    por el penoso proceso de negociación.
  255. Me pregunto si la lógica no es acaso
    que nosotros, como prioridad global,
  256. no deberíamos salir e intentar
    negociar normas muy duras
  257. sobre dónde se hace la investigación
    en biología sintética,
  258. porque no es algo
    que quieras democratizar, ¿no?
  259. NB: Estoy totalmente de acuerdo con eso,

  260. sería deseable, por ejemplo,
  261. tener máquinas para sintetizar ADN,
  262. no de manera en la que cada laboratorio
    sea el dueño de su propio dispositivo,
  263. sino como un servicio.
  264. Podría haber
    cuatro o cinco lugares en el mundo
  265. a los que enviar el modelo digital
    y recibir el ADN de vuelta, ¿verdad?
  266. Entonces, tendrías la habilidad,
    si un día fuera necesario,
  267. tendríamos un número finito
    de cuellos de botella.
  268. Creo que tienes que fijarte
    en ciertos tipos de oportunidades
  269. sobre las que quieres tener control.
  270. CA: Crees, fundamentalmente,

  271. que no vamos a conseguir retenerlo.
  272. Que alguien, en algún lugar
    como Corea del Norte,
  273. va a descubrir este conocimiento,
    si es que es posible descubrirlo.
  274. NB: Parece posible
    en las condiciones actuales.

  275. No es solo la biología sintética,
  276. sino que cualquier cambio
    nuevo y profundo en el mundo
  277. puede convertirse en una bola negra.
  278. CA: Vamos a ver otra posible respuesta.

  279. NB: Creo que esto también
    tiene un potencial limitado.

  280. Con el Tipo 1 de vulnerabilidad,
  281. si puedes reducir el número
    de personas motivadas a destruir el mundo,
  282. si solo ellos tuvieran
    acceso a los medios,
  283. eso estaría bien.
  284. CA: En esta imagen que nos muestras,

  285. imaginas esos drones de reconocimiento
    facial volando alrededor del mundo.
  286. Cuando detectan a alguien
    con signos de comportamiento sociopático,
  287. lo cubren de amor y lo curan.
  288. NB: Creo que es una imagen híbrida.

  289. Eliminar puede significar
    encarcelar o matar,
  290. o persuadir de una visión
    más optimista del mundo.
  291. Pero el asunto es,
  292. imagina que tuvieras éxito
  293. y redujeras el número
    de esos individuos a la mitad.
  294. Si lo quieres hacer
    mediante la persuasión,
  295. estás compitiendo
    contra otras fuerzas poderosas
  296. que tratan de persuadir a la gente:
  297. partidos políticos, religión
    o el sistema educativo.
  298. Pero imagina que lo reduces a la mitad;
  299. no creo que el riesgo
    se redujera a la mitad,
  300. sino a un 5 o 10 %.
  301. CA: No recomiendas que nos juguemos
    el futuro de la humanidad

  302. a la respuesta 2.
  303. NB: Creo que está muy bien
    tratar de disuadir a las personas,

  304. pero no deberíamos considerarlo
    nuestro único salvavidas.
  305. CA: ¿Y la tercera?

  306. NB: Creo que hay tres métodos generales

  307. con los que que podemos tener
    la habilidad de estabilizar el mundo
  308. contra todo el espectro
    de posibles vulnerabilidades.
  309. Y probablemente necesitamos las dos.
  310. Una es una habilidad extremadamente
    efectiva de crear políticas preventivas,
  311. pensadas para interceptar.
  312. Si todos empezaran
    a hacer esto tan peligroso,
  313. podrías interceptarlos
    en tiempo real y detenerlos.
  314. Esto requeriría vigilancia ubicua,
  315. todo el mundo estaría
    monitorizado todo el tiempo.
  316. CA: Esto es "Minority Report", en esencia.

  317. NB: Tal vez tendrías algoritmos de IA,

  318. grandes centros de libertad
    que estarían revisándolos, etc.
  319. CA: ¿Sabes que la vigilancia masiva

  320. no es un término
    muy popular en este momento?
  321. (Risas)

  322. NB: Sí, ese pequeño dispositivo,

  323. imagina un tipo de collar
    que tuvieras que llevar todo el tiempo
  324. con cámaras multidireccionales.
  325. Pero para hacerlo más llevadero,
  326. imagínate llamarlo
    "etiqueta de libertad" o algo así.
  327. (Risas)

  328. CA: De acuerdo.

  329. Esta es la conversación, amigos,
  330. esta es la razón por la que es
    una conversación alucinante.
  331. NB: De hecho, ya hay una gran conversación
    sobre de esto, obviamente.

  332. Entraña grandes problemas
    y riesgos, ¿verdad?
  333. Tal vez volvamos a eso.
  334. Así que última, la otra capacidad
    de estabilización general
  335. es llenar otro vacío de gobernanza.
  336. De modo que la vigilancia sería
    un vacío de gobernanza a nivel micro,
  337. como impedir que cualquiera
    haga algo altamente ilegal.
  338. Pero hay un vacío de gobernanza
    a nivel macro, global.
  339. Necesitarías la habilidad,
    de manera fiable,
  340. de prevenir los mayores fallos
    de coordinación global,
  341. para evitar guerras entre grandes poderes,
  342. guerras armamentísticas,
  343. problemas cataclísmicos
    de los bienes comunes,
  344. para poder lidiar
    con las vulnerabilidades del Tipo 2a.
  345. CA: La gobernanza global es un término
    totalmente en desuso ahora,

  346. pero se podría argumentar
  347. que a lo largo de la historia
    de la humanidad,
  348. en cada fase del aumento
    del poder tecnológico,
  349. la gente se ha reorganizado
    para centralizar el poder, por así decir,
  350. Por ejemplo, cuando una banda
    errante de criminales
  351. podía conquistar una sociedad,
  352. se respondía con el Estado nación,
  353. y se centralizaba la fuerza,
    policial o militar,
  354. así que "no, no puedes hacer eso".
  355. La lógica de que una sola persona o grupo
    pueda conquistar la humanidad
  356. tal vez signifique que en algún momento
    tendremos que tomar este camino,
  357. al menos en cierta manera, ¿no?
  358. NB: Es cierto que la escala
    de la organización política ha aumentado

  359. a lo largo de la historia de la humanidad.
  360. Solíamos ser grupos
    de cazadores-recolectores,
  361. luego liderados por jefes,
    Estados naciones, naciones,
  362. y ahora hay organizaciones
    internacionales y todo eso.
  363. De nuevo, solo quiero asegurarme
  364. de que remarco que obviamente
    hay enormes desventajas,
  365. y desde luego, riesgos descomunales,
  366. tanto en la vigilancia masiva
    como en la gobernanza global.
  367. Solo estoy destacando que,
    si tenemos suerte,
  368. el mundo puede llegar a un punto
  369. en el que solo así podamos
    sobrevivir a la bola negra.
  370. CA: La lógica de esta teoría,

  371. me parece,
  372. es que tenemos que asumir
    que no podemos tenerlo todo.
  373. Que el sueño inocente, por así decir,
    que muchos de nosotros teníamos
  374. de que esa tecnología siempre
    va a ser una fuerza positiva,
  375. sigue adelante, no pares,
    ve tan rápido como puedas
  376. y no te fijes en las consecuencias,
  377. ya no es una opción.
  378. Podemos tenerlo.
  379. Si podemos tenerlo,
  380. tendremos que aceptar algunos aspectos
    muy incómodos que conlleva,
  381. y entrar esta carrera armamentística
    con nosotros mismos,
  382. de modo que si quieres poder
    tienes que limitarlo,
  383. y más te vale averiguar cómo.
  384. NB: Creo que es una opción,

  385. una opción muy tentadora,
    diría que la más sencilla,
  386. y podría funcionar,
  387. pero significa que somos fundamentalmente
    vulnerables a extraer la bola negra.
  388. Pero pienso que con un poco
    de coordinación,
  389. pongamos que has resuelto
    el problema de la macrogobernanza
  390. y el de la microgobernanza,
  391. podríamos extraer
    todas las bolas de la urna
  392. y beneficiarnos enormemente.
  393. CA: Y si estamos viviendo
    en una simulación, ¿qué más da?

  394. Simplemente nos reiniciamos.
  395. (Risas)

  396. NB: Entonces...

  397. (Risas)

  398. Eso no me lo esperaba.
  399. CA: ¿Cuál es tu opinión?

  400. Si juntamos todas las piezas,
  401. qué posibilidades tenemos
    de estar condenados?
  402. (Risas)

  403. Me encanta que la gente se ría
    cuando hago esa pregunta.

  404. NB: A nivel individual,

  405. parece que ya estamos condenados,
    solo con el cronograma,
  406. nos pudrimos y envejecemos
    y todo eso, ¿verdad?
  407. (Risas)

  408. La verdad es que es un poco complicado.

  409. Si quieres hacerte una idea
    para obtener una probabilidad,
  410. antes de nada, ¿quiénes somos?
  411. Si eres muy mayor, seguramente
    morirás de causas naturales,
  412. si eres muy joven, tal vez vivas 100 años;
  413. la probabilidad dependerá
    de a quién preguntes.
  414. Luego está el umbral: ¿Qué se considera
    como devastación de la humanidad?
  415. Sobre el papel, no necesito
    una catástrofe existencial
  416. para que la considere como tal.
  417. Es cuestión de definición:
  418. si digo mil millones de muertos,
    o la reducción del PIB al 50 %,
  419. así que dependiendo
    de dónde pongas el umbral,
  420. obtienes una estimación
    de probabilidad diferente.
  421. Supongo que me podrías catalogar
    como un optimista asustado.
  422. (Risas)

  423. CA: Eres un optimista asustado,

  424. y creo que acabas de crear
    una gran cantidad de personas asustadas...
  425. (Risas)

  426. NB: En la simulación.

  427. CA: En una simulación.

  428. Nick Bostrom, tu mente me fascina,
  429. muchas gracias por asustarnos
    hasta la médula.
  430. (Aplausos)