Portuguese feliratok

← Como a civilização se pode destruir a si mesma — e quatro formas de o impedir

Beágyazókód kérése
23 Languages

Showing Revision 9 created 05/18/2020 by Margarida Ferreira.

  1. Chris Anderson: Nick Bostrom.
  2. Já nos deste muitas ideias incríveis.
  3. Penso que aqui há décadas
  4. defendeste a ideia de que podemos
    estar a viver numa simulação,
  5. ou provavelmente, estávamos.
  6. Mais recentemente,
  7. descreveste os exemplos
    mais impressionantes
  8. de como a inteligência artificial
    poderá vir a gerar resultados terríveis.
  9. E este ano, estás prestes a publicar
  10. um artigo que apresenta uma coisa
    chamada a hipótese do mundo vulnerável.
  11. O nosso papel esta noite é apresentar
    um guia ilustrado sobre esse tema.
  12. Vamos a isso.
  13. Que hipótese é essa?
  14. Nick Bostrom: É uma tentativa de reflexão
  15. sobre uma característica estrutural
    da atual condição humana.
  16. Tu gostas da metáfora da urna,
  17. por isso vou usá-la para explicar melhor.
  18. Imagina uma grande urna
    cheia de bolas,
  19. que representam ideias, métodos,
    possíveis tecnologias.
  20. Podes pensar na história
    da criatividade humana
  21. como o processo de chegar a esta urna
    e ir tirando uma bola atrás de outra.
  22. Até aqui, o efeito tem sido
    muito benéfico, não é?
  23. Já extraímos uma grande quantidade
    de bolas brancas,
  24. algumas de vários tons de cinzento,
    com prós e contras.
  25. Até agora não tirámos a bola preta
  26. — uma tecnologia que destrua fatalmente
    a civilização que a encontrar.
  27. O artigo procura refletir
    no que será essa bola preta.

  28. CA: Então, defines essa bola
  29. como aquela que, inevitavelmente,
    provocará a destruição da civilização.

  30. NB: A não ser que abandonemos
    aquilo a que chamo
  31. a situação semianárquica, por defeito

  32. mas, de qualquer modo, por defeito.
  33. CA: Argumentas de forma convincente
    apresentando contraexemplos
  34. de que, segundo crês,
    temos tido muita sorte, até agora,
  35. em que podíamos ter tirado
    essa bola mortífera
  36. sem sequer darmos por isso.
  37. O que é esta citação?
  38. ["O Progresso Contínuo na Mecânica
    Celestial produzirá a bomba H"]
  39. NB: Penso que pretende ilustrar

  40. a dificuldade de prever aonde nos levarão
    as descobertas elementares.
  41. Não temos essa capacidade.
  42. Porque tornámo-nos muito bons
    a extrair as bolas,
  43. mas não temos a capacidade
    de voltar a pôr a bola na urna.
  44. Podemos inventar,
    mas não podemos des-inventar.
  45. A nossa estratégia atual
  46. é ter a esperança de que não haja
    nenhuma bola preta na urna.
  47. CA: Depois de aparecer, está cá fora
    e não podemos voltar a pô-la lá dentro

  48. e tu pensas que temos tido sorte.
  49. Fala-nos de alguns desses exemplos.
  50. Falas de diferentes tipos
    de vulnerabilidade.
  51. NB: O tipo mais fácil de perceber

  52. é uma tecnologia que torna
    muito fácil uma destruição maciça.
  53. A biologia sintética pode ser
    uma fonte fecunda duma bola preta,
  54. mas há muitas outras coisas possíveis
  55. — pensa na geo-engenharia,
    é genial, não é?
  56. Podemos combater o aquecimento global,
  57. mas não queremos
    que seja demasiado fácil,
  58. não queremos que
    uma pessoa qualquer e a sua avó
  59. possam alterar radicalmente
    o clima da Terra.
  60. Ou os "drones" autónomos mortíferos,
    enxames de robôs assassinos
  61. do tamanho de mosquitos
    e produzidos em massa.
  62. A nanotecnologia,
    a inteligência artificial geral.
  63. CA: Defendes nesse artigo

  64. que foi só por sorte
    — quando descobrimos
  65. que a energia nuclear
    podia criar uma bomba —
  66. que não criámos uma bomba
  67. com recursos muito mais simples,
    acessíveis a toda a gente.
  68. NB: Sim, pensa nos anos 30

  69. em que, pela primeira vez,
  70. fizemos descobertas revolucionárias
    na física nuclear.
  71. Houve um génio que descobriu ser possível
    criar uma reação nuclear em cadeia
  72. e depois percebeu-se
    que isso podia levar à bomba.
  73. E continuámos a trabalhar.
  74. Acontece que o necessário
    para fazer uma bomba nuclear
  75. é urânio enriquecido ou plutónio,
  76. que são materiais muito difíceis de obter.
  77. São precisos ultracentrifugadores,
  78. são precisos reatores,
    quantidades enormes de energia.
  79. Mas suponhamos que, em vez disso,
  80. tivesse havido uma forma fácil
    de libertar a energia do átomo.
  81. Talvez cozendo areia no micro-ondas
  82. ou qualquer coisa assim,
  83. pudéssemos ter criado
    uma explosão nuclear.
  84. Sabemos que isso
    é fisicamente impossível.
  85. Mas antes de estudarmos
    a física relevante
  86. como é que sabíamos
    o que iria acontecer?
  87. CA: Podias alegar que,
    para a vida evoluir na Terra

  88. era indispensável um ambiente estável
  89. e que, se fosse possível criar
    grandes reações nucleares
  90. com relativa facilidade,
  91. a Terra nunca teria estado estável
    e nós não estaríamos aqui.
  92. NB: Sim, a não ser que houvesse
    qualquer coisa fácil de fazer

  93. mas isso não aconteceria por acaso.
  94. Coisas fáceis de fazer,
  95. como empilhar 10 blocos
    uns por cima dos outros
  96. mas, na Natureza, não encontramos
    uma pilha de 10 blocos.
  97. CA: Ok, isto provavelmente é aquilo
    que mais preocupa muitos de nós

  98. e, sim, a biologia sintética
    talvez seja o caminho mais rápido
  99. que, podemos prever, pode
    levar-nos lá num futuro próximo.
  100. NB: Pois é, pensa no que significaria

  101. se alguém, a trabalhar
    na cozinha, durante uma tarde,
  102. pudesse destruir uma cidade.
  103. É difícil ver como a civilização moderna,
    tal como a conhecemos,
  104. teria sobrevivido a isso.
  105. Porque, em qualquer população
    de um milhão de pessoas,
  106. haverá sempre alguém,
    por qualquer razão que seja,
  107. que pode decidir usar
    esse poder destrutivo.
  108. Assim, se esse resíduo apocalíptico
  109. decidir destruir uma cidade ou, pior,
  110. as cidades serão destruídas.
  111. CA: Esse é outro tipo de vulnerabilidade.

  112. Fala-nos disso.
  113. NB: Para além destes tipos óbvios
    de bolas pretas

  114. isso tornaria possível
    fazer explodir muitas coisas.
  115. Outros tipos agiriam
    criando maus incentivos
  116. para os seres humanos
    fazerem coisas prejudiciais.
  117. O Tipo-2a, podemos chamar-lhe assim,
  118. é pensar nalguma tecnologia
    que incentive as grandes potências
  119. a usar a sua quantidade enorme de força
    para provocar a destruição.
  120. As armas nucleares estiveram
    muito perto disso, não foi?
  121. Gastámos mais de 10 biliões de dólares
  122. para fabricar 70 000 ogivas nucleares
  123. e colocá-las em alerta imediato.
  124. Houve várias ocasiões,
    durante a Guerra Fria,
  125. em que quase nos explodimos mutuamente.
  126. Não porque muita gente achasse
    que seria boa ideia
  127. gastar 10 biliões de dólares
    para nos fazermos explodir,
  128. mas porque os incentivos eram enormes
  129. — podia ter sido pior.
  130. Imagina se tivesse havido
    um primeiro ataque.
  131. Podia ter sido muito complicado,
    numa situação de crise,
  132. conseguirmos abstermo-nos
    de lançar todos os mísseis nucleares.
  133. Quanto mais não fosse, porque recearíamos
    que o outro lado o fizesse.
  134. CA: Claro, uma destruição mútua garantida

  135. manteve a Guerra Fria
    relativamente estável.
  136. Sem isso, podíamos não estar aqui agora.
  137. NB: Podia ter sido
    mais instável do que foi.

  138. Podia haver outras propriedades
    da tecnologia.
  139. Podia ter sido mais difícil
    ter tratados sobre armamento
  140. se, em vez de armas nucleares,
  141. fosse uma coisa mais pequena
    ou menos impressionante.
  142. CA: Tal como com os maus incentivos
    para atores poderosos,

  143. também te preocupas
  144. com os maus incentivos
    para todos nós, o Tipo-2b.
  145. NB: Sim, podemos agarrar
    no caso do aquecimento global.

  146. Há muitos pequenos confortos
  147. que levam cada um de nós a fazer coisas
  148. que, individualmente,
    não têm efeito significativo.
  149. Mas, se milhares de milhões
    de pessoas o fizerem,
  150. cumulativamente, o efeito é destruidor.
  151. O aquecimento global podia
    ter sido muito pior do que é.
  152. Temos o parâmetro
    de sensibilidade climática.
  153. É um parâmetro que indica
    quanto é o aquecimento
  154. se emitirmos uma certa quantidade
    de gases com efeito de estufa.
  155. Mas supõe que se dava o caso
  156. de que, com a quantidade de gases
    com efeito de estufa que emitimos,
  157. em vez de a temperatura subir
  158. entre 3 a 4,5 graus até 2100,
  159. imagina que subiria entre 15 ou 20 graus.
  160. Aí estaríamos numa situação muito má.
  161. Supõe que as energias renováveis
    tinham sido muito mais complexas
  162. ou que tinha havido mais
    combustíveis fósseis no terreno.
  163. CA: Não podias argumentar que,

  164. se aquilo que estamos a fazer hoje
  165. tivesse resultado em 10 graus de diferença
    no período de tempo que podemos ver,
  166. a humanidade ter-se-ia alarmado
    e teria feito alguma coisa.
  167. Somos estúpidos, mas não somos
    assim tão estúpidos.
  168. Ou talvez sejamos.
  169. NB: Não apostaria nisso.

  170. (Risos)

  171. Podemos imaginar outras opções.

  172. Neste momento, é um pouco difícil
    mudar para as renováveis,
  173. mas pode ser feito.
  174. Podia ter sido,
    com uma física um pouco diferente,
  175. teria sido muito mais dispendioso
    fazer essas coisas.
  176. CA: Qual é a tua opinião, Nick?

  177. Achas que, juntando
    todas estas possibilidades.
  178. esta humanidade que somos,
  179. somos um mundo vulnerável?
  180. Haverá uma bola mortífera
    no nosso futuro?
  181. NB: É difícil dizer.

  182. Ou seja, penso que pode haver
    várias bolas pretas na urna,
  183. é o que parece.
  184. Também pode haver
    algumas bolas douradas
  185. que nos ajudarão
    a proteger-nos das bolas pretas.
  186. Mas não sei qual a ordem
    por que vão sair.
  187. CA: Uma possível crítica
    filosófica dessa ideia

  188. é que isso implica uma visão
    de um futuro já determinado,
  189. quer essa bola exista ou não.
  190. E, de certa forma,
  191. é uma visão do futuro
    em que eu não quero acreditar.
  192. Eu quero acreditar
    que o futuro é indeterminado,
  193. que são as nossas decisões
    de hoje que determinarão
  194. o tipo de bolas
    que vamos tirar dessa urna.
  195. NB: Se continuarmos a inventar,

  196. acabaremos por extrair todas as bolas.
  197. Penso que há uma certa forma
    de determinismo tecnológico
  198. que é bastante plausível.
  199. Ou seja, não é provável
    encontrar uma sociedade
  200. que use machados de sílex
    e aviões a jato.
  201. Mas quase podemos ver a tecnologia
    como um conjunto de possibilidades.
  202. A tecnologia é a coisa que nos possibilita
    fazer diversas coisas
  203. e obter diversos efeitos no mundo.
  204. Como vamos usá-las
    depende das opções humanas.
  205. Mas, se pensarmos nestes
    três tipos de vulnerabilidade,
  206. são pressupostos muito fracos
    sobre como optaríamos por usá-las.
  207. Uma vulnerabilidade Tipo-1
    esse enorme poder destrutivo,
  208. é uma hipótese muito fraca
  209. pensar que, numa população
    de milhões de pessoas
  210. haveria algumas que optariam
    por usá-la destrutivamente.
  211. CA: Para mim, o argumento mais perturbador

  212. é podermos espreitar
    para dentro da urna
  213. e vermos que, provavelmente,
    estamos condenados.
  214. Se acreditarmos no poder acelerador,
  215. que a tecnologia acelera
    inerentemente,
  216. que criamos as ferramentas
    que nos tornam mais poderosos,
  217. a certa altura, acabamos
    por chegar a um ponto
  218. em que um único indivíduo
    pode eliminar-nos a todos
  219. e assim, parece que estamos lixados.
  220. Este argumento não é alarmante?
  221. NB: Claro que é.

  222. (Risos)

  223. Penso que...

  224. Sim, cada vez temos mais poder
  225. e é cada vez mais fácil
    usar esses poderes
  226. mas também podemos inventar
    tecnologias que nos ajudem a controlar
  227. como as pessoas usam esses poderes.
  228. CA: Falemos nisso, falemos na resposta.

  229. Suponhamos que pensar
    em todas as possibilidades
  230. que existem atualmente
  231. — não é só a biologia sintética,
    são coisas como a guerra cibernética,
  232. a inteligência artificial, etc., etc. —
  233. que podem ser uma condenação
    do nosso futuro.
  234. Quais são as possíveis respostas?
  235. Falaste de quatro respostas possíveis.
  236. NB: Restringir o desenvolvimento
    tecnológico não parece ser promissor,

  237. se falamos duma paragem geral
    do progresso tecnológico.
  238. Penso que não é exequível
    nem seria desejável,
  239. mesmo que o pudéssemos fazer.
  240. Penso que pode haver áreas
    muito limitadas
  241. em que talvez quiséssemos
    abrandar o progresso tecnológico.
  242. Penso que não queremos um progresso
    mais rápido nas armas biológicas
  243. ou na separação de isótopos
  244. que facilitaria a criação
    de ogivas nucleares.
  245. CA: Eu costumava estar
    inteiramente de acordo com isso.

  246. Mas gostaria de contra-argumentar
    durante instantes.
  247. Primeiro que tudo,
  248. se olharmos para a história
    das últimas décadas,
  249. tem havido sempre uma evolução
    a toda a velocidade.
  250. Tudo bem, a escolha tem sido nossa.
  251. Mas, se olharmos para a globalização
    e para a sua rápida aceleração,
  252. se olharmos para a estratégia
    de "avançar rápido e partir a loiça"
  253. e o que aconteceu com isso,
  254. e depois olhamos para o potencial
    da biologia sintética,
  255. não sei se devemos avançar
    rapidamente
  256. ou sem qualquer tipo de restrições
  257. para um mundo em que podemos ter
    uma impressora de ADN em todos os lares
  258. e nos laboratórios dos liceus.
  259. Há restrições, não há?
  260. NB: Possivelmente. Temos
    a primeira parte: não exequível.

  261. Se pensarmos que seria
    desejável parar,
  262. há o problema da exequibilidade.
  263. Na verdade, não ajuda muito
    se um país...
  264. CA: Não, não ajuda muito
    se for um só país,

  265. mas já tivemos tratados.
  266. Foi assim que sobrevivemos
    à ameaça nuclear,
  267. foi passando pelo processo
    doloroso de negociação.
  268. Ponho-me a pensar se a lógica não será
  269. que nós, em termos de prioridade global,
  270. não devíamos tentar começar
    a negociar regras estritas
  271. sobre onde se pode fazer
    investigação sobre biologia sintética.
  272. Não é uma coisa
    que queiramos democratizar, pois não?
  273. NB: Estou inteiramente de acordo com isso.

  274. Seria desejável, por exemplo,
  275. ter máquinas de síntese de ADN,
  276. não enquanto um aparelho
    existente em todos os laboratórios,
  277. mas como um serviço.
  278. Talvez pudesse haver
    quatro ou cinco locais no mundo
  279. para onde enviar o nosso modelo digital
    e receber o ADN de volta.
  280. Depois, teríamos essa capacidade
  281. se um dia isso fosse mesmo necessário
  282. teríamos um conjunto finito
    de pontos de obstrução.
  283. Penso que queres olhar
    para especiais oportunidades,
  284. em que podemos ter
    um controlo mais apertado.
  285. CA: Fundamentalmente, acreditas

  286. que não vamos conseguir atrasar as coisas.
  287. Alguém, algures
    — Coreia do Norte —
  288. alguém vai lá chegar
    e descobrir esse conhecimento
  289. se é que ele existe.
  290. NB: Isso parece plausível
    nas atuais condições.

  291. Também não é só biologia sintética.
  292. Qualquer tipo de mudança
    profunda e nova, no mundo
  293. pode vir a ser uma bola preta.
  294. CA: Vejamos outra resposta possível.

  295. NB: Penso que isto também
    tem um potencial limitado.

  296. Com a vulnerabilidade
    de Tipo-1, mais uma vez,
  297. se pudermos reduzir o número
    de pessoas que estão motivadas
  298. a destruir o mundo,
  299. se pelo menos fossem só elas
    a ter o acesso e os meios
  300. isso seria bom.
  301. CA: Nesta imagem que nos pediste
    para fazermos,

  302. imaginaste estes "drones"
    a voar à volta do mundo
  303. com reconhecimento facial.
  304. Quando detetam alguém que mostra
    um comportamento sociopata
  305. dão-lhe um banho de amor
    e recuperam-no.
  306. NB: É uma imagem híbrida.

  307. Eliminar pode significar
    encarcerar ou matar
  308. ou pode significar convencê-los
    a uma melhor visão do mundo.
  309. Mas a questão é esta:
  310. Imagina que temos um grande êxito,
  311. e reduzíamos para metade
    o número desses indivíduos.
  312. Se queremos fazê-lo por persuasão,
  313. estamos a competir contra
    as outras forças poderosas
  314. que tentam persuadir as pessoas,
  315. os partidos, a religião,
    o sistema de ensino.
  316. Mas suponhamos
    que os reduzimos a metade,
  317. penso que o risco não seria
    reduzido a metade.
  318. Talvez apenas a 5% ou 10%.
  319. CA: Não estás a recomendar
    que falemos do futuro da humanidade

  320. com a resposta dois.
  321. NB: Penso que é bom tentar
    dissuadir e persuadir as pessoas

  322. mas não podemos confiar
    nisso como única salvaguarda.
  323. CA: E quanto à terceira resposta?

  324. NB: Penso que há dois
    métodos gerais

  325. que podemos usar para conseguir
    a capacidade de estabilizar o mundo
  326. contra todo o espetro
    de possíveis vulnerabilidades.
  327. Provavelmente, vamos precisar
    das duas coisas.
  328. Uma é uma capacidade
    extremamente eficaz
  329. de policiamento preventivo.
  330. para poder intercetar
  331. alguém que comece a fazer
    coisas perigosas.
  332. Poder intercetá-la
    em tempo real, e detê-la.
  333. Isso exigirá uma vigilância
    omnipresente,
  334. toda a gente terá de ser
    monitorizada a toda a hora.
  335. CA: É essencialmente
    uma forma de "Minority Report".

  336. NB: Talvez tenhamos algoritmos de IA,

  337. grandes centro de liberdade
    que examinariam isso, etc., etc.
  338. CA: A vigilância de massas
    não é muito popular neste momento...

  339. (Risos)

  340. NB: Eu sei. Aquele pequeno aparelho.

  341. imagina que tens de usar sempre
    aquele tipo de coleira
  342. com câmaras multidirecionais.
  343. Mas, para ser mais bem aceite,
  344. chama-lhe "farol da liberdade"
    ou qualquer coisa dessas.
  345. (Risos)

  346. CA: Ok.

  347. Isto, meus amigos, é só uma conversa
  348. é por isso que é uma conversa
    tão estonteante.
  349. NB: Na verdade, há toda uma conversa
    sobre este tema em especial.

  350. Há grandes problemas e riscos
    com isto, não é?
  351. Podemos voltar a falar nisso.
  352. A última resposta,
  353. a outra capacidade de estabilização geral
    colmata um vazio da governação.
  354. A vigilância preencherá um vazio
    da governação a um nível micro:
  355. impedir quem quer que seja
    de fazer uma coisa altamente ilegal.
  356. Há um vazio de governação
    equivalente,
  357. a nível macro, a nível mundial.
  358. Precisaremos de capacidade eficaz,
  359. para impedir os piores tipos
    de falhas de coordenação mundial,
  360. para evitar guerras
    entre as grandes potências,
  361. corridas ao armamento,
  362. problemas comuns cataclísmicos,
  363. a fim de lidar com
    as vulnerabilidades Tipo-2a.
  364. CA: Governação global é um termo

  365. que está definitivamente
    fora de moda neste momento
  366. mas podes adiantar
    que, ao longo da História,
  367. a História da Humanidade,
  368. em cada fase do aumento
    do poder tecnológico
  369. as pessoas têm reorganizado
    e de certa forma centralizado o poder.
  370. Por exemplo, quando um bando
    itinerante de criminosos
  371. podia dominar uma sociedade,
  372. a reposta foi criar um estado-nação
  373. e uma força centralizada,
    força policial ou militar,
  374. para isso não ser possível
  375. A lógica, talvez, de ter
    uma única pessoa ou um único grupo
  376. capaz de dominar a humanidade
  377. significa que, a certa altura,
    temos de ir por este caminho,
  378. de alguma forma, não é?
  379. NB: É verdade que a escala
    da organização política aumentou

  380. ao longo da história humana.
  381. Primeiro era um bando
    de caçadores-recoletores.
  382. depois uma chefatura,
    cidades-estados, nações.
  383. Agora são organizações internacionais
    etc., etc.
  384. Mais uma vez, só quero assegurar,
    ter a hipótese de sublinhar
  385. que, obviamente,
    há tremendos inconvenientes
  386. e enormes riscos
  387. tanto na vigilância de massas
    como na governação global.
  388. Só estou a sublinhar
    que, se tivermos sorte,
  389. o mundo pode ser tal
    que estas serão as únicas formas
  390. de sobrevivermos a uma bola preta.
  391. CA: A lógica desta teoria

  392. segundo me parece,
  393. é que temos de reconhecer
    que não podemos ter tudo.
  394. De certo modo, eu diria
  395. que o sonho ingénuo
    que muitos de nós temos
  396. é que a tecnologia vai ser sempre
    uma força para o bem,
  397. que não devemos parar, mas avançar
    o mais depressa possível

  398. e não prestar atenção
    a algumas das consequências.
  399. Não temos opção.
  400. Podemos ter isso.
  401. Se tivermos isso,
  402. vamos ter de aceitar
  403. algumas das outras coisas
    muito incómodas que vêm juntas
  404. entramos na corrida ao armamento
    com nós mesmos:
  405. se quisermos o poder
    devemos limitá-lo,
  406. é melhor perceber
    como limitá-lo.
  407. NB: Penso que é uma opção,
    uma opção muito tentadora,

  408. de certo modo, a opção mais fácil
  409. e pode funcionar,
  410. mas significa que estamos
    extremamente vulneráveis
  411. a extrair a bola preta.
  412. Eu penso que, com um pouco
    de coordenação
  413. — resolvendo este problema
    de macrogovernação,
  414. e o problema da microgovernação —
  415. podemos extrair todas as bolas da urna
  416. e beneficiar imenso.
  417. CA: Mas, se estamos a viver
    numa simulação, isso é importante?

  418. Basta reiniciarmos.
  419. (Risos)

  420. NB: Bom... eu...

  421. (Risos)

  422. eu não vi isso a chegar.
  423. CA: Então, qual é a tua visão?

  424. Juntando todas as peças,
  425. qual é a probabilidade
    de estarmos condenados?
  426. (Risos)

  427. Adoro como as pessoas riem
    quando eu faço esta pergunta.

  428. NB: A nível individual,

  429. parece que estamos condenados,
    mais tarde ou mais cedo,
  430. estamos a apodrecer e a envelhecer
    e todos os tipos de coisas.
  431. (Risos)

  432. Na verdade, é um pouco complicado.

  433. Se nos quisermos preparar
    para agarrar uma probabilidade,
  434. a primeira coisa é:
    quem somos nós?
  435. Se formos muito velhos,
    morreremos de causas naturais,
  436. se formos muito novos
    podemos chegar aos 100 anos,
  437. consoante a quem perguntarem.
  438. Depois o limiar: o que conta
    como devastação civilizacional?
  439. No meu artigo eu não preciso
    de uma catástrofe existencial
  440. para que isso conte.
  441. É apenas uma questão de definição,
  442. digo mil milhões de mortos
  443. ou uma redução do PIB mundial
    em 50%,
  444. mas consoante o limiar
    que for definido,
  445. obtemos uma estimativa
    diferente da probabilidade.
  446. Acho que podem
    acusar-me de otimista assustado.
  447. (Risos)

  448. CA: És um otimista assustado

  449. e eu acho que acabaste de criar
    um grande número
  450. de outras pessoas assustadas.
  451. (Risos)

  452. NB: Na simulação.

  453. CA: Numa simulação.

  454. Nick Bostrom, o teu espírito maravilha-me.
  455. Muito obrigado por nos teres assustado.
  456. (Aplausos)