Portuguese, Brazilian feliratok

← Como a civilização poderia se autodestruir, e quatro possíveis soluções para prevenir isso

Beágyazókód kérése
23 Languages

Showing Revision 75 created 01/22/2020 by Maricene Crus.

  1. Chris Anderson: Nick Bostrom.
  2. Bem, você já nos apresentou
    muitas ideias loucas por aí.
  3. Acho que, há algumas décadas,
  4. você argumentou sobre a possibilidade
    de vivermos numa simulação,
  5. ou talvez a probabilidade disso.
  6. Mais recentemente,
  7. ilustrou os mais vívidos exemplos
    de como a inteligência artificial
  8. poderia tomar um caminho terrível.
  9. E agora, este ano,
  10. você está prestes a publicar
  11. um artigo que apresenta algo chamado
    de "A Hipótese do Mundo Vulnerável".
  12. Nosso trabalho esta noite é de fornecer
    o guia ilustrado para ela.
  13. Então, vamos fazê-lo.
  14. O que é essa hipótese?
  15. Nick Bostrom: É a de tentar pensar

  16. sobre uma espécie de característica
    estrutural da atual condição humana.
  17. Você gosta da metáfora da urna,
  18. então eu a utilizarei na explicação.
  19. Imagine uma grande urna
    preenchida por bolas
  20. que representam ideias, métodos
    e possíveis tecnologias.
  21. Você pode pensar sobre
    a história da criatividade humana
  22. como o processo de enfiar a mão nessa urna
    e tirar uma bola após a outra,
  23. e o efeito em rede até agora
    tem sido muito benéfico, certo?
  24. Nós extraímos muitíssimas bolas brancas,
  25. e algumas com tons cinzas,
    bênçãos misturadas.
  26. Nós ainda não tiramos a bola
    completamente escura...
  27. uma tecnologia que invariavelmente
    destrói a civilização que a descobre.
  28. Então, o artigo tenta imaginar
    o que seria tal bola completamente escura.
  29. CA: Então, você define a bola

  30. como aquela que inevitavelmente
    provoca a destruição da civilização.
  31. NB: A não ser que abandonemos o que chamo
    de condição semi-anárquica padrão.

  32. Mas assim, através de um padrão.
  33. CA: Você argumenta convincentemente,
    mostrando alguns tipos de contra-exemplos

  34. nos quais acredita que, até hoje,
    na verdade tivemos sorte,
  35. pois possivelmente já
    tiramos essa bola devastadora
  36. sem termos nos dado conta disso.
  37. Há uma citação; o que ela significa?
  38. [O progresso da mecânica trará a Bomba-H]
  39. NB: Acho que ela quer ilustrar

  40. a dificuldade em prever
  41. até onde as descobertas
    básicas podem nos levar.
  42. Nós simplesmente não temos
    esse tipo de capacidade.
  43. Porque nos tornamos muito bons
    em tirar bolas da urna,
  44. mas não temos de fato a capacidade
    de colocá-las de volta.
  45. Podemos inventar algo,
    mas não "desinventar".
  46. Sendo assim, nossa estratégia
  47. é esperar que não haja
    nenhuma bola escura na urna.
  48. CA: Então, uma vez que está fora,
    está fora, e não se pode colocar de volta,

  49. e você acha que temos tido sorte.
  50. Fale sobre alguns desses exemplos.
  51. Você menciona diferentes
    tipos de vulnerabilidade.
  52. NB: O tipo mais fácil de entender

  53. é uma tecnologia que facilita muito
  54. causar enormes quantidades de destruição.
  55. A biologia sintética pode ser uma fonte
    fértil desse tipo de bola escura,
  56. mas há muitas outras coisas
    possíveis que poderíamos...
  57. pense na geoengenharia, que é ótima.
  58. Poderíamos usá-la no combate
    ao aquecimento global,
  59. mas também não é ideal
    facilitar esse acesso,
  60. pois não queremos que alguém e sua avó
  61. tenham a habilidade de alterar
    radicalmente o clima da Terra.
  62. Ou talvez os drones autônomos letais,
  63. produzidos em massa; enxames de robôs
    assassinos do tamanho de mosquitos.
  64. A nanotecnologia,
    a inteligência artificial geral.
  65. CA: Você argumenta no artigo que foi
    questão de sorte quando descobrimos

  66. que o poder nuclear podia criar bombas,
  67. porque poderia ter sido o caso
  68. de podermos fazer bombas
  69. com recursos muito mais fáceis,
    acessíveis a qualquer um.
  70. NB: Sim, então, pense na década de 1930,

  71. na qual, pela primeira vez, nós fizemos
    grandes descobertas na física nuclear,
  72. e um gênio descobre que é possível
    criar uma reação nuclear em cadeia,
  73. e percebe que isso pode gerar uma bomba.
  74. E então, trabalhamos um pouco mais,
  75. e descobrimos que para fazer
    uma bomba nuclear é necessário
  76. ter elementos como urânio
    ou plutônio altamente enriquecidos,
  77. que são bem difíceis de se obter.
  78. É preciso o uso de ultracentrifugadoras,
  79. de reatores e de quantidades
    imensas de energia.
  80. Mas suponha que, em vez disso,
  81. houvesse uma maneira mais fácil
    de desbloquear a energia daquele átomo.
  82. Que, talvez, ao cozinhar areia
    no micro-ondas, ou algo do tipo,
  83. seri possível ter criado
    uma detonação nuclear.
  84. Hoje, sabemos que isso
    é fisicamente impossível;
  85. mas, antes de fazer o cálculo de física,
    como poderíamos saber que seria assim?
  86. CA: Mas você não poderia argumentar

  87. que para a vida se desenvolver na Terra
  88. isso implicou um tipo de ambiente estável,
    e que se fosse possível
  89. criar de forma relativamente fácil
    reações nucleares maciças,
  90. a Terra nunca teria sido estável,
    e nós nem estaríamos aqui?
  91. NB: Sim, a não ser que isso envolvesse
    algo que é fácil fazer de propósito,

  92. mas que não poderia
    acontecer aleatoriamente.
  93. Como coisas que fazemos com facilidade,
    por exemplo: empilhar dez blocos;
  94. e, no entanto, na natureza
    não encontramos uma pilha assim.
  95. CA: Certo, a próxima é provavelmente

  96. aquela com a maioria
    de nós mais se preocupa;
  97. e sim, a biologia sintética talvez seja
    a rota mais rápida que podemos ver
  98. em nosso futuro próximo
    para nos levar a esse ponto.
  99. NB: Sim, então pense sobre
    o que isso teria significado

  100. se, digamos, qualquer pessoa trabalhando
    em sua cozinha por uma tarde
  101. pudesse destruir uma cidade.
  102. É difícil ver como a civilização moderna
    da maneira como a conhecemos
  103. poderia ter sobrevivido a isso.
  104. Porque, em qualquer população
    de milhões de pessoas
  105. sempre haverá alguém que,
    por qualquer motivo,
  106. escolheria usar esse poder destrutivo.
  107. Então, se esse resíduo apocalíptico
  108. escolhesse destruir uma cidade ou pior,
    então as cidades seriam destruídas.
  109. CA: Então, aqui temos
    outro tipo de vulnerabilidade.

  110. Fale sobre isso.
  111. NB: Além dessas espécies de bola escura,
    que são um pouco óbvias,

  112. que permitiriam explodir várias coisas,
  113. outros tipos agiriam no sentido
    de criar estímulos ruins
  114. para que humanos
    tomassem atitudes prejudiciais.
  115. Então, o Tipo 2A, podemos chamá-la assim,
  116. é para pensar sobre alguma tecnologia
    que estimula que grandes poderes
  117. usem suas quantidades maciças
    de força para causar destruição.
  118. As armas nucleares na verdade
    estavam bem próximas disso, certo?
  119. Nós gastamos mais de US$ 10 trilhões
    para construir 70 mil ogivas nucleares
  120. e colocá-las em alerta de gatilho.
  121. E houve várias ocasiões na Guerra Fria
    em que quase explodimos um ao outro.
  122. Não que muitos achassem
    que essa era uma ótima ideia,
  123. gastar US$ 10 trilhões
    para explodir uns aos outros,
  124. mas os estímulos eram tais
    que não tínhamos saída...
  125. e poderia ter sido pior.
  126. Imagine se tivesse havido
    um primeiro ataque seguro.
  127. Então, teria sido muito complicado,
    numa situação de crise,
  128. evitar o lançamento de todos
    os mísseis nucleares deles.
  129. Se não por outra razão, pelo medo
    do outro lado também fazê-lo.
  130. CA: A certeza da destruição mútua

  131. manteve a Guerra Fria
    relativamente estável,
  132. e sem isso, possivelmente
    não estaríamos aqui.
  133. NB: Poderia ter sido mais instável,
    e provocado outras questões tecnológicas.

  134. Poderia ter sido mais difícil
    ter tratados militares
  135. se ao invés de armas nucleares
  136. tivesse sido algo menor ou menos distinto.
  137. CA: Assim como estímulos ruins
    para agentes poderosos,

  138. você também se preocupa com estímulos
    ruins para todos nós no Tipo 2B, aqui.
  139. NB: Então, aqui, nós podemos
    exemplificar com o aquecimento global.

  140. Há várias pequenas conveniências
  141. que induzem cada um de nós a fazer coisas
  142. que individualmente não têm
    nenhum efeito significativo, certo?
  143. Mas, se bilhões de pessoas as fazem
    cumulativamente, o efeito é prejudicial.
  144. O aquecimento global poderia
    ter sido bem pior do que é.
  145. Nós temos o parâmetro
    de sensibilidade climática.
  146. É um parâmetro que nos diz
    o quão mais quente o mundo fica
  147. ao emitirmos certa quantidade
    de gases de efeito estufa.
  148. Mas, suponha que fosse o caso
  149. de que com o volume de gases
    de efeito estufa que emitimos,
  150. em vez da temperatura subir,
  151. digamos, entre 3 °C e 4,5 °C até 2100,
  152. ela subisse 15 °C ou 20 °C.
  153. Ficaríamos numa situação muito ruim.
  154. Ou suponha que a energia renovável
    fosse bem mais difícil de produzir,
  155. ou que tivesse mais combustíveis
    fósseis sob o solo.
  156. CA: Você não poderia argumentar
    que caso o que estamos fazendo hoje

  157. tivesse resultado na diferença de 10 °C
    num período de tempo que podíamos prever,
  158. na verdade a humanidade teria
    se esforçado e feito algo sobre isso.
  159. Somos estúpidos, mas não tanto assim.
  160. Ou talvez sejamos.
    NB: Eu não apostaria nisso.
  161. (Risos)

  162. Você pode imaginar outras condições.

  163. Então...
  164. nesse momento, é um pouco difícil
    mudar para renováveis e coisas do tipo,
  165. mas isso pode ser feito.
  166. Mas é possível que com um tipo
    de física levemente diferente,
  167. teria sido muito mais caro
    fazer coisas desse gênero.
  168. CA: E qual é sua visão, Nick?

  169. Acha que ao juntar tais possibilidades,
  170. que essa humanidade que somos,
    nós contamos como um mundo vulnerável?
  171. Há uma bola da morte em nosso futuro?
  172. NB: É difícil dizer.

  173. Acho que é possível haver
    várias bolas escuras na urna,
  174. isso é o que parece.
  175. Também parece haver algumas bolas douradas
  176. que ajudariam a nos proteger
    dessas bolas escuras.
  177. E eu não sei em qual ordem elas sairão.
  178. CA: Bem, uma possível
    crítica filosófica a essa ideia

  179. é que ela implica na visão de que o futuro
    está essencialmente determinado.
  180. Ou seja: ou essa bola está lá, ou não.
  181. E, de certa forma, essa não é uma visão
    de futuro na qual eu quero acreditar.
  182. Quero acreditar
    que o futuro é indeterminado,
  183. que são as decisões
    de hoje que determinarão
  184. os tipos de bolas que pegaremos da urna.
  185. NB: Bem, se nós apenas
    continuarmos inventando,

  186. eventualmente pegaremos todas as bolas.
  187. Acho que há uma certa forma fraca
    de determinismo tecnológico bem plausível,
  188. do tipo: é improvável
    que encontremos uma sociedade
  189. que use tanto eixos de pederneira
    quanto aviões a jato.
  190. Mas podemos quase pensar sobre
    tecnologia como um conjunto de recursos.
  191. Então, a tecnologia é algo
    que permite fazer várias coisas
  192. e alcançar inúmeros efeitos no mundo.
  193. Agora, a maneira de utilizá-la
    é algo que depende da escolha humana.
  194. Mas, pensando sobre esses três
    tipos de vulnerabilidade,
  195. eles fazem suposições bem fracas
    sobre como escolheríamos utilizá-las.
  196. A vulnerabilidade Tipo 1, de novo,
    esse imenso poder destrutivo,
  197. é uma hipótese bastante fraca
  198. de pensar que numa população
    de milhões de pessoas
  199. somente algumas escolheriam
    usá-la de maneira destrutiva.
  200. CA: Para mim, o argumento
    mais perturbador de todos

  201. é o de que, na verdade, temos uma certa
    visão do lado de dentro da urna
  202. que nos faz perceber que é bem provável
    que estejamos condenados.
  203. Isto é, se acreditamos
    no poder de aceleramento,
  204. de que a tecnologia
    inerentemente se acelera,
  205. de que construímos ferramentas
    que nos dão mais poder,
  206. então, em algum momento,
    chegaremos num estágio
  207. no qual um indivíduo qualquer
    poderá matar todo mundo,
  208. e, por isso, parece que estamos ferrados.
  209. Esse argumento não é bem alarmante?
  210. NB: Bem, sim.

  211. (Risos)

  212. Eu acho...

  213. É, nós obtemos cada vez mais poder,
  214. e fica cada vez mais fácil
    utilizar esses poderes,
  215. mas também podemos inventar tecnologias
    que nos ajudem a ter certo controle
  216. de como as pessoas os utilizam.
  217. CA: Então, falemos sobre a resposta.

  218. Suponha que pensar sobre todas
    as possibilidades que já existem...
  219. não é só a biologia sintética,
    mas a guerra cibernética,
  220. inteligência artificial, etc...
  221. que podem ser uma séria
    ruína em nosso futuro.
  222. Quais são as possíveis respostas?
  223. Você também falou sobre
    quatro possíveis respostas.
  224. NB: Restringir o desenvolvimento
    tecnológico não parece promissor,

  225. se estamos falando de uma parada geral
    do progresso tecnológico.
  226. Também não acho factível ou desejável,
    ainda que pudéssemos fazer isso.
  227. Acho que pode haver várias áreas limitadas
  228. nas quais talvez seria bom
    abrandar o progresso tecnológico.
  229. Não queremos um progresso
    mais rápido das armas biológicas,
  230. ou em, digamos, separação isotópica,
  231. que facilitaria a criação
    de armas nucleares.
  232. CA: Eu costumava ser
    totalmente a favor dessa rapidez.

  233. Mas na verdade, eu gostaria
    de discordar dela por um momento.
  234. Apenas porque, primeiro,
  235. se observarmos a história
    das últimas décadas,
  236. os avanços foram acelerados
    na velocidade máxima,
  237. e essa é nossa única escolha.
  238. Mas se considerarmos a globalização
    e sua rápida aceleração,
  239. e observarmos a estratégia
    de "mover depressa e quebrar tudo"
  240. e o que aconteceu com isso,
  241. e então observamos o potencial
    da biologia sintética,
  242. eu não sei se deveríamos
    nos mover rapidamente
  243. ou sem qualquer tipo de restrição
  244. para um mundo onde se pode ter
    uma impressora de DNA em toda casa
  245. e laboratórios de escola de ensino médio.
  246. Há algumas restrições, não é?
  247. NB: Talvez a primeira parte,
    sobre isso não ser factível.

  248. Se pensarmos que seria
    desejável parar isso,
  249. há o problema da viabilidade.
  250. Então realmente não ajuda
    quando uma nação meio que...
  251. CA: Não ajuda se uma nação o faz,

  252. mas nós tivemos tratados antes.
  253. Foi realmente assim
    que sobrevivemos à ameaça nuclear,
  254. nos expondo e enfrentando
    o doloroso processo de negociação.
  255. Só me pergunto se a lógica não é que nós,
    como um assunto de prioridade global,
  256. não deveríamos tentar, por exemplo,
    começar a negociar agora
  257. regras bem estritas sobre até onde
    a biopesquisa com sintéticos pode ir,
  258. porque isso não é algo
    que se queira democratizar, certo?
  259. NB: Eu concordo plenamente com isso...

  260. que seria desejável, por exemplo,
  261. talvez ter máquinas de síntese de DNA,
  262. não como produto no qual todo laboratório
    teria seu próprio dispositivo,
  263. mas talvez como um serviço.
  264. Talvez poderia haver quatro
    ou cinco lugares no mundo
  265. para onde se mandasse um planta digital
    e o DNA fosse enviado de volta.
  266. E então, teríamos a habilidade,
  267. se um dia realmente parecesse necessário,
  268. de ter um conjunto determinado
    de pontos de bloqueio.
  269. Então, acho que devemos olhar
    para aquelas oportunidades especiais,
  270. nas quais podemos
    ter um controle mais rígido.
  271. CA: Sua crença é, fundamentalmente,

  272. de que não seremos bem-sucedidos
    ao ficarmos só na retaguarda.
  273. Em algum lugar, alguém,
    na Coreia do Norte, quem sabe?
  274. Alguém no mundo vai descobrir
    esse conhecimento, se ele existir.
  275. NB: Isso parece plausível
    sob as condições atuais.

  276. E não se trata só da biologia sintética;
  277. qualquer tipo de mudança
    nova e profunda no mundo
  278. poderia vir a ser uma bola escura.
  279. CA: Vamos olhar outra possível resposta.

  280. NB: Considero que isso
    também tenha potencial limitado.

  281. Então, com a vulnerabilidade
    de Tipo 1, de novo,
  282. se pudermos reduzir o número
    de pessoas que são incentivadas
  283. a destruir o mundo,
  284. as que têm acesso e meios
    para destruí-lo, isso seria bom.
  285. CA: Nesta imagem você imagina
    esses drones viajando pelo mundo

  286. com reconhecimento facial.
  287. Quando reconhece alguém que demonstra
    sinais de comportamento sociopata,
  288. o drone o "banha com amor" e o "conserta".
  289. NB: Acho que é tipo uma figura híbrida.

  290. Eliminar pode significar
    encarcerar ou matar,
  291. ou persuadir alguém a ter
    uma visão melhor do mundo.
  292. Mas o ponto é,
  293. suponha que você fosse muito
    bem-sucedido nisso,
  294. e reduzisse o número de tais
    indivíduos pela metade.
  295. E se quiser fazer isso pela persuasão,
  296. está competindo contra
    todas as outras forças de poder
  297. que tentam persuadir as pessoas:
    política, religião, sistemas de educação.
  298. Mas, supondo que os reduza pela metade,
  299. não acho que o risco seria
    reduzido pela metade.
  300. Talvez por 5% ou 10%.
  301. CA: Não está recomendado que apostemos
    o futuro da humanidade na resposta dois.

  302. NB: Acho muito bom tentar
    dissuadir e persuadir as pessoas,

  303. mas não deveríamos depender disso
    como nossa única salvaguarda.
  304. CA: E quanto à três?

  305. NB: Acho que há dois métodos gerais

  306. que podemos usar para alcançar
    a habilidade de estabilizar o mundo
  307. contra o espectro total
    das possíveis vulnerabilidades.
  308. E provavelmente precisaríamos de ambos.
  309. Então, um é uma habilidade
    extremamente eficaz
  310. de fazer policiamento preventivo,
    com a possibilidade de interceptação.
  311. Se alguém começar a fazer algo perigoso,
  312. podemos interceptá-lo
    em tempo real, e pará-lo.
  313. Assim, isso iria requerer
    vigilância onipresente:
  314. todo mundo sendo monitorado o tempo todo.
  315. CA: É basicamente o filme
    "Minority Report - A Nova Lei".

  316. NB: Você talvez tivesse algoritmos de IA,

  317. grandes centros de liberdade
    que ficariam revendo isso, etc.
  318. CA: Sabe que a vigilância das massas
    não é muito popular hoje?

  319. (Risos)

  320. NB: Bem, sobre o dispositivo da figura,

  321. imagine um tipo de colar
    que teríamos que usar o tempo todo
  322. com câmeras multidirecionais.
  323. Mas, para ficar mais palatável,
  324. vamos chamá-lo de algo do tipo
    "etiqueta da liberdade".
  325. (Risos)

  326. CA: Tudo bem.

  327. Essa é a conversa, amigos,
    e por isso é tão intrigante.
  328. NB: Na verdade, há outra
    conversa enorme sobre isso

  329. paralelamente à nossa, claro.
  330. Há problemas enormes
    e riscos sobre isso, né?
  331. Nós podemos voltar a isso.
  332. Então a a outra capacidade
    final de estabilização geral
  333. está obstruindo uma outra
    lacuna de governança.
  334. A vigilância seria um tipo de lacuna
    de governança a um micronível,
  335. a ponto de impedir todo mundo
    de fazer qualquer coisa altamente ilegal.
  336. Então, há a lacuna de governança
    correspondente a nível global.
  337. Precisaríamos da habilidade
    e da confiabilidade
  338. para prevenir os piores tipos de falhas
    de coordenação global,
  339. e evitar guerras entre grandes poderes,
  340. corridas armamentistas,
  341. problemas comuns de cataclismo...
  342. para poder lidar com
    as vulnerabilidades do Tipo 2A.
  343. CA: Governança global é um termo
    bem fora de moda agora,

  344. mas você poderia dizer que,
    ao longo da história da humanidade,
  345. a cada estágio de crescimento
    de poder tecnológico,
  346. as pessoas reorganizaram
    e, de certa forma, centralizaram o poder?
  347. Assim, por exemplo, quando
    um bando itinerante de criminosos
  348. tentasse dominar uma sociedade,
  349. a resposta de uma nação-estado seria
  350. centralizar a força policial ou militar
    e dizer: "Vocês não podem fazer isso".
  351. Talvez a lógica de que uma única pessoa
    ou um único grupo fosse capaz
  352. de assumir o controle da humanidade
    significa que em algum ponto
  353. teremos que considerar isso, não?
  354. NB: É verdade que a escala
    de organização política aumentou

  355. através do curso da história humana.
  356. Costumava ser um grupo
    de caçadores-coletores,
  357. então uma chefia,
    depois cidades-estados, e nações,
  358. agora há organizações
    internacionais, e por aí vai.
  359. De novo, quero ter a chance de enfatizar
    que obviamente há grandes desvantagens
  360. e, certamente, riscos concretos,
  361. tanto para a vigilância de massa
    quanto para a governança global.
  362. Só estou apontando que, se tivermos sorte,
  363. o mundo poderia ser tal
    que essas seriam as únicas formas
  364. de sobreviver a uma bola escura.
  365. CA: A lógica dessa teoria,

  366. me parece,
  367. é a de que temos que reconhecer
    que não podemos ter tudo.
  368. Que, assim,
  369. esse "sonho ingênuo"
    que muitos de nós tínhamos
  370. de que a tecnologia sempre seria
    uma força para o bem,
  371. sempre indo, sem parar,
    o mais rápido que pudesse,
  372. sem prestar atenção
    para certas consequências,
  373. isso de fato não é uma opção.
  374. Nós podemos ter isso,
  375. mas aí teremos que aceitar outras
    coisas desconfortáveis inerentes a isso
  376. e entrar numa corrida armamentista
    contra nós mesmos,
  377. na qual, se quisermos o poder,
    precisaremos descobrir como limitá-lo.
  378. NB: Acredito que essa seja uma opção,

  379. e bem tentadora, no sentido de que é
    a mais fácil e que pode dar certo,
  380. mas significa, basicamente, que ficamos
    vulneráveis a extrair uma bola escura.
  381. Acho que com certa coordenação,
  382. se resolvêssemos esse problema
    de micro e macrogovernança,
  383. então poderíamos extrair
    todas as bolas da urna
  384. e nos beneficiaríamos grandemente.
  385. CA: Bem, se estamos vivendo
    em uma simulação, isso importa?

  386. Nós apenas reiniciaríamos.
  387. (Risos)

  388. Eu não esperava por isso.

  389. CA: E qual a sua visão?

  390. Encaixando todos os pedaços,
    é provável que estejamos condenados?
  391. (Risos)

  392. Adoro quando as pessoas riem
    quando você pergunta isso.

  393. NB: Em um nível individual,

  394. parecemos condenados de qualquer jeito
    pela questão da linha do tempo,
  395. já que estamos apodrecendo,
    envelhecendo, e tudo isso, não é?
  396. (Risos)

  397. De fato, é um pouco complexo.

  398. Para prever uma probabilidade,
    primeiro: de quem estamos falando?
  399. Um idoso, provavelmente
    morrerá de causas naturais,
  400. alguém bem jovem ainda terá uns 100 anos;
    a probabilidade dependerá do receptor.
  401. E então, o limite, o que contaria
    como a devastação da civilização?
  402. No artigo eu não preciso
    de uma catástrofe existencial
  403. para que se conte como tal.
  404. É só uma questão de definição,
    digamos, um bilhão de mortos,
  405. ou uma redução do PIB mundial de 50%;
  406. mas dependendo do que coloca como limite,
    a estimativa da probabilidade é diferente.
  407. Mas acho que você poderia me menosprezar
    dizendo que sou um otimista assustado.
  408. (Risos)

  409. CA: Você é um otimista assustado,

  410. e acho que acabou de criar
    um grande número de outras...
  411. pessoas assustadas.
  412. (Risos)

  413. NB: Dentro da simulação.
    CA: Dentro de uma simulação!

  414. Nick Bostrom, sua mente me fascina,

  415. muito obrigado por assustar
    todos nós imensamente.
  416. (Aplausos)