WEBVTT 00:00:01.000 --> 00:00:03.079 Chris Anderson: Nick Bostrom. 00:00:03.153 --> 00:00:06.809 Já nos deste muitas ideias incríveis. 00:00:06.853 --> 00:00:08.579 Penso que aqui há décadas 00:00:08.583 --> 00:00:11.668 defendeste a ideia de que podemos estar a viver numa simulação, 00:00:11.682 --> 00:00:13.591 ou provavelmente, estávamos. 00:00:13.635 --> 00:00:15.402 Mais recentemente, 00:00:15.448 --> 00:00:17.918 descreveste os exemplos mais impressionantes 00:00:17.945 --> 00:00:21.738 de como a inteligência artificial poderá vir a gerar resultados terríveis. 00:00:21.750 --> 00:00:25.273 E este ano, estás prestes a publicar 00:00:25.577 --> 00:00:29.521 um artigo que apresenta uma coisa chamada a hipótese do mundo vulnerável. 00:00:29.579 --> 00:00:33.937 O nosso papel esta noite é apresentar um guia ilustrado sobre esse tema. 00:00:34.597 --> 00:00:36.329 Vamos a isso. 00:00:36.943 --> 00:00:38.625 Que hipótese é essa? 00:00:40.120 --> 00:00:42.684 Nick Bostrom: É uma tentativa de reflexão 00:00:42.705 --> 00:00:46.420 sobre uma característica estrutural da atual condição humana. 00:00:48.390 --> 00:00:50.216 Tu gostas da metáfora da urna, 00:00:50.216 --> 00:00:52.268 por isso vou usá-la para explicar melhor. 00:00:52.404 --> 00:00:55.353 Imagina uma grande urna cheia de bolas, 00:00:56.053 --> 00:00:59.980 que representam ideias, métodos, possíveis tecnologias. 00:01:01.179 --> 00:01:04.989 Podes pensar na história da criatividade humana 00:01:05.007 --> 00:01:09.110 como o processo de chegar a esta urna e ir tirando uma bola atrás de outra. 00:01:09.337 --> 00:01:12.223 Até aqui, o efeito tem sido muito benéfico, não é? 00:01:12.247 --> 00:01:15.122 Já extraímos uma grande quantidade de bolas brancas, 00:01:15.182 --> 00:01:18.440 algumas de vários tons de cinzento, com prós e contras. 00:01:18.482 --> 00:01:21.154 Até agora não tirámos a bola preta 00:01:22.132 --> 00:01:27.979 — uma tecnologia que destrua fatalmente a civilização que a encontrar. NOTE Paragraph 00:01:28.600 --> 00:01:31.429 O artigo procura refletir no que será essa bola preta. 00:01:31.497 --> 00:01:33.471 CA: Então, defines essa bola NOTE Paragraph 00:01:33.495 --> 00:01:37.490 como aquela que, inevitavelmente, provocará a destruição da civilização. 00:01:37.078 --> 00:01:39.670 NB: A não ser que abandonemos aquilo a que chamo NOTE Paragraph 00:01:39.710 --> 00:01:42.193 a situação semianárquica, por defeito 00:01:42.263 --> 00:01:44.665 mas, de qualquer modo, por defeito. 00:01:45.965 --> 00:01:50.750 CA: Argumentas de forma convincente apresentando contraexemplos 00:01:50.097 --> 00:01:53.011 de que, segundo crês, temos tido muita sorte, até agora, 00:01:53.045 --> 00:01:55.856 em que podíamos ter tirado essa bola mortífera 00:01:55.890 --> 00:01:57.719 sem sequer darmos por isso. 00:01:57.743 --> 00:01:59.183 O que é esta citação? 00:01:59.207 --> 00:02:02.319 ["O Progresso Contínuo na Mecânica Celestial produzirá a bomba H"] NOTE Paragraph 00:02:02.343 --> 00:02:04.154 NB: Penso que pretende ilustrar 00:02:04.158 --> 00:02:08.463 a dificuldade de prever aonde nos levarão as descobertas elementares. 00:02:08.587 --> 00:02:10.511 Não temos essa capacidade. 00:02:11.465 --> 00:02:14.761 Porque tornámo-nos muito bons a extrair as bolas, 00:02:14.775 --> 00:02:18.402 mas não temos a capacidade de voltar a pôr a bola na urna. 00:02:18.480 --> 00:02:21.289 Podemos inventar, mas não podemos des-inventar. 00:02:21.319 --> 00:02:23.967 A nossa estratégia atual 00:02:24.003 --> 00:02:26.971 é ter a esperança de que não haja nenhuma bola preta na urna. NOTE Paragraph 00:02:27.440 --> 00:02:30.987 CA: Depois de aparecer, está cá fora e não podemos voltar a pô-la lá dentro 00:02:31.027 --> 00:02:32.684 e tu pensas que temos tido sorte. 00:02:32.728 --> 00:02:34.854 Fala-nos de alguns desses exemplos. 00:02:34.868 --> 00:02:37.899 Falas de diferentes tipos de vulnerabilidade. NOTE Paragraph 00:02:38.700 --> 00:02:40.408 NB: O tipo mais fácil de perceber 00:02:40.452 --> 00:02:45.784 é uma tecnologia que torna muito fácil uma destruição maciça. 00:02:47.445 --> 00:02:51.053 A biologia sintética pode ser uma fonte fecunda duma bola preta, 00:02:51.087 --> 00:02:53.681 mas há muitas outras coisas possíveis 00:02:53.715 --> 00:02:56.233 — pensa na geo-engenharia, é genial, não é? 00:02:56.277 --> 00:02:58.573 Podemos combater o aquecimento global, 00:02:58.587 --> 00:03:00.640 mas não queremos que seja demasiado fácil, 00:03:00.660 --> 00:03:03.179 não queremos que uma pessoa qualquer e a sua avó 00:03:03.203 --> 00:03:06.387 possam alterar radicalmente o clima da Terra. 00:03:06.467 --> 00:03:10.686 Ou os "drones" autónomos mortíferos, enxames de robôs assassinos 00:03:10.686 --> 00:03:14.279 do tamanho de mosquitos e produzidos em massa. 00:03:14.600 --> 00:03:17.166 A nanotecnologia, a inteligência artificial geral. NOTE Paragraph 00:03:17.250 --> 00:03:18.979 CA: Defendes nesse artigo 00:03:18.993 --> 00:03:22.076 que foi só por sorte — quando descobrimos 00:03:22.137 --> 00:03:25.586 que a energia nuclear podia criar uma bomba — 00:03:25.655 --> 00:03:28.436 que não criámos uma bomba 00:03:28.470 --> 00:03:31.689 com recursos muito mais simples, acessíveis a toda a gente. NOTE Paragraph 00:03:31.993 --> 00:03:35.463 NB: Sim, pensa nos anos 30 00:03:35.527 --> 00:03:37.152 em que, pela primeira vez, 00:03:37.152 --> 00:03:40.072 fizemos descobertas revolucionárias na física nuclear. 00:03:40.112 --> 00:03:43.976 Houve um génio que descobriu ser possível criar uma reação nuclear em cadeia 00:03:44.000 --> 00:03:46.934 e depois percebeu-se que isso podia levar à bomba. 00:03:46.958 --> 00:03:49.035 E continuámos a trabalhar. 00:03:49.075 --> 00:03:51.631 Acontece que o necessário para fazer uma bomba nuclear 00:03:51.675 --> 00:03:54.018 é urânio enriquecido ou plutónio, 00:03:54.042 --> 00:03:56.129 que são materiais muito difíceis de obter. 00:03:56.173 --> 00:03:58.601 São precisos ultracentrifugadores, 00:03:58.645 --> 00:04:02.143 são precisos reatores, quantidades enormes de energia. 00:04:02.217 --> 00:04:04.106 Mas suponhamos que, em vez disso, 00:04:04.130 --> 00:04:07.685 tivesse havido uma forma fácil de libertar a energia do átomo. 00:04:08.000 --> 00:04:10.768 Talvez cozendo areia no micro-ondas 00:04:10.792 --> 00:04:12.059 ou qualquer coisa assim, 00:04:12.143 --> 00:04:14.184 pudéssemos ter criado uma explosão nuclear. 00:04:14.208 --> 00:04:16.291 Sabemos que isso é fisicamente impossível. 00:04:16.295 --> 00:04:18.368 Mas antes de estudarmos a física relevante 00:04:18.382 --> 00:04:20.483 como é que sabíamos o que iria acontecer? NOTE Paragraph 00:04:20.507 --> 00:04:24.239 CA: Podias alegar que, para a vida evoluir na Terra 00:04:24.312 --> 00:04:27.029 era indispensável um ambiente estável 00:04:27.253 --> 00:04:30.640 e que, se fosse possível criar grandes reações nucleares 00:04:30.640 --> 00:04:31.892 com relativa facilidade, 00:04:31.912 --> 00:04:35.110 a Terra nunca teria estado estável e nós não estaríamos aqui. NOTE Paragraph 00:04:35.160 --> 00:04:38.393 NB: Sim, a não ser que houvesse qualquer coisa fácil de fazer 00:04:38.417 --> 00:04:41.178 mas isso não aconteceria por acaso. 00:04:41.212 --> 00:04:42.951 Coisas fáceis de fazer, 00:04:42.966 --> 00:04:45.206 como empilhar 10 blocos uns por cima dos outros 00:04:45.221 --> 00:04:48.178 mas, na Natureza, não encontramos uma pilha de 10 blocos. NOTE Paragraph 00:04:48.253 --> 00:04:51.966 CA: Ok, isto provavelmente é aquilo que mais preocupa muitos de nós 00:04:52.027 --> 00:04:55.584 e, sim, a biologia sintética talvez seja o caminho mais rápido 00:04:55.588 --> 00:04:58.626 que, podemos prever, pode levar-nos lá num futuro próximo. NOTE Paragraph 00:04:58.680 --> 00:05:01.434 NB: Pois é, pensa no que significaria 00:05:01.458 --> 00:05:04.991 se alguém, a trabalhar na cozinha, durante uma tarde, 00:05:05.001 --> 00:05:06.708 pudesse destruir uma cidade. 00:05:06.732 --> 00:05:10.101 É difícil ver como a civilização moderna, tal como a conhecemos, 00:05:10.125 --> 00:05:11.749 teria sobrevivido a isso. 00:05:11.753 --> 00:05:14.411 Porque, em qualquer população de um milhão de pessoas, 00:05:14.411 --> 00:05:17.049 haverá sempre alguém, por qualquer razão que seja, 00:05:17.093 --> 00:05:19.507 que pode decidir usar esse poder destrutivo. 00:05:19.940 --> 00:05:22.893 Assim, se esse resíduo apocalíptico 00:05:22.917 --> 00:05:24.997 decidir destruir uma cidade ou, pior, 00:05:25.027 --> 00:05:26.706 as cidades serão destruídas. NOTE Paragraph 00:05:26.744 --> 00:05:29.081 CA: Esse é outro tipo de vulnerabilidade. 00:05:29.081 --> 00:05:30.678 Fala-nos disso. NOTE Paragraph 00:05:30.812 --> 00:05:34.578 NB: Para além destes tipos óbvios de bolas pretas 00:05:34.652 --> 00:05:37.412 isso tornaria possível fazer explodir muitas coisas. 00:05:37.436 --> 00:05:41.809 Outros tipos agiriam criando maus incentivos 00:05:41.833 --> 00:05:44.439 para os seres humanos fazerem coisas prejudiciais. 00:05:45.273 --> 00:05:48.184 O Tipo-2a, podemos chamar-lhe assim, 00:05:48.208 --> 00:05:52.906 é pensar nalguma tecnologia que incentive as grandes potências 00:05:52.950 --> 00:05:57.225 a usar a sua quantidade enorme de força para provocar a destruição. 00:05:57.350 --> 00:06:00.450 As armas nucleares estiveram muito perto disso, não foi? 00:06:02.083 --> 00:06:05.143 Gastámos mais de 10 biliões de dólares 00:06:05.167 --> 00:06:07.684 para fabricar 70 000 ogivas nucleares 00:06:07.708 --> 00:06:10.143 e colocá-las em alerta imediato. 00:06:10.387 --> 00:06:12.564 Houve várias ocasiões, durante a Guerra Fria, 00:06:12.578 --> 00:06:14.577 em que quase nos explodimos mutuamente. 00:06:14.607 --> 00:06:17.139 Não porque muita gente achasse que seria boa ideia 00:06:17.189 --> 00:06:20.020 gastar 10 biliões de dólares para nos fazermos explodir, 00:06:20.020 --> 00:06:22.314 mas porque os incentivos eram enormes 00:06:22.335 --> 00:06:23.765 — podia ter sido pior. 00:06:23.782 --> 00:06:26.136 Imagina se tivesse havido um primeiro ataque. 00:06:26.500 --> 00:06:29.869 Podia ter sido muito complicado, numa situação de crise, 00:06:29.885 --> 00:06:32.888 conseguirmos abstermo-nos de lançar todos os mísseis nucleares. 00:06:32.888 --> 00:06:36.269 Quanto mais não fosse, porque recearíamos que o outro lado o fizesse. NOTE Paragraph 00:06:36.269 --> 00:06:38.271 CA: Claro, uma destruição mútua garantida 00:06:38.295 --> 00:06:40.631 manteve a Guerra Fria relativamente estável. 00:06:40.675 --> 00:06:42.689 Sem isso, podíamos não estar aqui agora. NOTE Paragraph 00:06:42.723 --> 00:06:44.893 NB: Podia ter sido mais instável do que foi. 00:06:44.917 --> 00:06:47.158 Podia haver outras propriedades da tecnologia. 00:06:47.172 --> 00:06:49.818 Podia ter sido mais difícil ter tratados sobre armamento 00:06:49.818 --> 00:06:51.426 se, em vez de armas nucleares, 00:06:51.440 --> 00:06:54.118 fosse uma coisa mais pequena ou menos impressionante. NOTE Paragraph 00:06:54.159 --> 00:06:56.975 CA: Tal como com os maus incentivos para atores poderosos, 00:06:56.995 --> 00:06:58.347 também te preocupas 00:06:58.357 --> 00:07:00.879 com os maus incentivos para todos nós, o Tipo-2b. NOTE Paragraph 00:07:00.929 --> 00:07:04.882 NB: Sim, podemos agarrar no caso do aquecimento global. 00:07:06.958 --> 00:07:08.851 Há muitos pequenos confortos 00:07:08.875 --> 00:07:11.199 que levam cada um de nós a fazer coisas 00:07:11.253 --> 00:07:13.844 que, individualmente, não têm efeito significativo. 00:07:13.868 --> 00:07:16.208 Mas, se milhares de milhões de pessoas o fizerem, 00:07:16.208 --> 00:07:18.368 cumulativamente, o efeito é destruidor. 00:07:18.392 --> 00:07:21.143 O aquecimento global podia ter sido muito pior do que é. 00:07:21.143 --> 00:07:24.312 Temos o parâmetro de sensibilidade climática. 00:07:24.385 --> 00:07:27.408 É um parâmetro que indica quanto é o aquecimento 00:07:27.408 --> 00:07:30.486 se emitirmos uma certa quantidade de gases com efeito de estufa. 00:07:30.510 --> 00:07:32.253 Mas supõe que se dava o caso 00:07:32.277 --> 00:07:35.484 de que, com a quantidade de gases com efeito de estufa que emitimos, 00:07:35.518 --> 00:07:37.268 em vez de a temperatura subir 00:07:37.292 --> 00:07:41.138 entre 3 a 4,5 graus até 2100, 00:07:41.182 --> 00:07:43.785 imagina que subiria entre 15 ou 20 graus. 00:07:44.465 --> 00:07:46.754 Aí estaríamos numa situação muito má. 00:07:46.754 --> 00:07:49.841 Supõe que as energias renováveis tinham sido muito mais complexas 00:07:49.875 --> 00:07:52.545 ou que tinha havido mais combustíveis fósseis no terreno. NOTE Paragraph 00:07:52.635 --> 00:07:54.656 CA: Não podias argumentar que, 00:07:54.748 --> 00:07:57.214 se aquilo que estamos a fazer hoje 00:07:57.228 --> 00:08:01.768 tivesse resultado em 10 graus de diferença no período de tempo que podemos ver, 00:08:01.792 --> 00:08:05.586 a humanidade ter-se-ia alarmado e teria feito alguma coisa. 00:08:05.650 --> 00:08:08.147 Somos estúpidos, mas não somos assim tão estúpidos. 00:08:08.147 --> 00:08:09.535 Ou talvez sejamos. NOTE Paragraph 00:08:09.625 --> 00:08:10.963 NB: Não apostaria nisso. NOTE Paragraph 00:08:11.037 --> 00:08:12.611 (Risos) NOTE Paragraph 00:08:13.125 --> 00:08:15.119 Podemos imaginar outras opções. 00:08:16.533 --> 00:08:20.351 Neste momento, é um pouco difícil mudar para as renováveis, 00:08:20.375 --> 00:08:21.693 mas pode ser feito. 00:08:21.737 --> 00:08:24.713 Podia ter sido, com uma física um pouco diferente, 00:08:24.747 --> 00:08:27.679 teria sido muito mais dispendioso fazer essas coisas. NOTE Paragraph 00:08:28.375 --> 00:08:29.963 CA: Qual é a tua opinião, Nick? 00:08:30.017 --> 00:08:33.431 Achas que, juntando todas estas possibilidades. 00:08:34.025 --> 00:08:36.643 esta humanidade que somos, 00:08:36.667 --> 00:08:38.612 somos um mundo vulnerável? 00:08:38.702 --> 00:08:41.239 Haverá uma bola mortífera no nosso futuro? NOTE Paragraph 00:08:43.958 --> 00:08:45.426 NB: É difícil dizer. 00:08:45.440 --> 00:08:50.219 Ou seja, penso que pode haver várias bolas pretas na urna, 00:08:50.263 --> 00:08:51.793 é o que parece. 00:08:51.827 --> 00:08:54.169 Também pode haver algumas bolas douradas 00:08:54.193 --> 00:08:57.469 que nos ajudarão a proteger-nos das bolas pretas. 00:08:58.053 --> 00:09:00.559 Mas não sei qual a ordem por que vão sair. NOTE Paragraph 00:09:00.663 --> 00:09:04.474 CA: Uma possível crítica filosófica dessa ideia 00:09:04.658 --> 00:09:10.101 é que isso implica uma visão de um futuro já determinado, 00:09:10.185 --> 00:09:12.601 quer essa bola exista ou não. 00:09:13.255 --> 00:09:15.753 E, de certa forma, 00:09:15.817 --> 00:09:18.268 é uma visão do futuro em que eu não quero acreditar. 00:09:18.292 --> 00:09:20.643 Eu quero acreditar que o futuro é indeterminado, 00:09:20.667 --> 00:09:23.106 que são as nossas decisões de hoje que determinarão 00:09:23.116 --> 00:09:25.987 o tipo de bolas que vamos tirar dessa urna. NOTE Paragraph 00:09:27.177 --> 00:09:29.984 NB: Se continuarmos a inventar, 00:09:30.028 --> 00:09:32.732 acabaremos por extrair todas as bolas. 00:09:32.875 --> 00:09:36.268 Penso que há uma certa forma de determinismo tecnológico 00:09:36.292 --> 00:09:37.926 que é bastante plausível. 00:09:38.006 --> 00:09:40.226 Ou seja, não é provável encontrar uma sociedade 00:09:40.250 --> 00:09:43.478 que use machados de sílex e aviões a jato. 00:09:44.208 --> 00:09:48.328 Mas quase podemos ver a tecnologia como um conjunto de possibilidades. 00:09:48.332 --> 00:09:51.439 A tecnologia é a coisa que nos possibilita fazer diversas coisas 00:09:51.463 --> 00:09:53.209 e obter diversos efeitos no mundo. 00:09:53.223 --> 00:09:56.223 Como vamos usá-las depende das opções humanas. 00:09:56.277 --> 00:09:58.921 Mas, se pensarmos nestes três tipos de vulnerabilidade, 00:09:58.945 --> 00:10:02.268 são pressupostos muito fracos sobre como optaríamos por usá-las. 00:10:02.302 --> 00:10:05.602 Uma vulnerabilidade Tipo-1 esse enorme poder destrutivo, 00:10:05.602 --> 00:10:07.327 é uma hipótese muito fraca 00:10:07.347 --> 00:10:09.849 pensar que, numa população de milhões de pessoas 00:10:09.873 --> 00:10:12.518 haveria algumas que optariam por usá-la destrutivamente. NOTE Paragraph 00:10:12.542 --> 00:10:15.156 CA: Para mim, o argumento mais perturbador 00:10:15.190 --> 00:10:19.548 é podermos espreitar para dentro da urna 00:10:19.603 --> 00:10:22.811 e vermos que, provavelmente, estamos condenados. 00:10:23.125 --> 00:10:27.768 Se acreditarmos no poder acelerador, 00:10:27.792 --> 00:10:29.959 que a tecnologia acelera inerentemente, 00:10:29.979 --> 00:10:32.688 que criamos as ferramentas que nos tornam mais poderosos, 00:10:32.722 --> 00:10:35.284 a certa altura, acabamos por chegar a um ponto 00:10:35.328 --> 00:10:38.268 em que um único indivíduo pode eliminar-nos a todos 00:10:38.292 --> 00:10:41.143 e assim, parece que estamos lixados. 00:10:41.267 --> 00:10:43.711 Este argumento não é alarmante? NOTE Paragraph 00:10:44.255 --> 00:10:45.875 NB: Claro que é. NOTE Paragraph 00:10:46.558 --> 00:10:47.876 (Risos) NOTE Paragraph 00:10:48.000 --> 00:10:49.333 Penso que... 00:10:50.875 --> 00:10:52.702 Sim, cada vez temos mais poder 00:10:52.702 --> 00:10:56.054 e é cada vez mais fácil usar esses poderes 00:10:56.458 --> 00:11:00.018 mas também podemos inventar tecnologias que nos ajudem a controlar 00:11:00.042 --> 00:11:02.349 como as pessoas usam esses poderes. NOTE Paragraph 00:11:02.423 --> 00:11:04.934 CA: Falemos nisso, falemos na resposta. 00:11:04.958 --> 00:11:07.478 Suponhamos que pensar em todas as possibilidades 00:11:07.522 --> 00:11:09.663 que existem atualmente 00:11:09.707 --> 00:11:13.143 — não é só a biologia sintética, são coisas como a guerra cibernética, 00:11:13.167 --> 00:11:16.348 a inteligência artificial, etc., etc. — 00:11:16.542 --> 00:11:21.059 que podem ser uma condenação do nosso futuro. 00:11:21.123 --> 00:11:23.044 Quais são as possíveis respostas? 00:11:23.062 --> 00:11:27.168 Falaste de quatro respostas possíveis. NOTE Paragraph 00:11:27.675 --> 00:11:31.268 NB: Restringir o desenvolvimento tecnológico não parece ser promissor, 00:11:31.332 --> 00:11:34.518 se falamos duma paragem geral do progresso tecnológico. 00:11:34.542 --> 00:11:36.699 Penso que não é exequível nem seria desejável, 00:11:36.733 --> 00:11:38.435 mesmo que o pudéssemos fazer. 00:11:38.435 --> 00:11:41.274 Penso que pode haver áreas muito limitadas 00:11:41.308 --> 00:11:44.324 em que talvez quiséssemos abrandar o progresso tecnológico. 00:11:44.368 --> 00:11:47.561 Penso que não queremos um progresso mais rápido nas armas biológicas 00:11:47.595 --> 00:11:49.674 ou na separação de isótopos 00:11:49.708 --> 00:11:52.408 que facilitaria a criação de ogivas nucleares. NOTE Paragraph 00:11:52.583 --> 00:11:55.973 CA: Eu costumava estar inteiramente de acordo com isso. 00:11:56.017 --> 00:11:59.184 Mas gostaria de contra-argumentar durante instantes. 00:11:59.208 --> 00:12:00.658 Primeiro que tudo, 00:12:00.692 --> 00:12:03.386 se olharmos para a história das últimas décadas, 00:12:03.386 --> 00:12:06.809 tem havido sempre uma evolução a toda a velocidade. 00:12:06.833 --> 00:12:08.934 Tudo bem, a escolha tem sido nossa. 00:12:08.958 --> 00:12:12.976 Mas, se olharmos para a globalização e para a sua rápida aceleração, 00:12:13.000 --> 00:12:16.434 se olharmos para a estratégia de "avançar rápido e partir a loiça" 00:12:16.458 --> 00:12:18.518 e o que aconteceu com isso, 00:12:18.542 --> 00:12:21.649 e depois olhamos para o potencial da biologia sintética, 00:12:21.683 --> 00:12:25.768 não sei se devemos avançar rapidamente 00:12:25.792 --> 00:12:27.624 ou sem qualquer tipo de restrições 00:12:27.648 --> 00:12:31.178 para um mundo em que podemos ter uma impressora de ADN em todos os lares 00:12:31.222 --> 00:12:33.133 e nos laboratórios dos liceus. 00:12:33.167 --> 00:12:34.851 Há restrições, não há? NOTE Paragraph 00:12:34.915 --> 00:12:37.618 NB: Possivelmente. Temos a primeira parte: não exequível. 00:12:37.672 --> 00:12:39.896 Se pensarmos que seria desejável parar, 00:12:39.896 --> 00:12:41.476 há o problema da exequibilidade. 00:12:41.570 --> 00:12:44.309 Na verdade, não ajuda muito se um país... NOTE Paragraph 00:12:44.333 --> 00:12:46.351 CA: Não, não ajuda muito se for um só país, 00:12:46.405 --> 00:12:49.055 mas já tivemos tratados. 00:12:49.333 --> 00:12:52.472 Foi assim que sobrevivemos à ameaça nuclear, 00:12:52.552 --> 00:12:56.124 foi passando pelo processo doloroso de negociação. 00:12:56.482 --> 00:12:58.830 Ponho-me a pensar se a lógica não será 00:12:58.870 --> 00:13:01.731 que nós, em termos de prioridade global, 00:13:01.731 --> 00:13:05.912 não devíamos tentar começar a negociar regras estritas 00:13:06.334 --> 00:13:09.318 sobre onde se pode fazer investigação sobre biologia sintética. 00:13:09.335 --> 00:13:11.976 Não é uma coisa que queiramos democratizar, pois não? NOTE Paragraph 00:13:12.070 --> 00:13:14.309 NB: Estou inteiramente de acordo com isso. 00:13:15.703 --> 00:13:18.059 Seria desejável, por exemplo, 00:13:18.083 --> 00:13:21.684 ter máquinas de síntese de ADN, 00:13:21.708 --> 00:13:25.268 não enquanto um aparelho existente em todos os laboratórios, 00:13:25.292 --> 00:13:27.008 mas como um serviço. 00:13:27.032 --> 00:13:29.473 Talvez pudesse haver quatro ou cinco locais no mundo 00:13:29.473 --> 00:13:33.005 para onde enviar o nosso modelo digital e receber o ADN de volta. 00:13:33.015 --> 00:13:34.723 Depois, teríamos essa capacidade 00:13:34.777 --> 00:13:37.059 se um dia isso fosse mesmo necessário 00:13:37.083 --> 00:13:39.795 teríamos um conjunto finito de pontos de obstrução. 00:13:39.795 --> 00:13:42.866 Penso que queres olhar para especiais oportunidades, 00:13:42.900 --> 00:13:45.197 em que podemos ter um controlo mais apertado. NOTE Paragraph 00:13:45.197 --> 00:13:46.806 CA: Fundamentalmente, acreditas 00:13:46.850 --> 00:13:49.743 que não vamos conseguir atrasar as coisas. 00:13:49.816 --> 00:13:52.403 Alguém, algures — Coreia do Norte — 00:13:52.457 --> 00:13:55.934 alguém vai lá chegar e descobrir esse conhecimento 00:13:55.958 --> 00:13:57.276 se é que ele existe. NOTE Paragraph 00:13:57.330 --> 00:13:59.601 NB: Isso parece plausível nas atuais condições. 00:13:59.625 --> 00:14:01.559 Também não é só biologia sintética. 00:14:01.583 --> 00:14:04.101 Qualquer tipo de mudança profunda e nova, no mundo 00:14:04.101 --> 00:14:05.727 pode vir a ser uma bola preta. NOTE Paragraph 00:14:05.777 --> 00:14:07.823 CA: Vejamos outra resposta possível. NOTE Paragraph 00:14:07.863 --> 00:14:10.506 NB: Penso que isto também tem um potencial limitado. 00:14:10.540 --> 00:14:13.809 Com a vulnerabilidade de Tipo-1, mais uma vez, 00:14:13.833 --> 00:14:17.297 se pudermos reduzir o número de pessoas que estão motivadas 00:14:17.348 --> 00:14:18.848 a destruir o mundo, 00:14:18.870 --> 00:14:21.438 se pelo menos fossem só elas a ter o acesso e os meios 00:14:21.438 --> 00:14:22.706 isso seria bom. NOTE Paragraph 00:14:22.706 --> 00:14:24.941 CA: Nesta imagem que nos pediste para fazermos, 00:14:24.975 --> 00:14:27.434 imaginaste estes "drones" a voar à volta do mundo 00:14:27.458 --> 00:14:28.746 com reconhecimento facial. 00:14:28.780 --> 00:14:31.643 Quando detetam alguém que mostra um comportamento sociopata 00:14:31.667 --> 00:14:33.871 dão-lhe um banho de amor e recuperam-no. NOTE Paragraph 00:14:33.915 --> 00:14:36.088 NB: É uma imagem híbrida. 00:14:36.122 --> 00:14:39.889 Eliminar pode significar encarcerar ou matar 00:14:39.943 --> 00:14:42.921 ou pode significar convencê-los a uma melhor visão do mundo. 00:14:42.945 --> 00:14:44.601 Mas a questão é esta: 00:14:44.655 --> 00:14:46.768 Imagina que temos um grande êxito, 00:14:46.792 --> 00:14:50.101 e reduzíamos para metade o número desses indivíduos. 00:14:50.125 --> 00:14:51.868 Se queremos fazê-lo por persuasão, 00:14:51.882 --> 00:14:54.526 estamos a competir contra as outras forças poderosas 00:14:54.536 --> 00:14:56.193 que tentam persuadir as pessoas, 00:14:56.201 --> 00:14:58.318 os partidos, a religião, o sistema de ensino. 00:14:58.318 --> 00:15:00.253 Mas suponhamos que os reduzimos a metade, 00:15:00.267 --> 00:15:02.495 penso que o risco não seria reduzido a metade. 00:15:02.495 --> 00:15:04.006 Talvez apenas a 5% ou 10%. NOTE Paragraph 00:15:04.030 --> 00:15:07.115 CA: Não estás a recomendar que falemos do futuro da humanidade 00:15:07.145 --> 00:15:08.385 com a resposta dois. NOTE Paragraph 00:15:08.395 --> 00:15:11.313 NB: Penso que é bom tentar dissuadir e persuadir as pessoas 00:15:11.357 --> 00:15:14.031 mas não podemos confiar nisso como única salvaguarda. NOTE Paragraph 00:15:14.031 --> 00:15:15.704 CA: E quanto à terceira resposta? NOTE Paragraph 00:15:15.798 --> 00:15:18.351 NB: Penso que há dois métodos gerais 00:15:18.375 --> 00:15:22.351 que podemos usar para conseguir a capacidade de estabilizar o mundo 00:15:22.375 --> 00:15:25.231 contra todo o espetro de possíveis vulnerabilidades. 00:15:25.231 --> 00:15:27.569 Provavelmente, vamos precisar das duas coisas. 00:15:27.609 --> 00:15:31.476 Uma é uma capacidade extremamente eficaz 00:15:31.500 --> 00:15:33.268 de policiamento preventivo. 00:15:33.292 --> 00:15:35.216 para poder intercetar 00:15:35.250 --> 00:15:37.671 alguém que comece a fazer coisas perigosas. 00:15:37.705 --> 00:15:40.519 Poder intercetá-la em tempo real, e detê-la. 00:15:40.581 --> 00:15:43.049 Isso exigirá uma vigilância omnipresente, 00:15:43.093 --> 00:15:46.033 toda a gente terá de ser monitorizada a toda a hora. NOTE Paragraph 00:15:46.373 --> 00:15:48.963 CA: É essencialmente uma forma de "Minority Report". NOTE Paragraph 00:15:49.017 --> 00:15:51.051 NB: Talvez tenhamos algoritmos de IA, 00:15:51.065 --> 00:15:55.292 grandes centro de liberdade que examinariam isso, etc., etc. NOTE Paragraph 00:15:56.633 --> 00:16:00.976 CA: A vigilância de massas não é muito popular neste momento... NOTE Paragraph 00:16:01.136 --> 00:16:02.840 (Risos) NOTE Paragraph 00:16:03.458 --> 00:16:05.268 NB: Eu sei. Aquele pequeno aparelho. 00:16:05.322 --> 00:16:08.943 imagina que tens de usar sempre aquele tipo de coleira 00:16:08.977 --> 00:16:11.196 com câmaras multidirecionais. 00:16:11.792 --> 00:16:13.601 Mas, para ser mais bem aceite, 00:16:13.625 --> 00:16:16.569 chama-lhe "farol da liberdade" ou qualquer coisa dessas. NOTE Paragraph 00:16:16.613 --> 00:16:18.184 (Risos) NOTE Paragraph 00:16:18.308 --> 00:16:19.476 CA: Ok. 00:16:19.500 --> 00:16:21.601 Isto, meus amigos, é só uma conversa 00:16:21.625 --> 00:16:24.874 é por isso que é uma conversa tão estonteante. NOTE Paragraph 00:16:24.920 --> 00:16:28.504 NB: Na verdade, há toda uma conversa sobre este tema em especial. 00:16:28.887 --> 00:16:31.643 Há grandes problemas e riscos com isto, não é? 00:16:31.667 --> 00:16:33.164 Podemos voltar a falar nisso. 00:16:33.188 --> 00:16:34.436 A última resposta, 00:16:34.450 --> 00:16:38.769 a outra capacidade de estabilização geral colmata um vazio da governação. 00:16:38.917 --> 00:16:43.051 A vigilância preencherá um vazio da governação a um nível micro: 00:16:43.065 --> 00:16:46.166 impedir quem quer que seja de fazer uma coisa altamente ilegal. 00:16:46.300 --> 00:16:48.559 Há um vazio de governação equivalente, 00:16:48.583 --> 00:16:50.518 a nível macro, a nível mundial. 00:16:50.542 --> 00:16:54.476 Precisaremos de capacidade eficaz, 00:16:54.550 --> 00:16:57.823 para impedir os piores tipos de falhas de coordenação mundial, 00:16:57.823 --> 00:17:01.101 para evitar guerras entre as grandes potências, 00:17:01.125 --> 00:17:03.038 corridas ao armamento, 00:17:03.500 --> 00:17:05.980 problemas comuns cataclísmicos, 00:17:07.667 --> 00:17:11.851 a fim de lidar com as vulnerabilidades Tipo-2a. NOTE Paragraph 00:17:11.875 --> 00:17:13.999 CA: Governação global é um termo 00:17:14.033 --> 00:17:16.413 que está definitivamente fora de moda neste momento 00:17:16.413 --> 00:17:18.601 mas podes adiantar que, ao longo da História, 00:17:18.625 --> 00:17:20.093 a História da Humanidade, 00:17:20.127 --> 00:17:24.691 em cada fase do aumento do poder tecnológico 00:17:25.375 --> 00:17:28.751 as pessoas têm reorganizado e de certa forma centralizado o poder. 00:17:28.805 --> 00:17:32.059 Por exemplo, quando um bando itinerante de criminosos 00:17:32.083 --> 00:17:33.908 podia dominar uma sociedade, 00:17:33.922 --> 00:17:36.031 a reposta foi criar um estado-nação 00:17:36.055 --> 00:17:38.603 e uma força centralizada, força policial ou militar, 00:17:38.603 --> 00:17:40.323 para isso não ser possível 00:17:40.367 --> 00:17:44.726 A lógica, talvez, de ter uma única pessoa ou um único grupo 00:17:44.750 --> 00:17:46.393 capaz de dominar a humanidade 00:17:46.417 --> 00:17:49.280 significa que, a certa altura, temos de ir por este caminho, 00:17:49.280 --> 00:17:50.862 de alguma forma, não é? NOTE Paragraph 00:17:50.882 --> 00:17:54.309 NB: É verdade que a escala da organização política aumentou 00:17:54.333 --> 00:17:56.446 ao longo da história humana. 00:17:56.500 --> 00:17:58.878 Primeiro era um bando de caçadores-recoletores. 00:17:58.892 --> 00:18:01.736 depois uma chefatura, cidades-estados, nações. 00:18:01.780 --> 00:18:05.476 Agora são organizações internacionais etc., etc. 00:18:05.500 --> 00:18:08.673 Mais uma vez, só quero assegurar, ter a hipótese de sublinhar 00:18:08.708 --> 00:18:10.974 que, obviamente, há tremendos inconvenientes 00:18:10.998 --> 00:18:12.506 e enormes riscos 00:18:12.540 --> 00:18:15.771 tanto na vigilância de massas como na governação global. 00:18:15.805 --> 00:18:18.284 Só estou a sublinhar que, se tivermos sorte, 00:18:18.338 --> 00:18:20.963 o mundo pode ser tal que estas serão as únicas formas 00:18:20.997 --> 00:18:22.804 de sobrevivermos a uma bola preta. NOTE Paragraph 00:18:22.888 --> 00:18:24.976 CA: A lógica desta teoria 00:18:25.000 --> 00:18:26.408 segundo me parece, 00:18:26.422 --> 00:18:29.893 é que temos de reconhecer que não podemos ter tudo. 00:18:29.967 --> 00:18:31.930 De certo modo, eu diria 00:18:33.640 --> 00:18:36.476 que o sonho ingénuo que muitos de nós temos 00:18:36.500 --> 00:18:39.851 é que a tecnologia vai ser sempre uma força para o bem, NOTE Paragraph 00:18:39.875 --> 00:18:42.851 que não devemos parar, mas avançar o mais depressa possível 00:18:42.875 --> 00:18:45.226 e não prestar atenção a algumas das consequências. 00:18:45.250 --> 00:18:46.934 Não temos opção. 00:18:46.958 --> 00:18:48.893 Podemos ter isso. 00:18:48.917 --> 00:18:50.184 Se tivermos isso, 00:18:50.208 --> 00:18:51.753 vamos ter de aceitar 00:18:51.777 --> 00:18:54.506 algumas das outras coisas muito incómodas que vêm juntas 00:18:54.520 --> 00:18:56.806 entramos na corrida ao armamento com nós mesmos: 00:18:56.870 --> 00:18:59.038 se quisermos o poder devemos limitá-lo, 00:18:59.062 --> 00:19:01.134 é melhor perceber como limitá-lo. NOTE Paragraph 00:19:01.158 --> 00:19:05.194 NB: Penso que é uma opção, uma opção muito tentadora, 00:19:05.228 --> 00:19:07.296 de certo modo, a opção mais fácil 00:19:07.340 --> 00:19:08.978 e pode funcionar, 00:19:09.012 --> 00:19:11.876 mas significa que estamos extremamente vulneráveis 00:19:11.885 --> 00:19:13.695 a extrair a bola preta. 00:19:13.745 --> 00:19:15.808 Eu penso que, com um pouco de coordenação 00:19:15.832 --> 00:19:18.268 — resolvendo este problema de macrogovernação, 00:19:18.292 --> 00:19:20.003 e o problema da microgovernação — 00:19:20.027 --> 00:19:22.406 podemos extrair todas as bolas da urna 00:19:22.430 --> 00:19:24.368 e beneficiar imenso. NOTE Paragraph 00:19:24.662 --> 00:19:27.976 CA: Mas, se estamos a viver numa simulação, isso é importante? 00:19:28.000 --> 00:19:29.579 Basta reiniciarmos. NOTE Paragraph 00:19:29.663 --> 00:19:30.861 (Risos) NOTE Paragraph 00:19:30.930 --> 00:19:32.448 NB: Bom... eu... NOTE Paragraph 00:19:32.592 --> 00:19:34.698 (Risos) 00:19:34.792 --> 00:19:36.698 eu não vi isso a chegar. NOTE Paragraph 00:19:38.125 --> 00:19:39.814 CA: Então, qual é a tua visão? 00:19:39.874 --> 00:19:41.605 Juntando todas as peças, 00:19:41.610 --> 00:19:44.568 qual é a probabilidade de estarmos condenados? NOTE Paragraph 00:19:44.630 --> 00:19:46.589 (Risos) NOTE Paragraph 00:19:46.982 --> 00:19:49.644 Adoro como as pessoas riem quando eu faço esta pergunta. NOTE Paragraph 00:19:49.722 --> 00:19:51.313 NB: A nível individual, 00:19:51.353 --> 00:19:54.494 parece que estamos condenados, mais tarde ou mais cedo, 00:19:54.518 --> 00:19:57.449 estamos a apodrecer e a envelhecer e todos os tipos de coisas. NOTE Paragraph 00:19:57.483 --> 00:19:58.934 (Risos) NOTE Paragraph 00:19:58.958 --> 00:20:00.643 Na verdade, é um pouco complicado. 00:20:00.667 --> 00:20:03.354 Se nos quisermos preparar para agarrar uma probabilidade, 00:20:03.368 --> 00:20:05.058 a primeira coisa é: quem somos nós? 00:20:05.058 --> 00:20:07.610 Se formos muito velhos, morreremos de causas naturais, 00:20:07.610 --> 00:20:10.061 se formos muito novos podemos chegar aos 100 anos, 00:20:10.085 --> 00:20:11.928 consoante a quem perguntarem. 00:20:11.962 --> 00:20:15.948 Depois o limiar: o que conta como devastação civilizacional? 00:20:16.482 --> 00:20:21.403 No meu artigo eu não preciso de uma catástrofe existencial 00:20:21.728 --> 00:20:23.223 para que isso conte. 00:20:23.417 --> 00:20:25.101 É apenas uma questão de definição, 00:20:25.125 --> 00:20:26.604 digo mil milhões de mortos 00:20:26.618 --> 00:20:28.608 ou uma redução do PIB mundial em 50%, 00:20:28.672 --> 00:20:30.768 mas consoante o limiar que for definido, 00:20:30.792 --> 00:20:33.174 obtemos uma estimativa diferente da probabilidade. 00:20:33.174 --> 00:20:37.119 Acho que podem acusar-me de otimista assustado. NOTE Paragraph 00:20:37.333 --> 00:20:38.544 (Risos) NOTE Paragraph 00:20:38.618 --> 00:20:40.361 CA: És um otimista assustado 00:20:40.365 --> 00:20:43.763 e eu acho que acabaste de criar um grande número 00:20:43.777 --> 00:20:45.653 de outras pessoas assustadas. NOTE Paragraph 00:20:45.708 --> 00:20:46.768 (Risos) NOTE Paragraph 00:20:46.792 --> 00:20:48.099 NB: Na simulação. NOTE Paragraph 00:20:48.133 --> 00:20:49.351 CA: Numa simulação. 00:20:49.375 --> 00:20:51.493 Nick Bostrom, o teu espírito maravilha-me. 00:20:51.493 --> 00:20:53.976 Muito obrigado por nos teres assustado. NOTE Paragraph 00:20:54.050 --> 00:20:55.915 (Aplausos)