Como a civilização se pode destruir a si mesma — e quatro formas de o impedir
-
0:01 - 0:03Chris Anderson: Nick Bostrom.
-
0:03 - 0:07Já nos deste muitas ideias incríveis.
-
0:07 - 0:09Penso que aqui há décadas
-
0:09 - 0:12defendeste a ideia de que podemos
estar a viver numa simulação, -
0:12 - 0:14ou provavelmente, estávamos.
-
0:14 - 0:15Mais recentemente,
-
0:15 - 0:18descreveste os exemplos
mais impressionantes -
0:18 - 0:22de como a inteligência artificial
poderá vir a gerar resultados terríveis. -
0:22 - 0:25E este ano, estás prestes a publicar
-
0:26 - 0:30um artigo que apresenta uma coisa
chamada a hipótese do mundo vulnerável. -
0:30 - 0:34O nosso papel esta noite é apresentar
um guia ilustrado sobre esse tema. -
0:35 - 0:36Vamos a isso.
-
0:37 - 0:39Que hipótese é essa?
-
0:40 - 0:43Nick Bostrom: É uma tentativa de reflexão
-
0:43 - 0:46sobre uma característica estrutural
da atual condição humana. -
0:48 - 0:50Tu gostas da metáfora da urna,
-
0:50 - 0:52por isso vou usá-la para explicar melhor.
-
0:52 - 0:55Imagina uma grande urna
cheia de bolas, -
0:56 - 1:00que representam ideias, métodos,
possíveis tecnologias. -
1:01 - 1:05Podes pensar na história
da criatividade humana -
1:05 - 1:09como o processo de chegar a esta urna
e ir tirando uma bola atrás de outra. -
1:09 - 1:12Até aqui, o efeito tem sido
muito benéfico, não é? -
1:12 - 1:15Já extraímos uma grande quantidade
de bolas brancas, -
1:15 - 1:18algumas de vários tons de cinzento,
com prós e contras. -
1:18 - 1:21Até agora não tirámos a bola preta
-
1:22 - 1:28— uma tecnologia que destrua fatalmente
a civilização que a encontrar. -
1:29 - 1:31O artigo procura refletir
no que será essa bola preta. -
1:31 - 1:33CA: Então, defines essa bola
-
1:33 - 1:37como aquela que, inevitavelmente,
provocará a destruição da civilização. -
1:37 - 1:40NB: A não ser que abandonemos
aquilo a que chamo -
1:40 - 1:42a situação semianárquica, por defeito
-
1:42 - 1:45mas, de qualquer modo, por defeito.
-
1:46 - 1:51CA: Argumentas de forma convincente
apresentando contraexemplos -
1:50 - 1:53de que, segundo crês,
temos tido muita sorte, até agora, -
1:53 - 1:56em que podíamos ter tirado
essa bola mortífera -
1:56 - 1:58sem sequer darmos por isso.
-
1:58 - 1:59O que é esta citação?
-
1:59 - 2:02["O Progresso Contínuo na Mecânica
Celestial produzirá a bomba H"] -
2:02 - 2:04NB: Penso que pretende ilustrar
-
2:04 - 2:08a dificuldade de prever aonde nos levarão
as descobertas elementares. -
2:09 - 2:11Não temos essa capacidade.
-
2:11 - 2:15Porque tornámo-nos muito bons
a extrair as bolas, -
2:15 - 2:18mas não temos a capacidade
de voltar a pôr a bola na urna. -
2:18 - 2:21Podemos inventar,
mas não podemos des-inventar. -
2:21 - 2:24A nossa estratégia atual
-
2:24 - 2:27é ter a esperança de que não haja
nenhuma bola preta na urna. -
2:27 - 2:31CA: Depois de aparecer, está cá fora
e não podemos voltar a pô-la lá dentro -
2:31 - 2:33e tu pensas que temos tido sorte.
-
2:33 - 2:35Fala-nos de alguns desses exemplos.
-
2:35 - 2:38Falas de diferentes tipos
de vulnerabilidade. -
2:39 - 2:40NB: O tipo mais fácil de perceber
-
2:40 - 2:46é uma tecnologia que torna
muito fácil uma destruição maciça. -
2:47 - 2:51A biologia sintética pode ser
uma fonte fecunda duma bola preta, -
2:51 - 2:54mas há muitas outras coisas possíveis
-
2:54 - 2:56— pensa na geo-engenharia,
é genial, não é? -
2:56 - 2:59Podemos combater o aquecimento global,
-
2:59 - 3:01mas não queremos
que seja demasiado fácil, -
3:01 - 3:03não queremos que
uma pessoa qualquer e a sua avó -
3:03 - 3:06possam alterar radicalmente
o clima da Terra. -
3:06 - 3:11Ou os "drones" autónomos mortíferos,
enxames de robôs assassinos -
3:11 - 3:14do tamanho de mosquitos
e produzidos em massa. -
3:15 - 3:17A nanotecnologia,
a inteligência artificial geral. -
3:17 - 3:19CA: Defendes nesse artigo
-
3:19 - 3:22que foi só por sorte
— quando descobrimos -
3:22 - 3:26que a energia nuclear
podia criar uma bomba — -
3:26 - 3:28que não criámos uma bomba
-
3:28 - 3:32com recursos muito mais simples,
acessíveis a toda a gente. -
3:32 - 3:35NB: Sim, pensa nos anos 30
-
3:36 - 3:37em que, pela primeira vez,
-
3:37 - 3:40fizemos descobertas revolucionárias
na física nuclear. -
3:40 - 3:44Houve um génio que descobriu ser possível
criar uma reação nuclear em cadeia -
3:44 - 3:47e depois percebeu-se
que isso podia levar à bomba. -
3:47 - 3:49E continuámos a trabalhar.
-
3:49 - 3:52Acontece que o necessário
para fazer uma bomba nuclear -
3:52 - 3:54é urânio enriquecido ou plutónio,
-
3:54 - 3:56que são materiais muito difíceis de obter.
-
3:56 - 3:59São precisos ultracentrifugadores,
-
3:59 - 4:02são precisos reatores,
quantidades enormes de energia. -
4:02 - 4:04Mas suponhamos que, em vez disso,
-
4:04 - 4:08tivesse havido uma forma fácil
de libertar a energia do átomo. -
4:08 - 4:11Talvez cozendo areia no micro-ondas
-
4:11 - 4:12ou qualquer coisa assim,
-
4:12 - 4:14pudéssemos ter criado
uma explosão nuclear. -
4:14 - 4:16Sabemos que isso
é fisicamente impossível. -
4:16 - 4:18Mas antes de estudarmos
a física relevante -
4:18 - 4:20como é que sabíamos
o que iria acontecer? -
4:21 - 4:24CA: Podias alegar que,
para a vida evoluir na Terra -
4:24 - 4:27era indispensável um ambiente estável
-
4:27 - 4:31e que, se fosse possível criar
grandes reações nucleares -
4:31 - 4:32com relativa facilidade,
-
4:32 - 4:35a Terra nunca teria estado estável
e nós não estaríamos aqui. -
4:35 - 4:38NB: Sim, a não ser que houvesse
qualquer coisa fácil de fazer -
4:38 - 4:41mas isso não aconteceria por acaso.
-
4:41 - 4:43Coisas fáceis de fazer,
-
4:43 - 4:45como empilhar 10 blocos
uns por cima dos outros -
4:45 - 4:48mas, na Natureza, não encontramos
uma pilha de 10 blocos. -
4:48 - 4:52CA: Ok, isto provavelmente é aquilo
que mais preocupa muitos de nós -
4:52 - 4:56e, sim, a biologia sintética
talvez seja o caminho mais rápido -
4:56 - 4:59que, podemos prever, pode
levar-nos lá num futuro próximo. -
4:59 - 5:01NB: Pois é, pensa no que significaria
-
5:01 - 5:05se alguém, a trabalhar
na cozinha, durante uma tarde, -
5:05 - 5:07pudesse destruir uma cidade.
-
5:07 - 5:10É difícil ver como a civilização moderna,
tal como a conhecemos, -
5:10 - 5:12teria sobrevivido a isso.
-
5:12 - 5:14Porque, em qualquer população
de um milhão de pessoas, -
5:14 - 5:17haverá sempre alguém,
por qualquer razão que seja, -
5:17 - 5:20que pode decidir usar
esse poder destrutivo. -
5:20 - 5:23Assim, se esse resíduo apocalíptico
-
5:23 - 5:25decidir destruir uma cidade ou, pior,
-
5:25 - 5:27as cidades serão destruídas.
-
5:27 - 5:29CA: Esse é outro tipo de vulnerabilidade.
-
5:29 - 5:31Fala-nos disso.
-
5:31 - 5:35NB: Para além destes tipos óbvios
de bolas pretas -
5:35 - 5:37isso tornaria possível
fazer explodir muitas coisas. -
5:37 - 5:42Outros tipos agiriam
criando maus incentivos -
5:42 - 5:44para os seres humanos
fazerem coisas prejudiciais. -
5:45 - 5:48O Tipo-2a, podemos chamar-lhe assim,
-
5:48 - 5:53é pensar nalguma tecnologia
que incentive as grandes potências -
5:53 - 5:57a usar a sua quantidade enorme de força
para provocar a destruição. -
5:57 - 6:00As armas nucleares estiveram
muito perto disso, não foi? -
6:02 - 6:05Gastámos mais de 10 biliões de dólares
-
6:05 - 6:08para fabricar 70 000 ogivas nucleares
-
6:08 - 6:10e colocá-las em alerta imediato.
-
6:10 - 6:13Houve várias ocasiões,
durante a Guerra Fria, -
6:13 - 6:15em que quase nos explodimos mutuamente.
-
6:15 - 6:17Não porque muita gente achasse
que seria boa ideia -
6:17 - 6:20gastar 10 biliões de dólares
para nos fazermos explodir, -
6:20 - 6:22mas porque os incentivos eram enormes
-
6:22 - 6:24— podia ter sido pior.
-
6:24 - 6:26Imagina se tivesse havido
um primeiro ataque. -
6:26 - 6:30Podia ter sido muito complicado,
numa situação de crise, -
6:30 - 6:33conseguirmos abstermo-nos
de lançar todos os mísseis nucleares. -
6:33 - 6:36Quanto mais não fosse, porque recearíamos
que o outro lado o fizesse. -
6:36 - 6:38CA: Claro, uma destruição mútua garantida
-
6:38 - 6:41manteve a Guerra Fria
relativamente estável. -
6:41 - 6:43Sem isso, podíamos não estar aqui agora.
-
6:43 - 6:45NB: Podia ter sido
mais instável do que foi. -
6:45 - 6:47Podia haver outras propriedades
da tecnologia. -
6:47 - 6:50Podia ter sido mais difícil
ter tratados sobre armamento -
6:50 - 6:51se, em vez de armas nucleares,
-
6:51 - 6:54fosse uma coisa mais pequena
ou menos impressionante. -
6:54 - 6:57CA: Tal como com os maus incentivos
para atores poderosos, -
6:57 - 6:58também te preocupas
-
6:58 - 7:01com os maus incentivos
para todos nós, o Tipo-2b. -
7:01 - 7:05NB: Sim, podemos agarrar
no caso do aquecimento global. -
7:07 - 7:09Há muitos pequenos confortos
-
7:09 - 7:11que levam cada um de nós a fazer coisas
-
7:11 - 7:14que, individualmente,
não têm efeito significativo. -
7:14 - 7:16Mas, se milhares de milhões
de pessoas o fizerem, -
7:16 - 7:18cumulativamente, o efeito é destruidor.
-
7:18 - 7:21O aquecimento global podia
ter sido muito pior do que é. -
7:21 - 7:24Temos o parâmetro
de sensibilidade climática. -
7:24 - 7:27É um parâmetro que indica
quanto é o aquecimento -
7:27 - 7:30se emitirmos uma certa quantidade
de gases com efeito de estufa. -
7:31 - 7:32Mas supõe que se dava o caso
-
7:32 - 7:35de que, com a quantidade de gases
com efeito de estufa que emitimos, -
7:36 - 7:37em vez de a temperatura subir
-
7:37 - 7:41entre 3 a 4,5 graus até 2100,
-
7:41 - 7:44imagina que subiria entre 15 ou 20 graus.
-
7:44 - 7:47Aí estaríamos numa situação muito má.
-
7:47 - 7:50Supõe que as energias renováveis
tinham sido muito mais complexas -
7:50 - 7:53ou que tinha havido mais
combustíveis fósseis no terreno. -
7:53 - 7:55CA: Não podias argumentar que,
-
7:55 - 7:57se aquilo que estamos a fazer hoje
-
7:57 - 8:02tivesse resultado em 10 graus de diferença
no período de tempo que podemos ver, -
8:02 - 8:06a humanidade ter-se-ia alarmado
e teria feito alguma coisa. -
8:06 - 8:08Somos estúpidos, mas não somos
assim tão estúpidos. -
8:08 - 8:10Ou talvez sejamos.
-
8:10 - 8:11NB: Não apostaria nisso.
-
8:11 - 8:13(Risos)
-
8:13 - 8:15Podemos imaginar outras opções.
-
8:17 - 8:20Neste momento, é um pouco difícil
mudar para as renováveis, -
8:20 - 8:22mas pode ser feito.
-
8:22 - 8:25Podia ter sido,
com uma física um pouco diferente, -
8:25 - 8:28teria sido muito mais dispendioso
fazer essas coisas. -
8:28 - 8:30CA: Qual é a tua opinião, Nick?
-
8:30 - 8:33Achas que, juntando
todas estas possibilidades. -
8:34 - 8:37esta humanidade que somos,
-
8:37 - 8:39somos um mundo vulnerável?
-
8:39 - 8:41Haverá uma bola mortífera
no nosso futuro? -
8:44 - 8:45NB: É difícil dizer.
-
8:45 - 8:50Ou seja, penso que pode haver
várias bolas pretas na urna, -
8:50 - 8:52é o que parece.
-
8:52 - 8:54Também pode haver
algumas bolas douradas -
8:54 - 8:57que nos ajudarão
a proteger-nos das bolas pretas. -
8:58 - 9:01Mas não sei qual a ordem
por que vão sair. -
9:01 - 9:04CA: Uma possível crítica
filosófica dessa ideia -
9:05 - 9:10é que isso implica uma visão
de um futuro já determinado, -
9:10 - 9:13quer essa bola exista ou não.
-
9:13 - 9:16E, de certa forma,
-
9:16 - 9:18é uma visão do futuro
em que eu não quero acreditar. -
9:18 - 9:21Eu quero acreditar
que o futuro é indeterminado, -
9:21 - 9:23que são as nossas decisões
de hoje que determinarão -
9:23 - 9:26o tipo de bolas
que vamos tirar dessa urna. -
9:27 - 9:30NB: Se continuarmos a inventar,
-
9:30 - 9:33acabaremos por extrair todas as bolas.
-
9:33 - 9:36Penso que há uma certa forma
de determinismo tecnológico -
9:36 - 9:38que é bastante plausível.
-
9:38 - 9:40Ou seja, não é provável
encontrar uma sociedade -
9:40 - 9:43que use machados de sílex
e aviões a jato. -
9:44 - 9:48Mas quase podemos ver a tecnologia
como um conjunto de possibilidades. -
9:48 - 9:51A tecnologia é a coisa que nos possibilita
fazer diversas coisas -
9:51 - 9:53e obter diversos efeitos no mundo.
-
9:53 - 9:56Como vamos usá-las
depende das opções humanas. -
9:56 - 9:59Mas, se pensarmos nestes
três tipos de vulnerabilidade, -
9:59 - 10:02são pressupostos muito fracos
sobre como optaríamos por usá-las. -
10:02 - 10:06Uma vulnerabilidade Tipo-1
esse enorme poder destrutivo, -
10:06 - 10:07é uma hipótese muito fraca
-
10:07 - 10:10pensar que, numa população
de milhões de pessoas -
10:10 - 10:13haveria algumas que optariam
por usá-la destrutivamente. -
10:13 - 10:15CA: Para mim, o argumento mais perturbador
-
10:15 - 10:20é podermos espreitar
para dentro da urna -
10:20 - 10:23e vermos que, provavelmente,
estamos condenados. -
10:23 - 10:28Se acreditarmos no poder acelerador,
-
10:28 - 10:30que a tecnologia acelera
inerentemente, -
10:30 - 10:33que criamos as ferramentas
que nos tornam mais poderosos, -
10:33 - 10:35a certa altura, acabamos
por chegar a um ponto -
10:35 - 10:38em que um único indivíduo
pode eliminar-nos a todos -
10:38 - 10:41e assim, parece que estamos lixados.
-
10:41 - 10:44Este argumento não é alarmante?
-
10:44 - 10:46NB: Claro que é.
-
10:47 - 10:48(Risos)
-
10:48 - 10:49Penso que...
-
10:51 - 10:53Sim, cada vez temos mais poder
-
10:53 - 10:56e é cada vez mais fácil
usar esses poderes -
10:56 - 11:00mas também podemos inventar
tecnologias que nos ajudem a controlar -
11:00 - 11:02como as pessoas usam esses poderes.
-
11:02 - 11:05CA: Falemos nisso, falemos na resposta.
-
11:05 - 11:07Suponhamos que pensar
em todas as possibilidades -
11:08 - 11:10que existem atualmente
-
11:10 - 11:13— não é só a biologia sintética,
são coisas como a guerra cibernética, -
11:13 - 11:16a inteligência artificial, etc., etc. —
-
11:17 - 11:21que podem ser uma condenação
do nosso futuro. -
11:21 - 11:23Quais são as possíveis respostas?
-
11:23 - 11:27Falaste de quatro respostas possíveis.
-
11:28 - 11:31NB: Restringir o desenvolvimento
tecnológico não parece ser promissor, -
11:31 - 11:35se falamos duma paragem geral
do progresso tecnológico. -
11:35 - 11:37Penso que não é exequível
nem seria desejável, -
11:37 - 11:38mesmo que o pudéssemos fazer.
-
11:38 - 11:41Penso que pode haver áreas
muito limitadas -
11:41 - 11:44em que talvez quiséssemos
abrandar o progresso tecnológico. -
11:44 - 11:48Penso que não queremos um progresso
mais rápido nas armas biológicas -
11:48 - 11:50ou na separação de isótopos
-
11:50 - 11:52que facilitaria a criação
de ogivas nucleares. -
11:53 - 11:56CA: Eu costumava estar
inteiramente de acordo com isso. -
11:56 - 11:59Mas gostaria de contra-argumentar
durante instantes. -
11:59 - 12:01Primeiro que tudo,
-
12:01 - 12:03se olharmos para a história
das últimas décadas, -
12:03 - 12:07tem havido sempre uma evolução
a toda a velocidade. -
12:07 - 12:09Tudo bem, a escolha tem sido nossa.
-
12:09 - 12:13Mas, se olharmos para a globalização
e para a sua rápida aceleração, -
12:13 - 12:16se olharmos para a estratégia
de "avançar rápido e partir a loiça" -
12:16 - 12:19e o que aconteceu com isso,
-
12:19 - 12:22e depois olhamos para o potencial
da biologia sintética, -
12:22 - 12:26não sei se devemos avançar
rapidamente -
12:26 - 12:28ou sem qualquer tipo de restrições
-
12:28 - 12:31para um mundo em que podemos ter
uma impressora de ADN em todos os lares -
12:31 - 12:33e nos laboratórios dos liceus.
-
12:33 - 12:35Há restrições, não há?
-
12:35 - 12:38NB: Possivelmente. Temos
a primeira parte: não exequível. -
12:38 - 12:40Se pensarmos que seria
desejável parar, -
12:40 - 12:41há o problema da exequibilidade.
-
12:42 - 12:44Na verdade, não ajuda muito
se um país... -
12:44 - 12:46CA: Não, não ajuda muito
se for um só país, -
12:46 - 12:49mas já tivemos tratados.
-
12:49 - 12:52Foi assim que sobrevivemos
à ameaça nuclear, -
12:53 - 12:56foi passando pelo processo
doloroso de negociação. -
12:56 - 12:59Ponho-me a pensar se a lógica não será
-
12:59 - 13:02que nós, em termos de prioridade global,
-
13:02 - 13:06não devíamos tentar começar
a negociar regras estritas -
13:06 - 13:09sobre onde se pode fazer
investigação sobre biologia sintética. -
13:09 - 13:12Não é uma coisa
que queiramos democratizar, pois não? -
13:12 - 13:14NB: Estou inteiramente de acordo com isso.
-
13:16 - 13:18Seria desejável, por exemplo,
-
13:18 - 13:22ter máquinas de síntese de ADN,
-
13:22 - 13:25não enquanto um aparelho
existente em todos os laboratórios, -
13:25 - 13:27mas como um serviço.
-
13:27 - 13:29Talvez pudesse haver
quatro ou cinco locais no mundo -
13:29 - 13:33para onde enviar o nosso modelo digital
e receber o ADN de volta. -
13:33 - 13:35Depois, teríamos essa capacidade
-
13:35 - 13:37se um dia isso fosse mesmo necessário
-
13:37 - 13:40teríamos um conjunto finito
de pontos de obstrução. -
13:40 - 13:43Penso que queres olhar
para especiais oportunidades, -
13:43 - 13:45em que podemos ter
um controlo mais apertado. -
13:45 - 13:47CA: Fundamentalmente, acreditas
-
13:47 - 13:50que não vamos conseguir atrasar as coisas.
-
13:50 - 13:52Alguém, algures
— Coreia do Norte — -
13:52 - 13:56alguém vai lá chegar
e descobrir esse conhecimento -
13:56 - 13:57se é que ele existe.
-
13:57 - 14:00NB: Isso parece plausível
nas atuais condições. -
14:00 - 14:02Também não é só biologia sintética.
-
14:02 - 14:04Qualquer tipo de mudança
profunda e nova, no mundo -
14:04 - 14:06pode vir a ser uma bola preta.
-
14:06 - 14:08CA: Vejamos outra resposta possível.
-
14:08 - 14:11NB: Penso que isto também
tem um potencial limitado. -
14:11 - 14:14Com a vulnerabilidade
de Tipo-1, mais uma vez, -
14:14 - 14:17se pudermos reduzir o número
de pessoas que estão motivadas -
14:17 - 14:19a destruir o mundo,
-
14:19 - 14:21se pelo menos fossem só elas
a ter o acesso e os meios -
14:21 - 14:23isso seria bom.
-
14:23 - 14:25CA: Nesta imagem que nos pediste
para fazermos, -
14:25 - 14:27imaginaste estes "drones"
a voar à volta do mundo -
14:27 - 14:29com reconhecimento facial.
-
14:29 - 14:32Quando detetam alguém que mostra
um comportamento sociopata -
14:32 - 14:34dão-lhe um banho de amor
e recuperam-no. -
14:34 - 14:36NB: É uma imagem híbrida.
-
14:36 - 14:40Eliminar pode significar
encarcerar ou matar -
14:40 - 14:43ou pode significar convencê-los
a uma melhor visão do mundo. -
14:43 - 14:45Mas a questão é esta:
-
14:45 - 14:47Imagina que temos um grande êxito,
-
14:47 - 14:50e reduzíamos para metade
o número desses indivíduos. -
14:50 - 14:52Se queremos fazê-lo por persuasão,
-
14:52 - 14:55estamos a competir contra
as outras forças poderosas -
14:55 - 14:56que tentam persuadir as pessoas,
-
14:56 - 14:58os partidos, a religião,
o sistema de ensino. -
14:58 - 15:00Mas suponhamos
que os reduzimos a metade, -
15:00 - 15:02penso que o risco não seria
reduzido a metade. -
15:02 - 15:04Talvez apenas a 5% ou 10%.
-
15:04 - 15:07CA: Não estás a recomendar
que falemos do futuro da humanidade -
15:07 - 15:08com a resposta dois.
-
15:08 - 15:11NB: Penso que é bom tentar
dissuadir e persuadir as pessoas -
15:11 - 15:14mas não podemos confiar
nisso como única salvaguarda. -
15:14 - 15:16CA: E quanto à terceira resposta?
-
15:16 - 15:18NB: Penso que há dois
métodos gerais -
15:18 - 15:22que podemos usar para conseguir
a capacidade de estabilizar o mundo -
15:22 - 15:25contra todo o espetro
de possíveis vulnerabilidades. -
15:25 - 15:28Provavelmente, vamos precisar
das duas coisas. -
15:28 - 15:31Uma é uma capacidade
extremamente eficaz -
15:32 - 15:33de policiamento preventivo.
-
15:33 - 15:35para poder intercetar
-
15:35 - 15:38alguém que comece a fazer
coisas perigosas. -
15:38 - 15:41Poder intercetá-la
em tempo real, e detê-la. -
15:41 - 15:43Isso exigirá uma vigilância
omnipresente, -
15:43 - 15:46toda a gente terá de ser
monitorizada a toda a hora. -
15:46 - 15:49CA: É essencialmente
uma forma de "Minority Report". -
15:49 - 15:51NB: Talvez tenhamos algoritmos de IA,
-
15:51 - 15:55grandes centro de liberdade
que examinariam isso, etc., etc. -
15:57 - 16:01CA: A vigilância de massas
não é muito popular neste momento... -
16:01 - 16:03(Risos)
-
16:03 - 16:05NB: Eu sei. Aquele pequeno aparelho.
-
16:05 - 16:09imagina que tens de usar sempre
aquele tipo de coleira -
16:09 - 16:11com câmaras multidirecionais.
-
16:12 - 16:14Mas, para ser mais bem aceite,
-
16:14 - 16:17chama-lhe "farol da liberdade"
ou qualquer coisa dessas. -
16:17 - 16:18(Risos)
-
16:18 - 16:19CA: Ok.
-
16:20 - 16:22Isto, meus amigos, é só uma conversa
-
16:22 - 16:25é por isso que é uma conversa
tão estonteante. -
16:25 - 16:29NB: Na verdade, há toda uma conversa
sobre este tema em especial. -
16:29 - 16:32Há grandes problemas e riscos
com isto, não é? -
16:32 - 16:33Podemos voltar a falar nisso.
-
16:33 - 16:34A última resposta,
-
16:34 - 16:39a outra capacidade de estabilização geral
colmata um vazio da governação. -
16:39 - 16:43A vigilância preencherá um vazio
da governação a um nível micro: -
16:43 - 16:46impedir quem quer que seja
de fazer uma coisa altamente ilegal. -
16:46 - 16:49Há um vazio de governação
equivalente, -
16:49 - 16:51a nível macro, a nível mundial.
-
16:51 - 16:54Precisaremos de capacidade eficaz,
-
16:55 - 16:58para impedir os piores tipos
de falhas de coordenação mundial, -
16:58 - 17:01para evitar guerras
entre as grandes potências, -
17:01 - 17:03corridas ao armamento,
-
17:04 - 17:06problemas comuns cataclísmicos,
-
17:08 - 17:12a fim de lidar com
as vulnerabilidades Tipo-2a. -
17:12 - 17:14CA: Governação global é um termo
-
17:14 - 17:16que está definitivamente
fora de moda neste momento -
17:16 - 17:19mas podes adiantar
que, ao longo da História, -
17:19 - 17:20a História da Humanidade,
-
17:20 - 17:25em cada fase do aumento
do poder tecnológico -
17:25 - 17:29as pessoas têm reorganizado
e de certa forma centralizado o poder. -
17:29 - 17:32Por exemplo, quando um bando
itinerante de criminosos -
17:32 - 17:34podia dominar uma sociedade,
-
17:34 - 17:36a reposta foi criar um estado-nação
-
17:36 - 17:39e uma força centralizada,
força policial ou militar, -
17:39 - 17:40para isso não ser possível
-
17:40 - 17:45A lógica, talvez, de ter
uma única pessoa ou um único grupo -
17:45 - 17:46capaz de dominar a humanidade
-
17:46 - 17:49significa que, a certa altura,
temos de ir por este caminho, -
17:49 - 17:51de alguma forma, não é?
-
17:51 - 17:54NB: É verdade que a escala
da organização política aumentou -
17:54 - 17:56ao longo da história humana.
-
17:56 - 17:59Primeiro era um bando
de caçadores-recoletores. -
17:59 - 18:02depois uma chefatura,
cidades-estados, nações. -
18:02 - 18:05Agora são organizações internacionais
etc., etc. -
18:06 - 18:09Mais uma vez, só quero assegurar,
ter a hipótese de sublinhar -
18:09 - 18:11que, obviamente,
há tremendos inconvenientes -
18:11 - 18:13e enormes riscos
-
18:13 - 18:16tanto na vigilância de massas
como na governação global. -
18:16 - 18:18Só estou a sublinhar
que, se tivermos sorte, -
18:18 - 18:21o mundo pode ser tal
que estas serão as únicas formas -
18:21 - 18:23de sobrevivermos a uma bola preta.
-
18:23 - 18:25CA: A lógica desta teoria
-
18:25 - 18:26segundo me parece,
-
18:26 - 18:30é que temos de reconhecer
que não podemos ter tudo. -
18:30 - 18:32De certo modo, eu diria
-
18:34 - 18:36que o sonho ingénuo
que muitos de nós temos -
18:36 - 18:40é que a tecnologia vai ser sempre
uma força para o bem, -
18:40 - 18:43que não devemos parar, mas avançar
o mais depressa possível -
18:43 - 18:45e não prestar atenção
a algumas das consequências. -
18:45 - 18:47Não temos opção.
-
18:47 - 18:49Podemos ter isso.
-
18:49 - 18:50Se tivermos isso,
-
18:50 - 18:52vamos ter de aceitar
-
18:52 - 18:55algumas das outras coisas
muito incómodas que vêm juntas -
18:55 - 18:57entramos na corrida ao armamento
com nós mesmos: -
18:57 - 18:59se quisermos o poder
devemos limitá-lo, -
18:59 - 19:01é melhor perceber
como limitá-lo. -
19:01 - 19:05NB: Penso que é uma opção,
uma opção muito tentadora, -
19:05 - 19:07de certo modo, a opção mais fácil
-
19:07 - 19:09e pode funcionar,
-
19:09 - 19:12mas significa que estamos
extremamente vulneráveis -
19:12 - 19:14a extrair a bola preta.
-
19:14 - 19:16Eu penso que, com um pouco
de coordenação -
19:16 - 19:18— resolvendo este problema
de macrogovernação, -
19:18 - 19:20e o problema da microgovernação —
-
19:20 - 19:22podemos extrair todas as bolas da urna
-
19:22 - 19:24e beneficiar imenso.
-
19:25 - 19:28CA: Mas, se estamos a viver
numa simulação, isso é importante? -
19:28 - 19:30Basta reiniciarmos.
-
19:30 - 19:31(Risos)
-
19:31 - 19:32NB: Bom... eu...
-
19:33 - 19:35(Risos)
-
19:35 - 19:37eu não vi isso a chegar.
-
19:38 - 19:40CA: Então, qual é a tua visão?
-
19:40 - 19:42Juntando todas as peças,
-
19:42 - 19:45qual é a probabilidade
de estarmos condenados? -
19:45 - 19:47(Risos)
-
19:47 - 19:50Adoro como as pessoas riem
quando eu faço esta pergunta. -
19:50 - 19:51NB: A nível individual,
-
19:51 - 19:54parece que estamos condenados,
mais tarde ou mais cedo, -
19:55 - 19:57estamos a apodrecer e a envelhecer
e todos os tipos de coisas. -
19:57 - 19:59(Risos)
-
19:59 - 20:01Na verdade, é um pouco complicado.
-
20:01 - 20:03Se nos quisermos preparar
para agarrar uma probabilidade, -
20:03 - 20:05a primeira coisa é:
quem somos nós? -
20:05 - 20:08Se formos muito velhos,
morreremos de causas naturais, -
20:08 - 20:10se formos muito novos
podemos chegar aos 100 anos, -
20:10 - 20:12consoante a quem perguntarem.
-
20:12 - 20:16Depois o limiar: o que conta
como devastação civilizacional? -
20:16 - 20:21No meu artigo eu não preciso
de uma catástrofe existencial -
20:22 - 20:23para que isso conte.
-
20:23 - 20:25É apenas uma questão de definição,
-
20:25 - 20:27digo mil milhões de mortos
-
20:27 - 20:29ou uma redução do PIB mundial
em 50%, -
20:29 - 20:31mas consoante o limiar
que for definido, -
20:31 - 20:33obtemos uma estimativa
diferente da probabilidade. -
20:33 - 20:37Acho que podem
acusar-me de otimista assustado. -
20:37 - 20:39(Risos)
-
20:39 - 20:40CA: És um otimista assustado
-
20:40 - 20:44e eu acho que acabaste de criar
um grande número -
20:44 - 20:46de outras pessoas assustadas.
-
20:46 - 20:47(Risos)
-
20:47 - 20:48NB: Na simulação.
-
20:48 - 20:49CA: Numa simulação.
-
20:49 - 20:51Nick Bostrom, o teu espírito maravilha-me.
-
20:51 - 20:54Muito obrigado por nos teres assustado.
-
20:54 - 20:56(Aplausos)
- Title:
- Como a civilização se pode destruir a si mesma — e quatro formas de o impedir
- Speaker:
- Nick Bostrom
- Description:
-
A Humanidade está a caminho de criar uma "bola preta": uma invenção tecnológica que pode destruir-nos a todos, diz o filósofo Nick Bostrom. Nesta conversa incisiva e surpreendentemente despreocupada, com Chris Anderson, Bostrom sublinha as vulnerabilidades que podemos encontrar se (ou quando) as nossas invenções escapem ao nosso controlo — e explora como podemos impedir o colapso do nosso futuro.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
Margarida Ferreira approved Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Margarida Ferreira edited Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Camila Frade accepted Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Camila Frade edited Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Margarida Ferreira edited Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Margarida Ferreira edited Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Margarida Ferreira edited Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Margarida Ferreira edited Portuguese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |