Como a civilização poderia se autodestruir, e quatro possíveis soluções para prevenir isso
-
0:01 - 0:03Chris Anderson: Nick Bostrom.
-
0:03 - 0:07Bem, você já nos apresentou
muitas ideias loucas por aí. -
0:07 - 0:09Acho que, há algumas décadas,
-
0:09 - 0:12você argumentou sobre a possibilidade
de vivermos numa simulação, -
0:12 - 0:13ou talvez a probabilidade disso.
-
0:13 - 0:15Mais recentemente,
-
0:15 - 0:19ilustrou os mais vívidos exemplos
de como a inteligência artificial -
0:19 - 0:22poderia tomar um caminho terrível.
-
0:22 - 0:23E agora, este ano,
-
0:23 - 0:25você está prestes a publicar
-
0:25 - 0:29um artigo que apresenta algo chamado
de "A Hipótese do Mundo Vulnerável". -
0:29 - 0:34Nosso trabalho esta noite é de fornecer
o guia ilustrado para ela. -
0:34 - 0:36Então, vamos fazê-lo.
-
0:37 - 0:39O que é essa hipótese?
-
0:40 - 0:42Nick Bostrom: É a de tentar pensar
-
0:42 - 0:46sobre uma espécie de característica
estrutural da atual condição humana. -
0:47 - 0:49Você gosta da metáfora da urna,
-
0:50 - 0:51então eu a utilizarei na explicação.
-
0:52 - 0:56Imagine uma grande urna
preenchida por bolas -
0:56 - 1:00que representam ideias, métodos
e possíveis tecnologias. -
1:01 - 1:05Você pode pensar sobre
a história da criatividade humana -
1:05 - 1:09como o processo de enfiar a mão nessa urna
e tirar uma bola após a outra, -
1:09 - 1:12e o efeito em rede até agora
tem sido muito benéfico, certo? -
1:12 - 1:14Nós extraímos muitíssimas bolas brancas,
-
1:14 - 1:17e algumas com tons cinzas,
bênçãos misturadas. -
1:18 - 1:21Nós ainda não tiramos a bola
completamente escura... -
1:22 - 1:28uma tecnologia que invariavelmente
destrói a civilização que a descobre. -
1:28 - 1:31Então, o artigo tenta imaginar
o que seria tal bola completamente escura. -
1:31 - 1:33CA: Então, você define a bola
-
1:33 - 1:37como aquela que inevitavelmente
provoca a destruição da civilização. -
1:37 - 1:42NB: A não ser que abandonemos o que chamo
de condição semi-anárquica padrão. -
1:42 - 1:43Mas assim, através de um padrão.
-
1:44 - 1:50CA: Você argumenta convincentemente,
mostrando alguns tipos de contra-exemplos -
1:50 - 1:53nos quais acredita que, até hoje,
na verdade tivemos sorte, -
1:53 - 1:56pois possivelmente já
tiramos essa bola devastadora -
1:56 - 1:57sem termos nos dado conta disso.
-
1:57 - 1:59Há uma citação; o que ela significa?
-
1:59 - 2:01[O progresso da mecânica trará a Bomba-H]
-
2:01 - 2:03NB: Acho que ela quer ilustrar
-
2:03 - 2:05a dificuldade em prever
-
2:05 - 2:08até onde as descobertas
básicas podem nos levar. -
2:08 - 2:11Nós simplesmente não temos
esse tipo de capacidade. -
2:11 - 2:15Porque nos tornamos muito bons
em tirar bolas da urna, -
2:15 - 2:18mas não temos de fato a capacidade
de colocá-las de volta. -
2:18 - 2:21Podemos inventar algo,
mas não "desinventar". -
2:22 - 2:24Sendo assim, nossa estratégia
-
2:24 - 2:27é esperar que não haja
nenhuma bola escura na urna. -
2:27 - 2:31CA: Então, uma vez que está fora,
está fora, e não se pode colocar de volta, -
2:31 - 2:32e você acha que temos tido sorte.
-
2:32 - 2:35Fale sobre alguns desses exemplos.
-
2:35 - 2:38Você menciona diferentes
tipos de vulnerabilidade. -
2:38 - 2:40NB: O tipo mais fácil de entender
-
2:40 - 2:43é uma tecnologia que facilita muito
-
2:43 - 2:46causar enormes quantidades de destruição.
-
2:47 - 2:51A biologia sintética pode ser uma fonte
fértil desse tipo de bola escura, -
2:51 - 2:54mas há muitas outras coisas
possíveis que poderíamos... -
2:54 - 2:56pense na geoengenharia, que é ótima.
-
2:56 - 2:59Poderíamos usá-la no combate
ao aquecimento global, -
2:59 - 3:01mas também não é ideal
facilitar esse acesso, -
3:01 - 3:03pois não queremos que alguém e sua avó
-
3:03 - 3:06tenham a habilidade de alterar
radicalmente o clima da Terra. -
3:06 - 3:10Ou talvez os drones autônomos letais,
-
3:10 - 3:14produzidos em massa; enxames de robôs
assassinos do tamanho de mosquitos. -
3:14 - 3:17A nanotecnologia,
a inteligência artificial geral. -
3:17 - 3:21CA: Você argumenta no artigo que foi
questão de sorte quando descobrimos -
3:22 - 3:25que o poder nuclear podia criar bombas,
-
3:25 - 3:26porque poderia ter sido o caso
-
3:26 - 3:28de podermos fazer bombas
-
3:28 - 3:32com recursos muito mais fáceis,
acessíveis a qualquer um. -
3:32 - 3:35NB: Sim, então, pense na década de 1930,
-
3:35 - 3:40na qual, pela primeira vez, nós fizemos
grandes descobertas na física nuclear, -
3:40 - 3:44e um gênio descobre que é possível
criar uma reação nuclear em cadeia, -
3:44 - 3:47e percebe que isso pode gerar uma bomba.
-
3:47 - 3:49E então, trabalhamos um pouco mais,
-
3:49 - 3:52e descobrimos que para fazer
uma bomba nuclear é necessário -
3:52 - 3:55ter elementos como urânio
ou plutônio altamente enriquecidos, -
3:55 - 3:56que são bem difíceis de se obter.
-
3:56 - 3:58É preciso o uso de ultracentrifugadoras,
-
3:58 - 4:02de reatores e de quantidades
imensas de energia. -
4:02 - 4:04Mas suponha que, em vez disso,
-
4:04 - 4:08houvesse uma maneira mais fácil
de desbloquear a energia daquele átomo. -
4:08 - 4:12Que, talvez, ao cozinhar areia
no micro-ondas, ou algo do tipo, -
4:12 - 4:14seri possível ter criado
uma detonação nuclear. -
4:14 - 4:16Hoje, sabemos que isso
é fisicamente impossível; -
4:16 - 4:21mas, antes de fazer o cálculo de física,
como poderíamos saber que seria assim? -
4:21 - 4:22CA: Mas você não poderia argumentar
-
4:22 - 4:24que para a vida se desenvolver na Terra
-
4:24 - 4:29isso implicou um tipo de ambiente estável,
e que se fosse possível -
4:29 - 4:32criar de forma relativamente fácil
reações nucleares maciças, -
4:32 - 4:35a Terra nunca teria sido estável,
e nós nem estaríamos aqui? -
4:35 - 4:38NB: Sim, a não ser que isso envolvesse
algo que é fácil fazer de propósito, -
4:38 - 4:41mas que não poderia
acontecer aleatoriamente. -
4:41 - 4:45Como coisas que fazemos com facilidade,
por exemplo: empilhar dez blocos; -
4:45 - 4:48e, no entanto, na natureza
não encontramos uma pilha assim. -
4:48 - 4:50CA: Certo, a próxima é provavelmente
-
4:50 - 4:52aquela com a maioria
de nós mais se preocupa; -
4:52 - 4:55e sim, a biologia sintética talvez seja
a rota mais rápida que podemos ver -
4:55 - 4:58em nosso futuro próximo
para nos levar a esse ponto. -
4:58 - 5:01NB: Sim, então pense sobre
o que isso teria significado -
5:01 - 5:05se, digamos, qualquer pessoa trabalhando
em sua cozinha por uma tarde -
5:05 - 5:07pudesse destruir uma cidade.
-
5:07 - 5:10É difícil ver como a civilização moderna
da maneira como a conhecemos -
5:10 - 5:12poderia ter sobrevivido a isso.
-
5:12 - 5:14Porque, em qualquer população
de milhões de pessoas -
5:14 - 5:17sempre haverá alguém que,
por qualquer motivo, -
5:17 - 5:19escolheria usar esse poder destrutivo.
-
5:20 - 5:23Então, se esse resíduo apocalíptico
-
5:23 - 5:26escolhesse destruir uma cidade ou pior,
então as cidades seriam destruídas. -
5:26 - 5:29CA: Então, aqui temos
outro tipo de vulnerabilidade. -
5:29 - 5:31Fale sobre isso.
-
5:31 - 5:35NB: Além dessas espécies de bola escura,
que são um pouco óbvias, -
5:35 - 5:37que permitiriam explodir várias coisas,
-
5:37 - 5:42outros tipos agiriam no sentido
de criar estímulos ruins -
5:42 - 5:44para que humanos
tomassem atitudes prejudiciais. -
5:44 - 5:48Então, o Tipo 2A, podemos chamá-la assim,
-
5:48 - 5:53é para pensar sobre alguma tecnologia
que estimula que grandes poderes -
5:53 - 5:57usem suas quantidades maciças
de força para causar destruição. -
5:57 - 6:01As armas nucleares na verdade
estavam bem próximas disso, certo? -
6:02 - 6:08Nós gastamos mais de US$ 10 trilhões
para construir 70 mil ogivas nucleares -
6:08 - 6:10e colocá-las em alerta de gatilho.
-
6:10 - 6:14E houve várias ocasiões na Guerra Fria
em que quase explodimos um ao outro. -
6:14 - 6:17Não que muitos achassem
que essa era uma ótima ideia, -
6:17 - 6:19gastar US$ 10 trilhões
para explodir uns aos outros, -
6:19 - 6:22mas os estímulos eram tais
que não tínhamos saída... -
6:22 - 6:23e poderia ter sido pior.
-
6:23 - 6:26Imagine se tivesse havido
um primeiro ataque seguro. -
6:26 - 6:30Então, teria sido muito complicado,
numa situação de crise, -
6:30 - 6:33evitar o lançamento de todos
os mísseis nucleares deles. -
6:33 - 6:36Se não por outra razão, pelo medo
do outro lado também fazê-lo. -
6:36 - 6:38CA: A certeza da destruição mútua
-
6:38 - 6:41manteve a Guerra Fria
relativamente estável, -
6:41 - 6:43e sem isso, possivelmente
não estaríamos aqui. -
6:43 - 6:46NB: Poderia ter sido mais instável,
e provocado outras questões tecnológicas. -
6:46 - 6:50Poderia ter sido mais difícil
ter tratados militares -
6:50 - 6:51se ao invés de armas nucleares
-
6:51 - 6:54tivesse sido algo menor ou menos distinto.
-
6:54 - 6:57CA: Assim como estímulos ruins
para agentes poderosos, -
6:57 - 7:00você também se preocupa com estímulos
ruins para todos nós no Tipo 2B, aqui. -
7:00 - 7:05NB: Então, aqui, nós podemos
exemplificar com o aquecimento global. -
7:07 - 7:09Há várias pequenas conveniências
-
7:09 - 7:11que induzem cada um de nós a fazer coisas
-
7:11 - 7:14que individualmente não têm
nenhum efeito significativo, certo? -
7:14 - 7:18Mas, se bilhões de pessoas as fazem
cumulativamente, o efeito é prejudicial. -
7:18 - 7:21O aquecimento global poderia
ter sido bem pior do que é. -
7:21 - 7:24Nós temos o parâmetro
de sensibilidade climática. -
7:24 - 7:27É um parâmetro que nos diz
o quão mais quente o mundo fica -
7:27 - 7:30ao emitirmos certa quantidade
de gases de efeito estufa. -
7:30 - 7:33Mas, suponha que fosse o caso
-
7:33 - 7:35de que com o volume de gases
de efeito estufa que emitimos, -
7:35 - 7:37em vez da temperatura subir,
-
7:37 - 7:41digamos, entre 3 °C e 4,5 °C até 2100,
-
7:41 - 7:44ela subisse 15 °C ou 20 °C.
-
7:44 - 7:46Ficaríamos numa situação muito ruim.
-
7:46 - 7:50Ou suponha que a energia renovável
fosse bem mais difícil de produzir, -
7:50 - 7:52ou que tivesse mais combustíveis
fósseis sob o solo. -
7:52 - 7:57CA: Você não poderia argumentar
que caso o que estamos fazendo hoje -
7:57 - 8:02tivesse resultado na diferença de 10 °C
num período de tempo que podíamos prever, -
8:02 - 8:06na verdade a humanidade teria
se esforçado e feito algo sobre isso. -
8:06 - 8:08Somos estúpidos, mas não tanto assim.
-
8:08 - 8:10Ou talvez sejamos.
NB: Eu não apostaria nisso. -
8:10 - 8:12(Risos)
-
8:13 - 8:15Você pode imaginar outras condições.
-
8:15 - 8:16Então...
-
8:16 - 8:20nesse momento, é um pouco difícil
mudar para renováveis e coisas do tipo, -
8:20 - 8:22mas isso pode ser feito.
-
8:22 - 8:25Mas é possível que com um tipo
de física levemente diferente, -
8:25 - 8:27teria sido muito mais caro
fazer coisas desse gênero. -
8:28 - 8:30CA: E qual é sua visão, Nick?
-
8:30 - 8:32Acha que ao juntar tais possibilidades,
-
8:32 - 8:38que essa humanidade que somos,
nós contamos como um mundo vulnerável? -
8:38 - 8:41Há uma bola da morte em nosso futuro?
-
8:44 - 8:45NB: É difícil dizer.
-
8:45 - 8:50Acho que é possível haver
várias bolas escuras na urna, -
8:50 - 8:52isso é o que parece.
-
8:52 - 8:54Também parece haver algumas bolas douradas
-
8:54 - 8:58que ajudariam a nos proteger
dessas bolas escuras. -
8:58 - 9:01E eu não sei em qual ordem elas sairão.
-
9:01 - 9:04CA: Bem, uma possível
crítica filosófica a essa ideia -
9:04 - 9:10é que ela implica na visão de que o futuro
está essencialmente determinado. -
9:10 - 9:13Ou seja: ou essa bola está lá, ou não.
-
9:13 - 9:18E, de certa forma, essa não é uma visão
de futuro na qual eu quero acreditar. -
9:18 - 9:21Quero acreditar
que o futuro é indeterminado, -
9:21 - 9:23que são as decisões
de hoje que determinarão -
9:23 - 9:25os tipos de bolas que pegaremos da urna.
-
9:26 - 9:30NB: Bem, se nós apenas
continuarmos inventando, -
9:30 - 9:32eventualmente pegaremos todas as bolas.
-
9:33 - 9:38Acho que há uma certa forma fraca
de determinismo tecnológico bem plausível, -
9:38 - 9:40do tipo: é improvável
que encontremos uma sociedade -
9:40 - 9:43que use tanto eixos de pederneira
quanto aviões a jato. -
9:44 - 9:48Mas podemos quase pensar sobre
tecnologia como um conjunto de recursos. -
9:48 - 9:51Então, a tecnologia é algo
que permite fazer várias coisas -
9:51 - 9:53e alcançar inúmeros efeitos no mundo.
-
9:53 - 9:56Agora, a maneira de utilizá-la
é algo que depende da escolha humana. -
9:56 - 9:59Mas, pensando sobre esses três
tipos de vulnerabilidade, -
9:59 - 10:02eles fazem suposições bem fracas
sobre como escolheríamos utilizá-las. -
10:02 - 10:06A vulnerabilidade Tipo 1, de novo,
esse imenso poder destrutivo, -
10:06 - 10:07é uma hipótese bastante fraca
-
10:07 - 10:10de pensar que numa população
de milhões de pessoas -
10:10 - 10:13somente algumas escolheriam
usá-la de maneira destrutiva. -
10:13 - 10:15CA: Para mim, o argumento
mais perturbador de todos -
10:15 - 10:20é o de que, na verdade, temos uma certa
visão do lado de dentro da urna -
10:20 - 10:23que nos faz perceber que é bem provável
que estejamos condenados. -
10:23 - 10:28Isto é, se acreditamos
no poder de aceleramento, -
10:28 - 10:30de que a tecnologia
inerentemente se acelera, -
10:30 - 10:33de que construímos ferramentas
que nos dão mais poder, -
10:33 - 10:35então, em algum momento,
chegaremos num estágio -
10:35 - 10:38no qual um indivíduo qualquer
poderá matar todo mundo, -
10:38 - 10:41e, por isso, parece que estamos ferrados.
-
10:41 - 10:44Esse argumento não é bem alarmante?
-
10:44 - 10:46NB: Bem, sim.
-
10:47 - 10:48(Risos)
-
10:48 - 10:49Eu acho...
-
10:51 - 10:53É, nós obtemos cada vez mais poder,
-
10:53 - 10:56e fica cada vez mais fácil
utilizar esses poderes, -
10:56 - 11:00mas também podemos inventar tecnologias
que nos ajudem a ter certo controle -
11:00 - 11:02de como as pessoas os utilizam.
-
11:02 - 11:04CA: Então, falemos sobre a resposta.
-
11:04 - 11:09Suponha que pensar sobre todas
as possibilidades que já existem... -
11:09 - 11:13não é só a biologia sintética,
mas a guerra cibernética, -
11:13 - 11:16inteligência artificial, etc...
-
11:17 - 11:21que podem ser uma séria
ruína em nosso futuro. -
11:21 - 11:23Quais são as possíveis respostas?
-
11:23 - 11:27Você também falou sobre
quatro possíveis respostas. -
11:28 - 11:31NB: Restringir o desenvolvimento
tecnológico não parece promissor, -
11:31 - 11:35se estamos falando de uma parada geral
do progresso tecnológico. -
11:35 - 11:38Também não acho factível ou desejável,
ainda que pudéssemos fazer isso. -
11:38 - 11:41Acho que pode haver várias áreas limitadas
-
11:41 - 11:44nas quais talvez seria bom
abrandar o progresso tecnológico. -
11:44 - 11:47Não queremos um progresso
mais rápido das armas biológicas, -
11:47 - 11:49ou em, digamos, separação isotópica,
-
11:49 - 11:52que facilitaria a criação
de armas nucleares. -
11:53 - 11:56CA: Eu costumava ser
totalmente a favor dessa rapidez. -
11:56 - 11:59Mas na verdade, eu gostaria
de discordar dela por um momento. -
11:59 - 12:01Apenas porque, primeiro,
-
12:01 - 12:03se observarmos a história
das últimas décadas, -
12:03 - 12:07os avanços foram acelerados
na velocidade máxima, -
12:07 - 12:09e essa é nossa única escolha.
-
12:09 - 12:13Mas se considerarmos a globalização
e sua rápida aceleração, -
12:13 - 12:16e observarmos a estratégia
de "mover depressa e quebrar tudo" -
12:16 - 12:19e o que aconteceu com isso,
-
12:19 - 12:21e então observamos o potencial
da biologia sintética, -
12:21 - 12:26eu não sei se deveríamos
nos mover rapidamente -
12:26 - 12:27ou sem qualquer tipo de restrição
-
12:27 - 12:31para um mundo onde se pode ter
uma impressora de DNA em toda casa -
12:31 - 12:33e laboratórios de escola de ensino médio.
-
12:33 - 12:35Há algumas restrições, não é?
-
12:35 - 12:38NB: Talvez a primeira parte,
sobre isso não ser factível. -
12:38 - 12:40Se pensarmos que seria
desejável parar isso, -
12:40 - 12:41há o problema da viabilidade.
-
12:42 - 12:44Então realmente não ajuda
quando uma nação meio que... -
12:44 - 12:46CA: Não ajuda se uma nação o faz,
-
12:46 - 12:49mas nós tivemos tratados antes.
-
12:49 - 12:53Foi realmente assim
que sobrevivemos à ameaça nuclear, -
12:53 - 12:56nos expondo e enfrentando
o doloroso processo de negociação. -
12:57 - 13:02Só me pergunto se a lógica não é que nós,
como um assunto de prioridade global, -
13:02 - 13:05não deveríamos tentar, por exemplo,
começar a negociar agora -
13:05 - 13:09regras bem estritas sobre até onde
a biopesquisa com sintéticos pode ir, -
13:09 - 13:12porque isso não é algo
que se queira democratizar, certo? -
13:12 - 13:14NB: Eu concordo plenamente com isso...
-
13:14 - 13:18que seria desejável, por exemplo,
-
13:18 - 13:22talvez ter máquinas de síntese de DNA,
-
13:22 - 13:25não como produto no qual todo laboratório
teria seu próprio dispositivo, -
13:25 - 13:27mas talvez como um serviço.
-
13:27 - 13:29Talvez poderia haver quatro
ou cinco lugares no mundo -
13:29 - 13:33para onde se mandasse um planta digital
e o DNA fosse enviado de volta. -
13:33 - 13:35E então, teríamos a habilidade,
-
13:35 - 13:37se um dia realmente parecesse necessário,
-
13:37 - 13:39de ter um conjunto determinado
de pontos de bloqueio. -
13:39 - 13:43Então, acho que devemos olhar
para aquelas oportunidades especiais, -
13:43 - 13:45nas quais podemos
ter um controle mais rígido. -
13:45 - 13:47CA: Sua crença é, fundamentalmente,
-
13:47 - 13:50de que não seremos bem-sucedidos
ao ficarmos só na retaguarda. -
13:50 - 13:53Em algum lugar, alguém,
na Coreia do Norte, quem sabe? -
13:53 - 13:57Alguém no mundo vai descobrir
esse conhecimento, se ele existir. -
13:57 - 14:00NB: Isso parece plausível
sob as condições atuais. -
14:00 - 14:02E não se trata só da biologia sintética;
-
14:02 - 14:04qualquer tipo de mudança
nova e profunda no mundo -
14:04 - 14:06poderia vir a ser uma bola escura.
-
14:06 - 14:08CA: Vamos olhar outra possível resposta.
-
14:08 - 14:10NB: Considero que isso
também tenha potencial limitado. -
14:10 - 14:14Então, com a vulnerabilidade
de Tipo 1, de novo, -
14:14 - 14:18se pudermos reduzir o número
de pessoas que são incentivadas -
14:18 - 14:19a destruir o mundo,
-
14:19 - 14:22as que têm acesso e meios
para destruí-lo, isso seria bom. -
14:22 - 14:26CA: Nesta imagem você imagina
esses drones viajando pelo mundo -
14:26 - 14:28com reconhecimento facial.
-
14:28 - 14:32Quando reconhece alguém que demonstra
sinais de comportamento sociopata, -
14:32 - 14:34o drone o "banha com amor" e o "conserta".
-
14:34 - 14:36NB: Acho que é tipo uma figura híbrida.
-
14:36 - 14:40Eliminar pode significar
encarcerar ou matar, -
14:40 - 14:43ou persuadir alguém a ter
uma visão melhor do mundo. -
14:43 - 14:45Mas o ponto é,
-
14:45 - 14:47suponha que você fosse muito
bem-sucedido nisso, -
14:47 - 14:50e reduzisse o número de tais
indivíduos pela metade. -
14:50 - 14:52E se quiser fazer isso pela persuasão,
-
14:52 - 14:55está competindo contra
todas as outras forças de poder -
14:55 - 14:58que tentam persuadir as pessoas:
política, religião, sistemas de educação. -
14:58 - 15:00Mas, supondo que os reduza pela metade,
-
15:00 - 15:02não acho que o risco seria
reduzido pela metade. -
15:02 - 15:04Talvez por 5% ou 10%.
-
15:04 - 15:08CA: Não está recomendado que apostemos
o futuro da humanidade na resposta dois. -
15:08 - 15:11NB: Acho muito bom tentar
dissuadir e persuadir as pessoas, -
15:11 - 15:14mas não deveríamos depender disso
como nossa única salvaguarda. -
15:14 - 15:15CA: E quanto à três?
-
15:15 - 15:18NB: Acho que há dois métodos gerais
-
15:18 - 15:22que podemos usar para alcançar
a habilidade de estabilizar o mundo -
15:22 - 15:25contra o espectro total
das possíveis vulnerabilidades. -
15:25 - 15:27E provavelmente precisaríamos de ambos.
-
15:27 - 15:31Então, um é uma habilidade
extremamente eficaz -
15:32 - 15:35de fazer policiamento preventivo,
com a possibilidade de interceptação. -
15:35 - 15:38Se alguém começar a fazer algo perigoso,
-
15:38 - 15:40podemos interceptá-lo
em tempo real, e pará-lo. -
15:40 - 15:43Assim, isso iria requerer
vigilância onipresente: -
15:43 - 15:46todo mundo sendo monitorado o tempo todo.
-
15:46 - 15:49CA: É basicamente o filme
"Minority Report - A Nova Lei". -
15:49 - 15:51NB: Você talvez tivesse algoritmos de IA,
-
15:51 - 15:55grandes centros de liberdade
que ficariam revendo isso, etc. -
15:57 - 16:01CA: Sabe que a vigilância das massas
não é muito popular hoje? -
16:01 - 16:03(Risos)
-
16:03 - 16:05NB: Bem, sobre o dispositivo da figura,
-
16:05 - 16:09imagine um tipo de colar
que teríamos que usar o tempo todo -
16:09 - 16:11com câmeras multidirecionais.
-
16:12 - 16:14Mas, para ficar mais palatável,
-
16:14 - 16:16vamos chamá-lo de algo do tipo
"etiqueta da liberdade". -
16:16 - 16:18(Risos)
-
16:18 - 16:19CA: Tudo bem.
-
16:20 - 16:24Essa é a conversa, amigos,
e por isso é tão intrigante. -
16:24 - 16:27NB: Na verdade, há outra
conversa enorme sobre isso -
16:27 - 16:29paralelamente à nossa, claro.
-
16:29 - 16:32Há problemas enormes
e riscos sobre isso, né? -
16:32 - 16:33Nós podemos voltar a isso.
-
16:33 - 16:37Então a a outra capacidade
final de estabilização geral -
16:37 - 16:39está obstruindo uma outra
lacuna de governança. -
16:39 - 16:43A vigilância seria um tipo de lacuna
de governança a um micronível, -
16:43 - 16:46a ponto de impedir todo mundo
de fazer qualquer coisa altamente ilegal. -
16:46 - 16:51Então, há a lacuna de governança
correspondente a nível global. -
16:51 - 16:54Precisaríamos da habilidade
e da confiabilidade -
16:54 - 16:57para prevenir os piores tipos de falhas
de coordenação global, -
16:57 - 17:01e evitar guerras entre grandes poderes,
-
17:01 - 17:03corridas armamentistas,
-
17:04 - 17:06problemas comuns de cataclismo...
-
17:08 - 17:12para poder lidar com
as vulnerabilidades do Tipo 2A. -
17:12 - 17:16CA: Governança global é um termo
bem fora de moda agora, -
17:16 - 17:20mas você poderia dizer que,
ao longo da história da humanidade, -
17:20 - 17:25a cada estágio de crescimento
de poder tecnológico, -
17:25 - 17:29as pessoas reorganizaram
e, de certa forma, centralizaram o poder? -
17:29 - 17:32Assim, por exemplo, quando
um bando itinerante de criminosos -
17:32 - 17:34tentasse dominar uma sociedade,
-
17:34 - 17:36a resposta de uma nação-estado seria
-
17:36 - 17:40centralizar a força policial ou militar
e dizer: "Vocês não podem fazer isso". -
17:40 - 17:45Talvez a lógica de que uma única pessoa
ou um único grupo fosse capaz -
17:45 - 17:49de assumir o controle da humanidade
significa que em algum ponto -
17:49 - 17:51teremos que considerar isso, não?
-
17:51 - 17:54NB: É verdade que a escala
de organização política aumentou -
17:54 - 17:56através do curso da história humana.
-
17:56 - 17:59Costumava ser um grupo
de caçadores-coletores, -
17:59 - 18:01então uma chefia,
depois cidades-estados, e nações, -
18:02 - 18:05agora há organizações
internacionais, e por aí vai. -
18:06 - 18:11De novo, quero ter a chance de enfatizar
que obviamente há grandes desvantagens -
18:11 - 18:12e, certamente, riscos concretos,
-
18:12 - 18:16tanto para a vigilância de massa
quanto para a governança global. -
18:16 - 18:18Só estou apontando que, se tivermos sorte,
-
18:18 - 18:21o mundo poderia ser tal
que essas seriam as únicas formas -
18:21 - 18:22de sobreviver a uma bola escura.
-
18:22 - 18:25CA: A lógica dessa teoria,
-
18:25 - 18:26me parece,
-
18:26 - 18:30é a de que temos que reconhecer
que não podemos ter tudo. -
18:30 - 18:32Que, assim,
-
18:34 - 18:36esse "sonho ingênuo"
que muitos de nós tínhamos -
18:36 - 18:40de que a tecnologia sempre seria
uma força para o bem, -
18:40 - 18:43sempre indo, sem parar,
o mais rápido que pudesse, -
18:43 - 18:45sem prestar atenção
para certas consequências, -
18:45 - 18:47isso de fato não é uma opção.
-
18:47 - 18:49Nós podemos ter isso,
-
18:49 - 18:54mas aí teremos que aceitar outras
coisas desconfortáveis inerentes a isso -
18:54 - 18:57e entrar numa corrida armamentista
contra nós mesmos, -
18:57 - 19:01na qual, se quisermos o poder,
precisaremos descobrir como limitá-lo. -
19:01 - 19:04NB: Acredito que essa seja uma opção,
-
19:04 - 19:09e bem tentadora, no sentido de que é
a mais fácil e que pode dar certo, -
19:09 - 19:13mas significa, basicamente, que ficamos
vulneráveis a extrair uma bola escura. -
19:13 - 19:16Acho que com certa coordenação,
-
19:16 - 19:20se resolvêssemos esse problema
de micro e macrogovernança, -
19:20 - 19:22então poderíamos extrair
todas as bolas da urna -
19:22 - 19:25e nos beneficiaríamos grandemente.
-
19:25 - 19:28CA: Bem, se estamos vivendo
em uma simulação, isso importa? -
19:28 - 19:29Nós apenas reiniciaríamos.
-
19:29 - 19:32(Risos)
-
19:35 - 19:37Eu não esperava por isso.
-
19:38 - 19:39CA: E qual a sua visão?
-
19:39 - 19:44Encaixando todos os pedaços,
é provável que estejamos condenados? -
19:44 - 19:46(Risos)
-
19:47 - 19:49Adoro quando as pessoas riem
quando você pergunta isso. -
19:49 - 19:51NB: Em um nível individual,
-
19:51 - 19:55parecemos condenados de qualquer jeito
pela questão da linha do tempo, -
19:55 - 19:58já que estamos apodrecendo,
envelhecendo, e tudo isso, não é? -
19:58 - 19:59(Risos)
-
19:59 - 20:01De fato, é um pouco complexo.
-
20:01 - 20:05Para prever uma probabilidade,
primeiro: de quem estamos falando? -
20:05 - 20:07Um idoso, provavelmente
morrerá de causas naturais, -
20:07 - 20:12alguém bem jovem ainda terá uns 100 anos;
a probabilidade dependerá do receptor. -
20:12 - 20:16E então, o limite, o que contaria
como a devastação da civilização? -
20:16 - 20:22No artigo eu não preciso
de uma catástrofe existencial -
20:22 - 20:23para que se conte como tal.
-
20:23 - 20:26É só uma questão de definição,
digamos, um bilhão de mortos, -
20:26 - 20:29ou uma redução do PIB mundial de 50%;
-
20:29 - 20:33mas dependendo do que coloca como limite,
a estimativa da probabilidade é diferente. -
20:33 - 20:37Mas acho que você poderia me menosprezar
dizendo que sou um otimista assustado. -
20:37 - 20:38(Risos)
-
20:38 - 20:40CA: Você é um otimista assustado,
-
20:40 - 20:44e acho que acabou de criar
um grande número de outras... -
20:44 - 20:45pessoas assustadas.
-
20:45 - 20:46(Risos)
-
20:46 - 20:49NB: Dentro da simulação.
CA: Dentro de uma simulação! -
20:49 - 20:51Nick Bostrom, sua mente me fascina,
-
20:51 - 20:54muito obrigado por assustar
todos nós imensamente. -
20:54 - 20:56(Aplausos)
- Title:
- Como a civilização poderia se autodestruir, e quatro possíveis soluções para prevenir isso
- Speaker:
- Nick Bostrom
- Description:
-
A humanidade está a ponto de criar uma "bola escura": uma descoberta tecnológica que poderia destruir todos nós, diz o filósofo Nick Bostrom. Nesta conversa incisiva e surpreendentemente despreocupada com o curador do TED, Chris Anderson, Bostrom delineia as vulnerabilidades que podemos enfrentar se, ou quando, nossas invenções saírem de nosso controle, e explora como podemos prevenir nossa futura destruição.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09