Return to Video

Como a civilização se pode destruir a si mesma — e quatro formas de o impedir

  • 0:01 - 0:03
    Chris Anderson: Nick Bostrom.
  • 0:03 - 0:07
    Já nos deste muitas ideias incríveis.
  • 0:07 - 0:09
    Penso que aqui há décadas
  • 0:09 - 0:12
    defendeste a ideia de que podemos
    estar a viver numa simulação,
  • 0:12 - 0:14
    ou provavelmente, estávamos.
  • 0:14 - 0:15
    Mais recentemente,
  • 0:15 - 0:18
    descreveste os exemplos
    mais impressionantes
  • 0:18 - 0:22
    de como a inteligência artificial
    poderá vir a gerar resultados terríveis.
  • 0:22 - 0:25
    E este ano, estás prestes a publicar
  • 0:26 - 0:30
    um artigo que apresenta uma coisa
    chamada a hipótese do mundo vulnerável.
  • 0:30 - 0:34
    O nosso papel esta noite é apresentar
    um guia ilustrado sobre esse tema.
  • 0:35 - 0:36
    Vamos a isso.
  • 0:37 - 0:39
    Que hipótese é essa?
  • 0:40 - 0:43
    Nick Bostrom: É uma tentativa de reflexão
  • 0:43 - 0:46
    sobre uma característica estrutural
    da atual condição humana.
  • 0:48 - 0:50
    Tu gostas da metáfora da urna,
  • 0:50 - 0:52
    por isso vou usá-la para explicar melhor.
  • 0:52 - 0:55
    Imagina uma grande urna
    cheia de bolas,
  • 0:56 - 1:00
    que representam ideias, métodos,
    possíveis tecnologias.
  • 1:01 - 1:05
    Podes pensar na história
    da criatividade humana
  • 1:05 - 1:09
    como o processo de chegar a esta urna
    e ir tirando uma bola atrás de outra.
  • 1:09 - 1:12
    Até aqui, o efeito tem sido
    muito benéfico, não é?
  • 1:12 - 1:15
    Já extraímos uma grande quantidade
    de bolas brancas,
  • 1:15 - 1:18
    algumas de vários tons de cinzento,
    com prós e contras.
  • 1:18 - 1:21
    Até agora não tirámos a bola preta
  • 1:22 - 1:28
    — uma tecnologia que destrua fatalmente
    a civilização que a encontrar.
  • 1:29 - 1:31
    O artigo procura refletir
    no que será essa bola preta.
  • 1:31 - 1:33
    CA: Então, defines essa bola
  • 1:33 - 1:37
    como aquela que, inevitavelmente,
    provocará a destruição da civilização.
  • 1:37 - 1:40
    NB: A não ser que abandonemos
    aquilo a que chamo
  • 1:40 - 1:42
    a situação semianárquica, por defeito
  • 1:42 - 1:45
    mas, de qualquer modo, por defeito.
  • 1:46 - 1:51
    CA: Argumentas de forma convincente
    apresentando contraexemplos
  • 1:50 - 1:53
    de que, segundo crês,
    temos tido muita sorte, até agora,
  • 1:53 - 1:56
    em que podíamos ter tirado
    essa bola mortífera
  • 1:56 - 1:58
    sem sequer darmos por isso.
  • 1:58 - 1:59
    O que é esta citação?
  • 1:59 - 2:02
    ["O Progresso Contínuo na Mecânica
    Celestial produzirá a bomba H"]
  • 2:02 - 2:04
    NB: Penso que pretende ilustrar
  • 2:04 - 2:08
    a dificuldade de prever aonde nos levarão
    as descobertas elementares.
  • 2:09 - 2:11
    Não temos essa capacidade.
  • 2:11 - 2:15
    Porque tornámo-nos muito bons
    a extrair as bolas,
  • 2:15 - 2:18
    mas não temos a capacidade
    de voltar a pôr a bola na urna.
  • 2:18 - 2:21
    Podemos inventar,
    mas não podemos des-inventar.
  • 2:21 - 2:24
    A nossa estratégia atual
  • 2:24 - 2:27
    é ter a esperança de que não haja
    nenhuma bola preta na urna.
  • 2:27 - 2:31
    CA: Depois de aparecer, está cá fora
    e não podemos voltar a pô-la lá dentro
  • 2:31 - 2:33
    e tu pensas que temos tido sorte.
  • 2:33 - 2:35
    Fala-nos de alguns desses exemplos.
  • 2:35 - 2:38
    Falas de diferentes tipos
    de vulnerabilidade.
  • 2:39 - 2:40
    NB: O tipo mais fácil de perceber
  • 2:40 - 2:46
    é uma tecnologia que torna
    muito fácil uma destruição maciça.
  • 2:47 - 2:51
    A biologia sintética pode ser
    uma fonte fecunda duma bola preta,
  • 2:51 - 2:54
    mas há muitas outras coisas possíveis
  • 2:54 - 2:56
    — pensa na geo-engenharia,
    é genial, não é?
  • 2:56 - 2:59
    Podemos combater o aquecimento global,
  • 2:59 - 3:01
    mas não queremos
    que seja demasiado fácil,
  • 3:01 - 3:03
    não queremos que
    uma pessoa qualquer e a sua avó
  • 3:03 - 3:06
    possam alterar radicalmente
    o clima da Terra.
  • 3:06 - 3:11
    Ou os "drones" autónomos mortíferos,
    enxames de robôs assassinos
  • 3:11 - 3:14
    do tamanho de mosquitos
    e produzidos em massa.
  • 3:15 - 3:17
    A nanotecnologia,
    a inteligência artificial geral.
  • 3:17 - 3:19
    CA: Defendes nesse artigo
  • 3:19 - 3:22
    que foi só por sorte
    — quando descobrimos
  • 3:22 - 3:26
    que a energia nuclear
    podia criar uma bomba —
  • 3:26 - 3:28
    que não criámos uma bomba
  • 3:28 - 3:32
    com recursos muito mais simples,
    acessíveis a toda a gente.
  • 3:32 - 3:35
    NB: Sim, pensa nos anos 30
  • 3:36 - 3:37
    em que, pela primeira vez,
  • 3:37 - 3:40
    fizemos descobertas revolucionárias
    na física nuclear.
  • 3:40 - 3:44
    Houve um génio que descobriu ser possível
    criar uma reação nuclear em cadeia
  • 3:44 - 3:47
    e depois percebeu-se
    que isso podia levar à bomba.
  • 3:47 - 3:49
    E continuámos a trabalhar.
  • 3:49 - 3:52
    Acontece que o necessário
    para fazer uma bomba nuclear
  • 3:52 - 3:54
    é urânio enriquecido ou plutónio,
  • 3:54 - 3:56
    que são materiais muito difíceis de obter.
  • 3:56 - 3:59
    São precisos ultracentrifugadores,
  • 3:59 - 4:02
    são precisos reatores,
    quantidades enormes de energia.
  • 4:02 - 4:04
    Mas suponhamos que, em vez disso,
  • 4:04 - 4:08
    tivesse havido uma forma fácil
    de libertar a energia do átomo.
  • 4:08 - 4:11
    Talvez cozendo areia no micro-ondas
  • 4:11 - 4:12
    ou qualquer coisa assim,
  • 4:12 - 4:14
    pudéssemos ter criado
    uma explosão nuclear.
  • 4:14 - 4:16
    Sabemos que isso
    é fisicamente impossível.
  • 4:16 - 4:18
    Mas antes de estudarmos
    a física relevante
  • 4:18 - 4:20
    como é que sabíamos
    o que iria acontecer?
  • 4:21 - 4:24
    CA: Podias alegar que,
    para a vida evoluir na Terra
  • 4:24 - 4:27
    era indispensável um ambiente estável
  • 4:27 - 4:31
    e que, se fosse possível criar
    grandes reações nucleares
  • 4:31 - 4:32
    com relativa facilidade,
  • 4:32 - 4:35
    a Terra nunca teria estado estável
    e nós não estaríamos aqui.
  • 4:35 - 4:38
    NB: Sim, a não ser que houvesse
    qualquer coisa fácil de fazer
  • 4:38 - 4:41
    mas isso não aconteceria por acaso.
  • 4:41 - 4:43
    Coisas fáceis de fazer,
  • 4:43 - 4:45
    como empilhar 10 blocos
    uns por cima dos outros
  • 4:45 - 4:48
    mas, na Natureza, não encontramos
    uma pilha de 10 blocos.
  • 4:48 - 4:52
    CA: Ok, isto provavelmente é aquilo
    que mais preocupa muitos de nós
  • 4:52 - 4:56
    e, sim, a biologia sintética
    talvez seja o caminho mais rápido
  • 4:56 - 4:59
    que, podemos prever, pode
    levar-nos lá num futuro próximo.
  • 4:59 - 5:01
    NB: Pois é, pensa no que significaria
  • 5:01 - 5:05
    se alguém, a trabalhar
    na cozinha, durante uma tarde,
  • 5:05 - 5:07
    pudesse destruir uma cidade.
  • 5:07 - 5:10
    É difícil ver como a civilização moderna,
    tal como a conhecemos,
  • 5:10 - 5:12
    teria sobrevivido a isso.
  • 5:12 - 5:14
    Porque, em qualquer população
    de um milhão de pessoas,
  • 5:14 - 5:17
    haverá sempre alguém,
    por qualquer razão que seja,
  • 5:17 - 5:20
    que pode decidir usar
    esse poder destrutivo.
  • 5:20 - 5:23
    Assim, se esse resíduo apocalíptico
  • 5:23 - 5:25
    decidir destruir uma cidade ou, pior,
  • 5:25 - 5:27
    as cidades serão destruídas.
  • 5:27 - 5:29
    CA: Esse é outro tipo de vulnerabilidade.
  • 5:29 - 5:31
    Fala-nos disso.
  • 5:31 - 5:35
    NB: Para além destes tipos óbvios
    de bolas pretas
  • 5:35 - 5:37
    isso tornaria possível
    fazer explodir muitas coisas.
  • 5:37 - 5:42
    Outros tipos agiriam
    criando maus incentivos
  • 5:42 - 5:44
    para os seres humanos
    fazerem coisas prejudiciais.
  • 5:45 - 5:48
    O Tipo-2a, podemos chamar-lhe assim,
  • 5:48 - 5:53
    é pensar nalguma tecnologia
    que incentive as grandes potências
  • 5:53 - 5:57
    a usar a sua quantidade enorme de força
    para provocar a destruição.
  • 5:57 - 6:00
    As armas nucleares estiveram
    muito perto disso, não foi?
  • 6:02 - 6:05
    Gastámos mais de 10 biliões de dólares
  • 6:05 - 6:08
    para fabricar 70 000 ogivas nucleares
  • 6:08 - 6:10
    e colocá-las em alerta imediato.
  • 6:10 - 6:13
    Houve várias ocasiões,
    durante a Guerra Fria,
  • 6:13 - 6:15
    em que quase nos explodimos mutuamente.
  • 6:15 - 6:17
    Não porque muita gente achasse
    que seria boa ideia
  • 6:17 - 6:20
    gastar 10 biliões de dólares
    para nos fazermos explodir,
  • 6:20 - 6:22
    mas porque os incentivos eram enormes
  • 6:22 - 6:24
    — podia ter sido pior.
  • 6:24 - 6:26
    Imagina se tivesse havido
    um primeiro ataque.
  • 6:26 - 6:30
    Podia ter sido muito complicado,
    numa situação de crise,
  • 6:30 - 6:33
    conseguirmos abstermo-nos
    de lançar todos os mísseis nucleares.
  • 6:33 - 6:36
    Quanto mais não fosse, porque recearíamos
    que o outro lado o fizesse.
  • 6:36 - 6:38
    CA: Claro, uma destruição mútua garantida
  • 6:38 - 6:41
    manteve a Guerra Fria
    relativamente estável.
  • 6:41 - 6:43
    Sem isso, podíamos não estar aqui agora.
  • 6:43 - 6:45
    NB: Podia ter sido
    mais instável do que foi.
  • 6:45 - 6:47
    Podia haver outras propriedades
    da tecnologia.
  • 6:47 - 6:50
    Podia ter sido mais difícil
    ter tratados sobre armamento
  • 6:50 - 6:51
    se, em vez de armas nucleares,
  • 6:51 - 6:54
    fosse uma coisa mais pequena
    ou menos impressionante.
  • 6:54 - 6:57
    CA: Tal como com os maus incentivos
    para atores poderosos,
  • 6:57 - 6:58
    também te preocupas
  • 6:58 - 7:01
    com os maus incentivos
    para todos nós, o Tipo-2b.
  • 7:01 - 7:05
    NB: Sim, podemos agarrar
    no caso do aquecimento global.
  • 7:07 - 7:09
    Há muitos pequenos confortos
  • 7:09 - 7:11
    que levam cada um de nós a fazer coisas
  • 7:11 - 7:14
    que, individualmente,
    não têm efeito significativo.
  • 7:14 - 7:16
    Mas, se milhares de milhões
    de pessoas o fizerem,
  • 7:16 - 7:18
    cumulativamente, o efeito é destruidor.
  • 7:18 - 7:21
    O aquecimento global podia
    ter sido muito pior do que é.
  • 7:21 - 7:24
    Temos o parâmetro
    de sensibilidade climática.
  • 7:24 - 7:27
    É um parâmetro que indica
    quanto é o aquecimento
  • 7:27 - 7:30
    se emitirmos uma certa quantidade
    de gases com efeito de estufa.
  • 7:31 - 7:32
    Mas supõe que se dava o caso
  • 7:32 - 7:35
    de que, com a quantidade de gases
    com efeito de estufa que emitimos,
  • 7:36 - 7:37
    em vez de a temperatura subir
  • 7:37 - 7:41
    entre 3 a 4,5 graus até 2100,
  • 7:41 - 7:44
    imagina que subiria entre 15 ou 20 graus.
  • 7:44 - 7:47
    Aí estaríamos numa situação muito má.
  • 7:47 - 7:50
    Supõe que as energias renováveis
    tinham sido muito mais complexas
  • 7:50 - 7:53
    ou que tinha havido mais
    combustíveis fósseis no terreno.
  • 7:53 - 7:55
    CA: Não podias argumentar que,
  • 7:55 - 7:57
    se aquilo que estamos a fazer hoje
  • 7:57 - 8:02
    tivesse resultado em 10 graus de diferença
    no período de tempo que podemos ver,
  • 8:02 - 8:06
    a humanidade ter-se-ia alarmado
    e teria feito alguma coisa.
  • 8:06 - 8:08
    Somos estúpidos, mas não somos
    assim tão estúpidos.
  • 8:08 - 8:10
    Ou talvez sejamos.
  • 8:10 - 8:11
    NB: Não apostaria nisso.
  • 8:11 - 8:13
    (Risos)
  • 8:13 - 8:15
    Podemos imaginar outras opções.
  • 8:17 - 8:20
    Neste momento, é um pouco difícil
    mudar para as renováveis,
  • 8:20 - 8:22
    mas pode ser feito.
  • 8:22 - 8:25
    Podia ter sido,
    com uma física um pouco diferente,
  • 8:25 - 8:28
    teria sido muito mais dispendioso
    fazer essas coisas.
  • 8:28 - 8:30
    CA: Qual é a tua opinião, Nick?
  • 8:30 - 8:33
    Achas que, juntando
    todas estas possibilidades.
  • 8:34 - 8:37
    esta humanidade que somos,
  • 8:37 - 8:39
    somos um mundo vulnerável?
  • 8:39 - 8:41
    Haverá uma bola mortífera
    no nosso futuro?
  • 8:44 - 8:45
    NB: É difícil dizer.
  • 8:45 - 8:50
    Ou seja, penso que pode haver
    várias bolas pretas na urna,
  • 8:50 - 8:52
    é o que parece.
  • 8:52 - 8:54
    Também pode haver
    algumas bolas douradas
  • 8:54 - 8:57
    que nos ajudarão
    a proteger-nos das bolas pretas.
  • 8:58 - 9:01
    Mas não sei qual a ordem
    por que vão sair.
  • 9:01 - 9:04
    CA: Uma possível crítica
    filosófica dessa ideia
  • 9:05 - 9:10
    é que isso implica uma visão
    de um futuro já determinado,
  • 9:10 - 9:13
    quer essa bola exista ou não.
  • 9:13 - 9:16
    E, de certa forma,
  • 9:16 - 9:18
    é uma visão do futuro
    em que eu não quero acreditar.
  • 9:18 - 9:21
    Eu quero acreditar
    que o futuro é indeterminado,
  • 9:21 - 9:23
    que são as nossas decisões
    de hoje que determinarão
  • 9:23 - 9:26
    o tipo de bolas
    que vamos tirar dessa urna.
  • 9:27 - 9:30
    NB: Se continuarmos a inventar,
  • 9:30 - 9:33
    acabaremos por extrair todas as bolas.
  • 9:33 - 9:36
    Penso que há uma certa forma
    de determinismo tecnológico
  • 9:36 - 9:38
    que é bastante plausível.
  • 9:38 - 9:40
    Ou seja, não é provável
    encontrar uma sociedade
  • 9:40 - 9:43
    que use machados de sílex
    e aviões a jato.
  • 9:44 - 9:48
    Mas quase podemos ver a tecnologia
    como um conjunto de possibilidades.
  • 9:48 - 9:51
    A tecnologia é a coisa que nos possibilita
    fazer diversas coisas
  • 9:51 - 9:53
    e obter diversos efeitos no mundo.
  • 9:53 - 9:56
    Como vamos usá-las
    depende das opções humanas.
  • 9:56 - 9:59
    Mas, se pensarmos nestes
    três tipos de vulnerabilidade,
  • 9:59 - 10:02
    são pressupostos muito fracos
    sobre como optaríamos por usá-las.
  • 10:02 - 10:06
    Uma vulnerabilidade Tipo-1
    esse enorme poder destrutivo,
  • 10:06 - 10:07
    é uma hipótese muito fraca
  • 10:07 - 10:10
    pensar que, numa população
    de milhões de pessoas
  • 10:10 - 10:13
    haveria algumas que optariam
    por usá-la destrutivamente.
  • 10:13 - 10:15
    CA: Para mim, o argumento mais perturbador
  • 10:15 - 10:20
    é podermos espreitar
    para dentro da urna
  • 10:20 - 10:23
    e vermos que, provavelmente,
    estamos condenados.
  • 10:23 - 10:28
    Se acreditarmos no poder acelerador,
  • 10:28 - 10:30
    que a tecnologia acelera
    inerentemente,
  • 10:30 - 10:33
    que criamos as ferramentas
    que nos tornam mais poderosos,
  • 10:33 - 10:35
    a certa altura, acabamos
    por chegar a um ponto
  • 10:35 - 10:38
    em que um único indivíduo
    pode eliminar-nos a todos
  • 10:38 - 10:41
    e assim, parece que estamos lixados.
  • 10:41 - 10:44
    Este argumento não é alarmante?
  • 10:44 - 10:46
    NB: Claro que é.
  • 10:47 - 10:48
    (Risos)
  • 10:48 - 10:49
    Penso que...
  • 10:51 - 10:53
    Sim, cada vez temos mais poder
  • 10:53 - 10:56
    e é cada vez mais fácil
    usar esses poderes
  • 10:56 - 11:00
    mas também podemos inventar
    tecnologias que nos ajudem a controlar
  • 11:00 - 11:02
    como as pessoas usam esses poderes.
  • 11:02 - 11:05
    CA: Falemos nisso, falemos na resposta.
  • 11:05 - 11:07
    Suponhamos que pensar
    em todas as possibilidades
  • 11:08 - 11:10
    que existem atualmente
  • 11:10 - 11:13
    — não é só a biologia sintética,
    são coisas como a guerra cibernética,
  • 11:13 - 11:16
    a inteligência artificial, etc., etc. —
  • 11:17 - 11:21
    que podem ser uma condenação
    do nosso futuro.
  • 11:21 - 11:23
    Quais são as possíveis respostas?
  • 11:23 - 11:27
    Falaste de quatro respostas possíveis.
  • 11:28 - 11:31
    NB: Restringir o desenvolvimento
    tecnológico não parece ser promissor,
  • 11:31 - 11:35
    se falamos duma paragem geral
    do progresso tecnológico.
  • 11:35 - 11:37
    Penso que não é exequível
    nem seria desejável,
  • 11:37 - 11:38
    mesmo que o pudéssemos fazer.
  • 11:38 - 11:41
    Penso que pode haver áreas
    muito limitadas
  • 11:41 - 11:44
    em que talvez quiséssemos
    abrandar o progresso tecnológico.
  • 11:44 - 11:48
    Penso que não queremos um progresso
    mais rápido nas armas biológicas
  • 11:48 - 11:50
    ou na separação de isótopos
  • 11:50 - 11:52
    que facilitaria a criação
    de ogivas nucleares.
  • 11:53 - 11:56
    CA: Eu costumava estar
    inteiramente de acordo com isso.
  • 11:56 - 11:59
    Mas gostaria de contra-argumentar
    durante instantes.
  • 11:59 - 12:01
    Primeiro que tudo,
  • 12:01 - 12:03
    se olharmos para a história
    das últimas décadas,
  • 12:03 - 12:07
    tem havido sempre uma evolução
    a toda a velocidade.
  • 12:07 - 12:09
    Tudo bem, a escolha tem sido nossa.
  • 12:09 - 12:13
    Mas, se olharmos para a globalização
    e para a sua rápida aceleração,
  • 12:13 - 12:16
    se olharmos para a estratégia
    de "avançar rápido e partir a loiça"
  • 12:16 - 12:19
    e o que aconteceu com isso,
  • 12:19 - 12:22
    e depois olhamos para o potencial
    da biologia sintética,
  • 12:22 - 12:26
    não sei se devemos avançar
    rapidamente
  • 12:26 - 12:28
    ou sem qualquer tipo de restrições
  • 12:28 - 12:31
    para um mundo em que podemos ter
    uma impressora de ADN em todos os lares
  • 12:31 - 12:33
    e nos laboratórios dos liceus.
  • 12:33 - 12:35
    Há restrições, não há?
  • 12:35 - 12:38
    NB: Possivelmente. Temos
    a primeira parte: não exequível.
  • 12:38 - 12:40
    Se pensarmos que seria
    desejável parar,
  • 12:40 - 12:41
    há o problema da exequibilidade.
  • 12:42 - 12:44
    Na verdade, não ajuda muito
    se um país...
  • 12:44 - 12:46
    CA: Não, não ajuda muito
    se for um só país,
  • 12:46 - 12:49
    mas já tivemos tratados.
  • 12:49 - 12:52
    Foi assim que sobrevivemos
    à ameaça nuclear,
  • 12:53 - 12:56
    foi passando pelo processo
    doloroso de negociação.
  • 12:56 - 12:59
    Ponho-me a pensar se a lógica não será
  • 12:59 - 13:02
    que nós, em termos de prioridade global,
  • 13:02 - 13:06
    não devíamos tentar começar
    a negociar regras estritas
  • 13:06 - 13:09
    sobre onde se pode fazer
    investigação sobre biologia sintética.
  • 13:09 - 13:12
    Não é uma coisa
    que queiramos democratizar, pois não?
  • 13:12 - 13:14
    NB: Estou inteiramente de acordo com isso.
  • 13:16 - 13:18
    Seria desejável, por exemplo,
  • 13:18 - 13:22
    ter máquinas de síntese de ADN,
  • 13:22 - 13:25
    não enquanto um aparelho
    existente em todos os laboratórios,
  • 13:25 - 13:27
    mas como um serviço.
  • 13:27 - 13:29
    Talvez pudesse haver
    quatro ou cinco locais no mundo
  • 13:29 - 13:33
    para onde enviar o nosso modelo digital
    e receber o ADN de volta.
  • 13:33 - 13:35
    Depois, teríamos essa capacidade
  • 13:35 - 13:37
    se um dia isso fosse mesmo necessário
  • 13:37 - 13:40
    teríamos um conjunto finito
    de pontos de obstrução.
  • 13:40 - 13:43
    Penso que queres olhar
    para especiais oportunidades,
  • 13:43 - 13:45
    em que podemos ter
    um controlo mais apertado.
  • 13:45 - 13:47
    CA: Fundamentalmente, acreditas
  • 13:47 - 13:50
    que não vamos conseguir atrasar as coisas.
  • 13:50 - 13:52
    Alguém, algures
    — Coreia do Norte —
  • 13:52 - 13:56
    alguém vai lá chegar
    e descobrir esse conhecimento
  • 13:56 - 13:57
    se é que ele existe.
  • 13:57 - 14:00
    NB: Isso parece plausível
    nas atuais condições.
  • 14:00 - 14:02
    Também não é só biologia sintética.
  • 14:02 - 14:04
    Qualquer tipo de mudança
    profunda e nova, no mundo
  • 14:04 - 14:06
    pode vir a ser uma bola preta.
  • 14:06 - 14:08
    CA: Vejamos outra resposta possível.
  • 14:08 - 14:11
    NB: Penso que isto também
    tem um potencial limitado.
  • 14:11 - 14:14
    Com a vulnerabilidade
    de Tipo-1, mais uma vez,
  • 14:14 - 14:17
    se pudermos reduzir o número
    de pessoas que estão motivadas
  • 14:17 - 14:19
    a destruir o mundo,
  • 14:19 - 14:21
    se pelo menos fossem só elas
    a ter o acesso e os meios
  • 14:21 - 14:23
    isso seria bom.
  • 14:23 - 14:25
    CA: Nesta imagem que nos pediste
    para fazermos,
  • 14:25 - 14:27
    imaginaste estes "drones"
    a voar à volta do mundo
  • 14:27 - 14:29
    com reconhecimento facial.
  • 14:29 - 14:32
    Quando detetam alguém que mostra
    um comportamento sociopata
  • 14:32 - 14:34
    dão-lhe um banho de amor
    e recuperam-no.
  • 14:34 - 14:36
    NB: É uma imagem híbrida.
  • 14:36 - 14:40
    Eliminar pode significar
    encarcerar ou matar
  • 14:40 - 14:43
    ou pode significar convencê-los
    a uma melhor visão do mundo.
  • 14:43 - 14:45
    Mas a questão é esta:
  • 14:45 - 14:47
    Imagina que temos um grande êxito,
  • 14:47 - 14:50
    e reduzíamos para metade
    o número desses indivíduos.
  • 14:50 - 14:52
    Se queremos fazê-lo por persuasão,
  • 14:52 - 14:55
    estamos a competir contra
    as outras forças poderosas
  • 14:55 - 14:56
    que tentam persuadir as pessoas,
  • 14:56 - 14:58
    os partidos, a religião,
    o sistema de ensino.
  • 14:58 - 15:00
    Mas suponhamos
    que os reduzimos a metade,
  • 15:00 - 15:02
    penso que o risco não seria
    reduzido a metade.
  • 15:02 - 15:04
    Talvez apenas a 5% ou 10%.
  • 15:04 - 15:07
    CA: Não estás a recomendar
    que falemos do futuro da humanidade
  • 15:07 - 15:08
    com a resposta dois.
  • 15:08 - 15:11
    NB: Penso que é bom tentar
    dissuadir e persuadir as pessoas
  • 15:11 - 15:14
    mas não podemos confiar
    nisso como única salvaguarda.
  • 15:14 - 15:16
    CA: E quanto à terceira resposta?
  • 15:16 - 15:18
    NB: Penso que há dois
    métodos gerais
  • 15:18 - 15:22
    que podemos usar para conseguir
    a capacidade de estabilizar o mundo
  • 15:22 - 15:25
    contra todo o espetro
    de possíveis vulnerabilidades.
  • 15:25 - 15:28
    Provavelmente, vamos precisar
    das duas coisas.
  • 15:28 - 15:31
    Uma é uma capacidade
    extremamente eficaz
  • 15:32 - 15:33
    de policiamento preventivo.
  • 15:33 - 15:35
    para poder intercetar
  • 15:35 - 15:38
    alguém que comece a fazer
    coisas perigosas.
  • 15:38 - 15:41
    Poder intercetá-la
    em tempo real, e detê-la.
  • 15:41 - 15:43
    Isso exigirá uma vigilância
    omnipresente,
  • 15:43 - 15:46
    toda a gente terá de ser
    monitorizada a toda a hora.
  • 15:46 - 15:49
    CA: É essencialmente
    uma forma de "Minority Report".
  • 15:49 - 15:51
    NB: Talvez tenhamos algoritmos de IA,
  • 15:51 - 15:55
    grandes centro de liberdade
    que examinariam isso, etc., etc.
  • 15:57 - 16:01
    CA: A vigilância de massas
    não é muito popular neste momento...
  • 16:01 - 16:03
    (Risos)
  • 16:03 - 16:05
    NB: Eu sei. Aquele pequeno aparelho.
  • 16:05 - 16:09
    imagina que tens de usar sempre
    aquele tipo de coleira
  • 16:09 - 16:11
    com câmaras multidirecionais.
  • 16:12 - 16:14
    Mas, para ser mais bem aceite,
  • 16:14 - 16:17
    chama-lhe "farol da liberdade"
    ou qualquer coisa dessas.
  • 16:17 - 16:18
    (Risos)
  • 16:18 - 16:19
    CA: Ok.
  • 16:20 - 16:22
    Isto, meus amigos, é só uma conversa
  • 16:22 - 16:25
    é por isso que é uma conversa
    tão estonteante.
  • 16:25 - 16:29
    NB: Na verdade, há toda uma conversa
    sobre este tema em especial.
  • 16:29 - 16:32
    Há grandes problemas e riscos
    com isto, não é?
  • 16:32 - 16:33
    Podemos voltar a falar nisso.
  • 16:33 - 16:34
    A última resposta,
  • 16:34 - 16:39
    a outra capacidade de estabilização geral
    colmata um vazio da governação.
  • 16:39 - 16:43
    A vigilância preencherá um vazio
    da governação a um nível micro:
  • 16:43 - 16:46
    impedir quem quer que seja
    de fazer uma coisa altamente ilegal.
  • 16:46 - 16:49
    Há um vazio de governação
    equivalente,
  • 16:49 - 16:51
    a nível macro, a nível mundial.
  • 16:51 - 16:54
    Precisaremos de capacidade eficaz,
  • 16:55 - 16:58
    para impedir os piores tipos
    de falhas de coordenação mundial,
  • 16:58 - 17:01
    para evitar guerras
    entre as grandes potências,
  • 17:01 - 17:03
    corridas ao armamento,
  • 17:04 - 17:06
    problemas comuns cataclísmicos,
  • 17:08 - 17:12
    a fim de lidar com
    as vulnerabilidades Tipo-2a.
  • 17:12 - 17:14
    CA: Governação global é um termo
  • 17:14 - 17:16
    que está definitivamente
    fora de moda neste momento
  • 17:16 - 17:19
    mas podes adiantar
    que, ao longo da História,
  • 17:19 - 17:20
    a História da Humanidade,
  • 17:20 - 17:25
    em cada fase do aumento
    do poder tecnológico
  • 17:25 - 17:29
    as pessoas têm reorganizado
    e de certa forma centralizado o poder.
  • 17:29 - 17:32
    Por exemplo, quando um bando
    itinerante de criminosos
  • 17:32 - 17:34
    podia dominar uma sociedade,
  • 17:34 - 17:36
    a reposta foi criar um estado-nação
  • 17:36 - 17:39
    e uma força centralizada,
    força policial ou militar,
  • 17:39 - 17:40
    para isso não ser possível
  • 17:40 - 17:45
    A lógica, talvez, de ter
    uma única pessoa ou um único grupo
  • 17:45 - 17:46
    capaz de dominar a humanidade
  • 17:46 - 17:49
    significa que, a certa altura,
    temos de ir por este caminho,
  • 17:49 - 17:51
    de alguma forma, não é?
  • 17:51 - 17:54
    NB: É verdade que a escala
    da organização política aumentou
  • 17:54 - 17:56
    ao longo da história humana.
  • 17:56 - 17:59
    Primeiro era um bando
    de caçadores-recoletores.
  • 17:59 - 18:02
    depois uma chefatura,
    cidades-estados, nações.
  • 18:02 - 18:05
    Agora são organizações internacionais
    etc., etc.
  • 18:06 - 18:09
    Mais uma vez, só quero assegurar,
    ter a hipótese de sublinhar
  • 18:09 - 18:11
    que, obviamente,
    há tremendos inconvenientes
  • 18:11 - 18:13
    e enormes riscos
  • 18:13 - 18:16
    tanto na vigilância de massas
    como na governação global.
  • 18:16 - 18:18
    Só estou a sublinhar
    que, se tivermos sorte,
  • 18:18 - 18:21
    o mundo pode ser tal
    que estas serão as únicas formas
  • 18:21 - 18:23
    de sobrevivermos a uma bola preta.
  • 18:23 - 18:25
    CA: A lógica desta teoria
  • 18:25 - 18:26
    segundo me parece,
  • 18:26 - 18:30
    é que temos de reconhecer
    que não podemos ter tudo.
  • 18:30 - 18:32
    De certo modo, eu diria
  • 18:34 - 18:36
    que o sonho ingénuo
    que muitos de nós temos
  • 18:36 - 18:40
    é que a tecnologia vai ser sempre
    uma força para o bem,
  • 18:40 - 18:43
    que não devemos parar, mas avançar
    o mais depressa possível
  • 18:43 - 18:45
    e não prestar atenção
    a algumas das consequências.
  • 18:45 - 18:47
    Não temos opção.
  • 18:47 - 18:49
    Podemos ter isso.
  • 18:49 - 18:50
    Se tivermos isso,
  • 18:50 - 18:52
    vamos ter de aceitar
  • 18:52 - 18:55
    algumas das outras coisas
    muito incómodas que vêm juntas
  • 18:55 - 18:57
    entramos na corrida ao armamento
    com nós mesmos:
  • 18:57 - 18:59
    se quisermos o poder
    devemos limitá-lo,
  • 18:59 - 19:01
    é melhor perceber
    como limitá-lo.
  • 19:01 - 19:05
    NB: Penso que é uma opção,
    uma opção muito tentadora,
  • 19:05 - 19:07
    de certo modo, a opção mais fácil
  • 19:07 - 19:09
    e pode funcionar,
  • 19:09 - 19:12
    mas significa que estamos
    extremamente vulneráveis
  • 19:12 - 19:14
    a extrair a bola preta.
  • 19:14 - 19:16
    Eu penso que, com um pouco
    de coordenação
  • 19:16 - 19:18
    — resolvendo este problema
    de macrogovernação,
  • 19:18 - 19:20
    e o problema da microgovernação —
  • 19:20 - 19:22
    podemos extrair todas as bolas da urna
  • 19:22 - 19:24
    e beneficiar imenso.
  • 19:25 - 19:28
    CA: Mas, se estamos a viver
    numa simulação, isso é importante?
  • 19:28 - 19:30
    Basta reiniciarmos.
  • 19:30 - 19:31
    (Risos)
  • 19:31 - 19:32
    NB: Bom... eu...
  • 19:33 - 19:35
    (Risos)
  • 19:35 - 19:37
    eu não vi isso a chegar.
  • 19:38 - 19:40
    CA: Então, qual é a tua visão?
  • 19:40 - 19:42
    Juntando todas as peças,
  • 19:42 - 19:45
    qual é a probabilidade
    de estarmos condenados?
  • 19:45 - 19:47
    (Risos)
  • 19:47 - 19:50
    Adoro como as pessoas riem
    quando eu faço esta pergunta.
  • 19:50 - 19:51
    NB: A nível individual,
  • 19:51 - 19:54
    parece que estamos condenados,
    mais tarde ou mais cedo,
  • 19:55 - 19:57
    estamos a apodrecer e a envelhecer
    e todos os tipos de coisas.
  • 19:57 - 19:59
    (Risos)
  • 19:59 - 20:01
    Na verdade, é um pouco complicado.
  • 20:01 - 20:03
    Se nos quisermos preparar
    para agarrar uma probabilidade,
  • 20:03 - 20:05
    a primeira coisa é:
    quem somos nós?
  • 20:05 - 20:08
    Se formos muito velhos,
    morreremos de causas naturais,
  • 20:08 - 20:10
    se formos muito novos
    podemos chegar aos 100 anos,
  • 20:10 - 20:12
    consoante a quem perguntarem.
  • 20:12 - 20:16
    Depois o limiar: o que conta
    como devastação civilizacional?
  • 20:16 - 20:21
    No meu artigo eu não preciso
    de uma catástrofe existencial
  • 20:22 - 20:23
    para que isso conte.
  • 20:23 - 20:25
    É apenas uma questão de definição,
  • 20:25 - 20:27
    digo mil milhões de mortos
  • 20:27 - 20:29
    ou uma redução do PIB mundial
    em 50%,
  • 20:29 - 20:31
    mas consoante o limiar
    que for definido,
  • 20:31 - 20:33
    obtemos uma estimativa
    diferente da probabilidade.
  • 20:33 - 20:37
    Acho que podem
    acusar-me de otimista assustado.
  • 20:37 - 20:39
    (Risos)
  • 20:39 - 20:40
    CA: És um otimista assustado
  • 20:40 - 20:44
    e eu acho que acabaste de criar
    um grande número
  • 20:44 - 20:46
    de outras pessoas assustadas.
  • 20:46 - 20:47
    (Risos)
  • 20:47 - 20:48
    NB: Na simulação.
  • 20:48 - 20:49
    CA: Numa simulação.
  • 20:49 - 20:51
    Nick Bostrom, o teu espírito maravilha-me.
  • 20:51 - 20:54
    Muito obrigado por nos teres assustado.
  • 20:54 - 20:56
    (Aplausos)
Title:
Como a civilização se pode destruir a si mesma — e quatro formas de o impedir
Speaker:
Nick Bostrom
Description:

A Humanidade está a caminho de criar uma "bola preta": uma invenção tecnológica que pode destruir-nos a todos, diz o filósofo Nick Bostrom. Nesta conversa incisiva e surpreendentemente despreocupada, com Chris Anderson, Bostrom sublinha as vulnerabilidades que podemos encontrar se (ou quando) as nossas invenções escapem ao nosso controlo — e explora como podemos impedir o colapso do nosso futuro.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Portuguese subtitles

Revisions