Return to Video

Como a civilização poderia se autodestruir, e quatro possíveis soluções para prevenir isso

  • 0:01 - 0:03
    Chris Anderson: Nick Bostrom.
  • 0:03 - 0:07
    Bem, você já nos apresentou
    muitas ideias loucas por aí.
  • 0:07 - 0:09
    Acho que, há algumas décadas,
  • 0:09 - 0:12
    você argumentou sobre a possibilidade
    de vivermos numa simulação,
  • 0:12 - 0:13
    ou talvez a probabilidade disso.
  • 0:13 - 0:15
    Mais recentemente,
  • 0:15 - 0:19
    ilustrou os mais vívidos exemplos
    de como a inteligência artificial
  • 0:19 - 0:22
    poderia tomar um caminho terrível.
  • 0:22 - 0:23
    E agora, este ano,
  • 0:23 - 0:25
    você está prestes a publicar
  • 0:25 - 0:29
    um artigo que apresenta algo chamado
    de "A Hipótese do Mundo Vulnerável".
  • 0:29 - 0:34
    Nosso trabalho esta noite é de fornecer
    o guia ilustrado para ela.
  • 0:34 - 0:36
    Então, vamos fazê-lo.
  • 0:37 - 0:39
    O que é essa hipótese?
  • 0:40 - 0:42
    Nick Bostrom: É a de tentar pensar
  • 0:42 - 0:46
    sobre uma espécie de característica
    estrutural da atual condição humana.
  • 0:47 - 0:49
    Você gosta da metáfora da urna,
  • 0:50 - 0:51
    então eu a utilizarei na explicação.
  • 0:52 - 0:56
    Imagine uma grande urna
    preenchida por bolas
  • 0:56 - 1:00
    que representam ideias, métodos
    e possíveis tecnologias.
  • 1:01 - 1:05
    Você pode pensar sobre
    a história da criatividade humana
  • 1:05 - 1:09
    como o processo de enfiar a mão nessa urna
    e tirar uma bola após a outra,
  • 1:09 - 1:12
    e o efeito em rede até agora
    tem sido muito benéfico, certo?
  • 1:12 - 1:14
    Nós extraímos muitíssimas bolas brancas,
  • 1:14 - 1:17
    e algumas com tons cinzas,
    bênçãos misturadas.
  • 1:18 - 1:21
    Nós ainda não tiramos a bola
    completamente escura...
  • 1:22 - 1:28
    uma tecnologia que invariavelmente
    destrói a civilização que a descobre.
  • 1:28 - 1:31
    Então, o artigo tenta imaginar
    o que seria tal bola completamente escura.
  • 1:31 - 1:33
    CA: Então, você define a bola
  • 1:33 - 1:37
    como aquela que inevitavelmente
    provoca a destruição da civilização.
  • 1:37 - 1:42
    NB: A não ser que abandonemos o que chamo
    de condição semi-anárquica padrão.
  • 1:42 - 1:43
    Mas assim, através de um padrão.
  • 1:44 - 1:50
    CA: Você argumenta convincentemente,
    mostrando alguns tipos de contra-exemplos
  • 1:50 - 1:53
    nos quais acredita que, até hoje,
    na verdade tivemos sorte,
  • 1:53 - 1:56
    pois possivelmente já
    tiramos essa bola devastadora
  • 1:56 - 1:57
    sem termos nos dado conta disso.
  • 1:57 - 1:59
    Há uma citação; o que ela significa?
  • 1:59 - 2:01
    [O progresso da mecânica trará a Bomba-H]
  • 2:01 - 2:03
    NB: Acho que ela quer ilustrar
  • 2:03 - 2:05
    a dificuldade em prever
  • 2:05 - 2:08
    até onde as descobertas
    básicas podem nos levar.
  • 2:08 - 2:11
    Nós simplesmente não temos
    esse tipo de capacidade.
  • 2:11 - 2:15
    Porque nos tornamos muito bons
    em tirar bolas da urna,
  • 2:15 - 2:18
    mas não temos de fato a capacidade
    de colocá-las de volta.
  • 2:18 - 2:21
    Podemos inventar algo,
    mas não "desinventar".
  • 2:22 - 2:24
    Sendo assim, nossa estratégia
  • 2:24 - 2:27
    é esperar que não haja
    nenhuma bola escura na urna.
  • 2:27 - 2:31
    CA: Então, uma vez que está fora,
    está fora, e não se pode colocar de volta,
  • 2:31 - 2:32
    e você acha que temos tido sorte.
  • 2:32 - 2:35
    Fale sobre alguns desses exemplos.
  • 2:35 - 2:38
    Você menciona diferentes
    tipos de vulnerabilidade.
  • 2:38 - 2:40
    NB: O tipo mais fácil de entender
  • 2:40 - 2:43
    é uma tecnologia que facilita muito
  • 2:43 - 2:46
    causar enormes quantidades de destruição.
  • 2:47 - 2:51
    A biologia sintética pode ser uma fonte
    fértil desse tipo de bola escura,
  • 2:51 - 2:54
    mas há muitas outras coisas
    possíveis que poderíamos...
  • 2:54 - 2:56
    pense na geoengenharia, que é ótima.
  • 2:56 - 2:59
    Poderíamos usá-la no combate
    ao aquecimento global,
  • 2:59 - 3:01
    mas também não é ideal
    facilitar esse acesso,
  • 3:01 - 3:03
    pois não queremos que alguém e sua avó
  • 3:03 - 3:06
    tenham a habilidade de alterar
    radicalmente o clima da Terra.
  • 3:06 - 3:10
    Ou talvez os drones autônomos letais,
  • 3:10 - 3:14
    produzidos em massa; enxames de robôs
    assassinos do tamanho de mosquitos.
  • 3:14 - 3:17
    A nanotecnologia,
    a inteligência artificial geral.
  • 3:17 - 3:21
    CA: Você argumenta no artigo que foi
    questão de sorte quando descobrimos
  • 3:22 - 3:25
    que o poder nuclear podia criar bombas,
  • 3:25 - 3:26
    porque poderia ter sido o caso
  • 3:26 - 3:28
    de podermos fazer bombas
  • 3:28 - 3:32
    com recursos muito mais fáceis,
    acessíveis a qualquer um.
  • 3:32 - 3:35
    NB: Sim, então, pense na década de 1930,
  • 3:35 - 3:40
    na qual, pela primeira vez, nós fizemos
    grandes descobertas na física nuclear,
  • 3:40 - 3:44
    e um gênio descobre que é possível
    criar uma reação nuclear em cadeia,
  • 3:44 - 3:47
    e percebe que isso pode gerar uma bomba.
  • 3:47 - 3:49
    E então, trabalhamos um pouco mais,
  • 3:49 - 3:52
    e descobrimos que para fazer
    uma bomba nuclear é necessário
  • 3:52 - 3:55
    ter elementos como urânio
    ou plutônio altamente enriquecidos,
  • 3:55 - 3:56
    que são bem difíceis de se obter.
  • 3:56 - 3:58
    É preciso o uso de ultracentrifugadoras,
  • 3:58 - 4:02
    de reatores e de quantidades
    imensas de energia.
  • 4:02 - 4:04
    Mas suponha que, em vez disso,
  • 4:04 - 4:08
    houvesse uma maneira mais fácil
    de desbloquear a energia daquele átomo.
  • 4:08 - 4:12
    Que, talvez, ao cozinhar areia
    no micro-ondas, ou algo do tipo,
  • 4:12 - 4:14
    seri possível ter criado
    uma detonação nuclear.
  • 4:14 - 4:16
    Hoje, sabemos que isso
    é fisicamente impossível;
  • 4:16 - 4:21
    mas, antes de fazer o cálculo de física,
    como poderíamos saber que seria assim?
  • 4:21 - 4:22
    CA: Mas você não poderia argumentar
  • 4:22 - 4:24
    que para a vida se desenvolver na Terra
  • 4:24 - 4:29
    isso implicou um tipo de ambiente estável,
    e que se fosse possível
  • 4:29 - 4:32
    criar de forma relativamente fácil
    reações nucleares maciças,
  • 4:32 - 4:35
    a Terra nunca teria sido estável,
    e nós nem estaríamos aqui?
  • 4:35 - 4:38
    NB: Sim, a não ser que isso envolvesse
    algo que é fácil fazer de propósito,
  • 4:38 - 4:41
    mas que não poderia
    acontecer aleatoriamente.
  • 4:41 - 4:45
    Como coisas que fazemos com facilidade,
    por exemplo: empilhar dez blocos;
  • 4:45 - 4:48
    e, no entanto, na natureza
    não encontramos uma pilha assim.
  • 4:48 - 4:50
    CA: Certo, a próxima é provavelmente
  • 4:50 - 4:52
    aquela com a maioria
    de nós mais se preocupa;
  • 4:52 - 4:55
    e sim, a biologia sintética talvez seja
    a rota mais rápida que podemos ver
  • 4:55 - 4:58
    em nosso futuro próximo
    para nos levar a esse ponto.
  • 4:58 - 5:01
    NB: Sim, então pense sobre
    o que isso teria significado
  • 5:01 - 5:05
    se, digamos, qualquer pessoa trabalhando
    em sua cozinha por uma tarde
  • 5:05 - 5:07
    pudesse destruir uma cidade.
  • 5:07 - 5:10
    É difícil ver como a civilização moderna
    da maneira como a conhecemos
  • 5:10 - 5:12
    poderia ter sobrevivido a isso.
  • 5:12 - 5:14
    Porque, em qualquer população
    de milhões de pessoas
  • 5:14 - 5:17
    sempre haverá alguém que,
    por qualquer motivo,
  • 5:17 - 5:19
    escolheria usar esse poder destrutivo.
  • 5:20 - 5:23
    Então, se esse resíduo apocalíptico
  • 5:23 - 5:26
    escolhesse destruir uma cidade ou pior,
    então as cidades seriam destruídas.
  • 5:26 - 5:29
    CA: Então, aqui temos
    outro tipo de vulnerabilidade.
  • 5:29 - 5:31
    Fale sobre isso.
  • 5:31 - 5:35
    NB: Além dessas espécies de bola escura,
    que são um pouco óbvias,
  • 5:35 - 5:37
    que permitiriam explodir várias coisas,
  • 5:37 - 5:42
    outros tipos agiriam no sentido
    de criar estímulos ruins
  • 5:42 - 5:44
    para que humanos
    tomassem atitudes prejudiciais.
  • 5:44 - 5:48
    Então, o Tipo 2A, podemos chamá-la assim,
  • 5:48 - 5:53
    é para pensar sobre alguma tecnologia
    que estimula que grandes poderes
  • 5:53 - 5:57
    usem suas quantidades maciças
    de força para causar destruição.
  • 5:57 - 6:01
    As armas nucleares na verdade
    estavam bem próximas disso, certo?
  • 6:02 - 6:08
    Nós gastamos mais de US$ 10 trilhões
    para construir 70 mil ogivas nucleares
  • 6:08 - 6:10
    e colocá-las em alerta de gatilho.
  • 6:10 - 6:14
    E houve várias ocasiões na Guerra Fria
    em que quase explodimos um ao outro.
  • 6:14 - 6:17
    Não que muitos achassem
    que essa era uma ótima ideia,
  • 6:17 - 6:19
    gastar US$ 10 trilhões
    para explodir uns aos outros,
  • 6:19 - 6:22
    mas os estímulos eram tais
    que não tínhamos saída...
  • 6:22 - 6:23
    e poderia ter sido pior.
  • 6:23 - 6:26
    Imagine se tivesse havido
    um primeiro ataque seguro.
  • 6:26 - 6:30
    Então, teria sido muito complicado,
    numa situação de crise,
  • 6:30 - 6:33
    evitar o lançamento de todos
    os mísseis nucleares deles.
  • 6:33 - 6:36
    Se não por outra razão, pelo medo
    do outro lado também fazê-lo.
  • 6:36 - 6:38
    CA: A certeza da destruição mútua
  • 6:38 - 6:41
    manteve a Guerra Fria
    relativamente estável,
  • 6:41 - 6:43
    e sem isso, possivelmente
    não estaríamos aqui.
  • 6:43 - 6:46
    NB: Poderia ter sido mais instável,
    e provocado outras questões tecnológicas.
  • 6:46 - 6:50
    Poderia ter sido mais difícil
    ter tratados militares
  • 6:50 - 6:51
    se ao invés de armas nucleares
  • 6:51 - 6:54
    tivesse sido algo menor ou menos distinto.
  • 6:54 - 6:57
    CA: Assim como estímulos ruins
    para agentes poderosos,
  • 6:57 - 7:00
    você também se preocupa com estímulos
    ruins para todos nós no Tipo 2B, aqui.
  • 7:00 - 7:05
    NB: Então, aqui, nós podemos
    exemplificar com o aquecimento global.
  • 7:07 - 7:09
    Há várias pequenas conveniências
  • 7:09 - 7:11
    que induzem cada um de nós a fazer coisas
  • 7:11 - 7:14
    que individualmente não têm
    nenhum efeito significativo, certo?
  • 7:14 - 7:18
    Mas, se bilhões de pessoas as fazem
    cumulativamente, o efeito é prejudicial.
  • 7:18 - 7:21
    O aquecimento global poderia
    ter sido bem pior do que é.
  • 7:21 - 7:24
    Nós temos o parâmetro
    de sensibilidade climática.
  • 7:24 - 7:27
    É um parâmetro que nos diz
    o quão mais quente o mundo fica
  • 7:27 - 7:30
    ao emitirmos certa quantidade
    de gases de efeito estufa.
  • 7:30 - 7:33
    Mas, suponha que fosse o caso
  • 7:33 - 7:35
    de que com o volume de gases
    de efeito estufa que emitimos,
  • 7:35 - 7:37
    em vez da temperatura subir,
  • 7:37 - 7:41
    digamos, entre 3 °C e 4,5 °C até 2100,
  • 7:41 - 7:44
    ela subisse 15 °C ou 20 °C.
  • 7:44 - 7:46
    Ficaríamos numa situação muito ruim.
  • 7:46 - 7:50
    Ou suponha que a energia renovável
    fosse bem mais difícil de produzir,
  • 7:50 - 7:52
    ou que tivesse mais combustíveis
    fósseis sob o solo.
  • 7:52 - 7:57
    CA: Você não poderia argumentar
    que caso o que estamos fazendo hoje
  • 7:57 - 8:02
    tivesse resultado na diferença de 10 °C
    num período de tempo que podíamos prever,
  • 8:02 - 8:06
    na verdade a humanidade teria
    se esforçado e feito algo sobre isso.
  • 8:06 - 8:08
    Somos estúpidos, mas não tanto assim.
  • 8:08 - 8:10
    Ou talvez sejamos.
    NB: Eu não apostaria nisso.
  • 8:10 - 8:12
    (Risos)
  • 8:13 - 8:15
    Você pode imaginar outras condições.
  • 8:15 - 8:16
    Então...
  • 8:16 - 8:20
    nesse momento, é um pouco difícil
    mudar para renováveis e coisas do tipo,
  • 8:20 - 8:22
    mas isso pode ser feito.
  • 8:22 - 8:25
    Mas é possível que com um tipo
    de física levemente diferente,
  • 8:25 - 8:27
    teria sido muito mais caro
    fazer coisas desse gênero.
  • 8:28 - 8:30
    CA: E qual é sua visão, Nick?
  • 8:30 - 8:32
    Acha que ao juntar tais possibilidades,
  • 8:32 - 8:38
    que essa humanidade que somos,
    nós contamos como um mundo vulnerável?
  • 8:38 - 8:41
    Há uma bola da morte em nosso futuro?
  • 8:44 - 8:45
    NB: É difícil dizer.
  • 8:45 - 8:50
    Acho que é possível haver
    várias bolas escuras na urna,
  • 8:50 - 8:52
    isso é o que parece.
  • 8:52 - 8:54
    Também parece haver algumas bolas douradas
  • 8:54 - 8:58
    que ajudariam a nos proteger
    dessas bolas escuras.
  • 8:58 - 9:01
    E eu não sei em qual ordem elas sairão.
  • 9:01 - 9:04
    CA: Bem, uma possível
    crítica filosófica a essa ideia
  • 9:04 - 9:10
    é que ela implica na visão de que o futuro
    está essencialmente determinado.
  • 9:10 - 9:13
    Ou seja: ou essa bola está lá, ou não.
  • 9:13 - 9:18
    E, de certa forma, essa não é uma visão
    de futuro na qual eu quero acreditar.
  • 9:18 - 9:21
    Quero acreditar
    que o futuro é indeterminado,
  • 9:21 - 9:23
    que são as decisões
    de hoje que determinarão
  • 9:23 - 9:25
    os tipos de bolas que pegaremos da urna.
  • 9:26 - 9:30
    NB: Bem, se nós apenas
    continuarmos inventando,
  • 9:30 - 9:32
    eventualmente pegaremos todas as bolas.
  • 9:33 - 9:38
    Acho que há uma certa forma fraca
    de determinismo tecnológico bem plausível,
  • 9:38 - 9:40
    do tipo: é improvável
    que encontremos uma sociedade
  • 9:40 - 9:43
    que use tanto eixos de pederneira
    quanto aviões a jato.
  • 9:44 - 9:48
    Mas podemos quase pensar sobre
    tecnologia como um conjunto de recursos.
  • 9:48 - 9:51
    Então, a tecnologia é algo
    que permite fazer várias coisas
  • 9:51 - 9:53
    e alcançar inúmeros efeitos no mundo.
  • 9:53 - 9:56
    Agora, a maneira de utilizá-la
    é algo que depende da escolha humana.
  • 9:56 - 9:59
    Mas, pensando sobre esses três
    tipos de vulnerabilidade,
  • 9:59 - 10:02
    eles fazem suposições bem fracas
    sobre como escolheríamos utilizá-las.
  • 10:02 - 10:06
    A vulnerabilidade Tipo 1, de novo,
    esse imenso poder destrutivo,
  • 10:06 - 10:07
    é uma hipótese bastante fraca
  • 10:07 - 10:10
    de pensar que numa população
    de milhões de pessoas
  • 10:10 - 10:13
    somente algumas escolheriam
    usá-la de maneira destrutiva.
  • 10:13 - 10:15
    CA: Para mim, o argumento
    mais perturbador de todos
  • 10:15 - 10:20
    é o de que, na verdade, temos uma certa
    visão do lado de dentro da urna
  • 10:20 - 10:23
    que nos faz perceber que é bem provável
    que estejamos condenados.
  • 10:23 - 10:28
    Isto é, se acreditamos
    no poder de aceleramento,
  • 10:28 - 10:30
    de que a tecnologia
    inerentemente se acelera,
  • 10:30 - 10:33
    de que construímos ferramentas
    que nos dão mais poder,
  • 10:33 - 10:35
    então, em algum momento,
    chegaremos num estágio
  • 10:35 - 10:38
    no qual um indivíduo qualquer
    poderá matar todo mundo,
  • 10:38 - 10:41
    e, por isso, parece que estamos ferrados.
  • 10:41 - 10:44
    Esse argumento não é bem alarmante?
  • 10:44 - 10:46
    NB: Bem, sim.
  • 10:47 - 10:48
    (Risos)
  • 10:48 - 10:49
    Eu acho...
  • 10:51 - 10:53
    É, nós obtemos cada vez mais poder,
  • 10:53 - 10:56
    e fica cada vez mais fácil
    utilizar esses poderes,
  • 10:56 - 11:00
    mas também podemos inventar tecnologias
    que nos ajudem a ter certo controle
  • 11:00 - 11:02
    de como as pessoas os utilizam.
  • 11:02 - 11:04
    CA: Então, falemos sobre a resposta.
  • 11:04 - 11:09
    Suponha que pensar sobre todas
    as possibilidades que já existem...
  • 11:09 - 11:13
    não é só a biologia sintética,
    mas a guerra cibernética,
  • 11:13 - 11:16
    inteligência artificial, etc...
  • 11:17 - 11:21
    que podem ser uma séria
    ruína em nosso futuro.
  • 11:21 - 11:23
    Quais são as possíveis respostas?
  • 11:23 - 11:27
    Você também falou sobre
    quatro possíveis respostas.
  • 11:28 - 11:31
    NB: Restringir o desenvolvimento
    tecnológico não parece promissor,
  • 11:31 - 11:35
    se estamos falando de uma parada geral
    do progresso tecnológico.
  • 11:35 - 11:38
    Também não acho factível ou desejável,
    ainda que pudéssemos fazer isso.
  • 11:38 - 11:41
    Acho que pode haver várias áreas limitadas
  • 11:41 - 11:44
    nas quais talvez seria bom
    abrandar o progresso tecnológico.
  • 11:44 - 11:47
    Não queremos um progresso
    mais rápido das armas biológicas,
  • 11:47 - 11:49
    ou em, digamos, separação isotópica,
  • 11:49 - 11:52
    que facilitaria a criação
    de armas nucleares.
  • 11:53 - 11:56
    CA: Eu costumava ser
    totalmente a favor dessa rapidez.
  • 11:56 - 11:59
    Mas na verdade, eu gostaria
    de discordar dela por um momento.
  • 11:59 - 12:01
    Apenas porque, primeiro,
  • 12:01 - 12:03
    se observarmos a história
    das últimas décadas,
  • 12:03 - 12:07
    os avanços foram acelerados
    na velocidade máxima,
  • 12:07 - 12:09
    e essa é nossa única escolha.
  • 12:09 - 12:13
    Mas se considerarmos a globalização
    e sua rápida aceleração,
  • 12:13 - 12:16
    e observarmos a estratégia
    de "mover depressa e quebrar tudo"
  • 12:16 - 12:19
    e o que aconteceu com isso,
  • 12:19 - 12:21
    e então observamos o potencial
    da biologia sintética,
  • 12:21 - 12:26
    eu não sei se deveríamos
    nos mover rapidamente
  • 12:26 - 12:27
    ou sem qualquer tipo de restrição
  • 12:27 - 12:31
    para um mundo onde se pode ter
    uma impressora de DNA em toda casa
  • 12:31 - 12:33
    e laboratórios de escola de ensino médio.
  • 12:33 - 12:35
    Há algumas restrições, não é?
  • 12:35 - 12:38
    NB: Talvez a primeira parte,
    sobre isso não ser factível.
  • 12:38 - 12:40
    Se pensarmos que seria
    desejável parar isso,
  • 12:40 - 12:41
    há o problema da viabilidade.
  • 12:42 - 12:44
    Então realmente não ajuda
    quando uma nação meio que...
  • 12:44 - 12:46
    CA: Não ajuda se uma nação o faz,
  • 12:46 - 12:49
    mas nós tivemos tratados antes.
  • 12:49 - 12:53
    Foi realmente assim
    que sobrevivemos à ameaça nuclear,
  • 12:53 - 12:56
    nos expondo e enfrentando
    o doloroso processo de negociação.
  • 12:57 - 13:02
    Só me pergunto se a lógica não é que nós,
    como um assunto de prioridade global,
  • 13:02 - 13:05
    não deveríamos tentar, por exemplo,
    começar a negociar agora
  • 13:05 - 13:09
    regras bem estritas sobre até onde
    a biopesquisa com sintéticos pode ir,
  • 13:09 - 13:12
    porque isso não é algo
    que se queira democratizar, certo?
  • 13:12 - 13:14
    NB: Eu concordo plenamente com isso...
  • 13:14 - 13:18
    que seria desejável, por exemplo,
  • 13:18 - 13:22
    talvez ter máquinas de síntese de DNA,
  • 13:22 - 13:25
    não como produto no qual todo laboratório
    teria seu próprio dispositivo,
  • 13:25 - 13:27
    mas talvez como um serviço.
  • 13:27 - 13:29
    Talvez poderia haver quatro
    ou cinco lugares no mundo
  • 13:29 - 13:33
    para onde se mandasse um planta digital
    e o DNA fosse enviado de volta.
  • 13:33 - 13:35
    E então, teríamos a habilidade,
  • 13:35 - 13:37
    se um dia realmente parecesse necessário,
  • 13:37 - 13:39
    de ter um conjunto determinado
    de pontos de bloqueio.
  • 13:39 - 13:43
    Então, acho que devemos olhar
    para aquelas oportunidades especiais,
  • 13:43 - 13:45
    nas quais podemos
    ter um controle mais rígido.
  • 13:45 - 13:47
    CA: Sua crença é, fundamentalmente,
  • 13:47 - 13:50
    de que não seremos bem-sucedidos
    ao ficarmos só na retaguarda.
  • 13:50 - 13:53
    Em algum lugar, alguém,
    na Coreia do Norte, quem sabe?
  • 13:53 - 13:57
    Alguém no mundo vai descobrir
    esse conhecimento, se ele existir.
  • 13:57 - 14:00
    NB: Isso parece plausível
    sob as condições atuais.
  • 14:00 - 14:02
    E não se trata só da biologia sintética;
  • 14:02 - 14:04
    qualquer tipo de mudança
    nova e profunda no mundo
  • 14:04 - 14:06
    poderia vir a ser uma bola escura.
  • 14:06 - 14:08
    CA: Vamos olhar outra possível resposta.
  • 14:08 - 14:10
    NB: Considero que isso
    também tenha potencial limitado.
  • 14:10 - 14:14
    Então, com a vulnerabilidade
    de Tipo 1, de novo,
  • 14:14 - 14:18
    se pudermos reduzir o número
    de pessoas que são incentivadas
  • 14:18 - 14:19
    a destruir o mundo,
  • 14:19 - 14:22
    as que têm acesso e meios
    para destruí-lo, isso seria bom.
  • 14:22 - 14:26
    CA: Nesta imagem você imagina
    esses drones viajando pelo mundo
  • 14:26 - 14:28
    com reconhecimento facial.
  • 14:28 - 14:32
    Quando reconhece alguém que demonstra
    sinais de comportamento sociopata,
  • 14:32 - 14:34
    o drone o "banha com amor" e o "conserta".
  • 14:34 - 14:36
    NB: Acho que é tipo uma figura híbrida.
  • 14:36 - 14:40
    Eliminar pode significar
    encarcerar ou matar,
  • 14:40 - 14:43
    ou persuadir alguém a ter
    uma visão melhor do mundo.
  • 14:43 - 14:45
    Mas o ponto é,
  • 14:45 - 14:47
    suponha que você fosse muito
    bem-sucedido nisso,
  • 14:47 - 14:50
    e reduzisse o número de tais
    indivíduos pela metade.
  • 14:50 - 14:52
    E se quiser fazer isso pela persuasão,
  • 14:52 - 14:55
    está competindo contra
    todas as outras forças de poder
  • 14:55 - 14:58
    que tentam persuadir as pessoas:
    política, religião, sistemas de educação.
  • 14:58 - 15:00
    Mas, supondo que os reduza pela metade,
  • 15:00 - 15:02
    não acho que o risco seria
    reduzido pela metade.
  • 15:02 - 15:04
    Talvez por 5% ou 10%.
  • 15:04 - 15:08
    CA: Não está recomendado que apostemos
    o futuro da humanidade na resposta dois.
  • 15:08 - 15:11
    NB: Acho muito bom tentar
    dissuadir e persuadir as pessoas,
  • 15:11 - 15:14
    mas não deveríamos depender disso
    como nossa única salvaguarda.
  • 15:14 - 15:15
    CA: E quanto à três?
  • 15:15 - 15:18
    NB: Acho que há dois métodos gerais
  • 15:18 - 15:22
    que podemos usar para alcançar
    a habilidade de estabilizar o mundo
  • 15:22 - 15:25
    contra o espectro total
    das possíveis vulnerabilidades.
  • 15:25 - 15:27
    E provavelmente precisaríamos de ambos.
  • 15:27 - 15:31
    Então, um é uma habilidade
    extremamente eficaz
  • 15:32 - 15:35
    de fazer policiamento preventivo,
    com a possibilidade de interceptação.
  • 15:35 - 15:38
    Se alguém começar a fazer algo perigoso,
  • 15:38 - 15:40
    podemos interceptá-lo
    em tempo real, e pará-lo.
  • 15:40 - 15:43
    Assim, isso iria requerer
    vigilância onipresente:
  • 15:43 - 15:46
    todo mundo sendo monitorado o tempo todo.
  • 15:46 - 15:49
    CA: É basicamente o filme
    "Minority Report - A Nova Lei".
  • 15:49 - 15:51
    NB: Você talvez tivesse algoritmos de IA,
  • 15:51 - 15:55
    grandes centros de liberdade
    que ficariam revendo isso, etc.
  • 15:57 - 16:01
    CA: Sabe que a vigilância das massas
    não é muito popular hoje?
  • 16:01 - 16:03
    (Risos)
  • 16:03 - 16:05
    NB: Bem, sobre o dispositivo da figura,
  • 16:05 - 16:09
    imagine um tipo de colar
    que teríamos que usar o tempo todo
  • 16:09 - 16:11
    com câmeras multidirecionais.
  • 16:12 - 16:14
    Mas, para ficar mais palatável,
  • 16:14 - 16:16
    vamos chamá-lo de algo do tipo
    "etiqueta da liberdade".
  • 16:16 - 16:18
    (Risos)
  • 16:18 - 16:19
    CA: Tudo bem.
  • 16:20 - 16:24
    Essa é a conversa, amigos,
    e por isso é tão intrigante.
  • 16:24 - 16:27
    NB: Na verdade, há outra
    conversa enorme sobre isso
  • 16:27 - 16:29
    paralelamente à nossa, claro.
  • 16:29 - 16:32
    Há problemas enormes
    e riscos sobre isso, né?
  • 16:32 - 16:33
    Nós podemos voltar a isso.
  • 16:33 - 16:37
    Então a a outra capacidade
    final de estabilização geral
  • 16:37 - 16:39
    está obstruindo uma outra
    lacuna de governança.
  • 16:39 - 16:43
    A vigilância seria um tipo de lacuna
    de governança a um micronível,
  • 16:43 - 16:46
    a ponto de impedir todo mundo
    de fazer qualquer coisa altamente ilegal.
  • 16:46 - 16:51
    Então, há a lacuna de governança
    correspondente a nível global.
  • 16:51 - 16:54
    Precisaríamos da habilidade
    e da confiabilidade
  • 16:54 - 16:57
    para prevenir os piores tipos de falhas
    de coordenação global,
  • 16:57 - 17:01
    e evitar guerras entre grandes poderes,
  • 17:01 - 17:03
    corridas armamentistas,
  • 17:04 - 17:06
    problemas comuns de cataclismo...
  • 17:08 - 17:12
    para poder lidar com
    as vulnerabilidades do Tipo 2A.
  • 17:12 - 17:16
    CA: Governança global é um termo
    bem fora de moda agora,
  • 17:16 - 17:20
    mas você poderia dizer que,
    ao longo da história da humanidade,
  • 17:20 - 17:25
    a cada estágio de crescimento
    de poder tecnológico,
  • 17:25 - 17:29
    as pessoas reorganizaram
    e, de certa forma, centralizaram o poder?
  • 17:29 - 17:32
    Assim, por exemplo, quando
    um bando itinerante de criminosos
  • 17:32 - 17:34
    tentasse dominar uma sociedade,
  • 17:34 - 17:36
    a resposta de uma nação-estado seria
  • 17:36 - 17:40
    centralizar a força policial ou militar
    e dizer: "Vocês não podem fazer isso".
  • 17:40 - 17:45
    Talvez a lógica de que uma única pessoa
    ou um único grupo fosse capaz
  • 17:45 - 17:49
    de assumir o controle da humanidade
    significa que em algum ponto
  • 17:49 - 17:51
    teremos que considerar isso, não?
  • 17:51 - 17:54
    NB: É verdade que a escala
    de organização política aumentou
  • 17:54 - 17:56
    através do curso da história humana.
  • 17:56 - 17:59
    Costumava ser um grupo
    de caçadores-coletores,
  • 17:59 - 18:01
    então uma chefia,
    depois cidades-estados, e nações,
  • 18:02 - 18:05
    agora há organizações
    internacionais, e por aí vai.
  • 18:06 - 18:11
    De novo, quero ter a chance de enfatizar
    que obviamente há grandes desvantagens
  • 18:11 - 18:12
    e, certamente, riscos concretos,
  • 18:12 - 18:16
    tanto para a vigilância de massa
    quanto para a governança global.
  • 18:16 - 18:18
    Só estou apontando que, se tivermos sorte,
  • 18:18 - 18:21
    o mundo poderia ser tal
    que essas seriam as únicas formas
  • 18:21 - 18:22
    de sobreviver a uma bola escura.
  • 18:22 - 18:25
    CA: A lógica dessa teoria,
  • 18:25 - 18:26
    me parece,
  • 18:26 - 18:30
    é a de que temos que reconhecer
    que não podemos ter tudo.
  • 18:30 - 18:32
    Que, assim,
  • 18:34 - 18:36
    esse "sonho ingênuo"
    que muitos de nós tínhamos
  • 18:36 - 18:40
    de que a tecnologia sempre seria
    uma força para o bem,
  • 18:40 - 18:43
    sempre indo, sem parar,
    o mais rápido que pudesse,
  • 18:43 - 18:45
    sem prestar atenção
    para certas consequências,
  • 18:45 - 18:47
    isso de fato não é uma opção.
  • 18:47 - 18:49
    Nós podemos ter isso,
  • 18:49 - 18:54
    mas aí teremos que aceitar outras
    coisas desconfortáveis inerentes a isso
  • 18:54 - 18:57
    e entrar numa corrida armamentista
    contra nós mesmos,
  • 18:57 - 19:01
    na qual, se quisermos o poder,
    precisaremos descobrir como limitá-lo.
  • 19:01 - 19:04
    NB: Acredito que essa seja uma opção,
  • 19:04 - 19:09
    e bem tentadora, no sentido de que é
    a mais fácil e que pode dar certo,
  • 19:09 - 19:13
    mas significa, basicamente, que ficamos
    vulneráveis a extrair uma bola escura.
  • 19:13 - 19:16
    Acho que com certa coordenação,
  • 19:16 - 19:20
    se resolvêssemos esse problema
    de micro e macrogovernança,
  • 19:20 - 19:22
    então poderíamos extrair
    todas as bolas da urna
  • 19:22 - 19:25
    e nos beneficiaríamos grandemente.
  • 19:25 - 19:28
    CA: Bem, se estamos vivendo
    em uma simulação, isso importa?
  • 19:28 - 19:29
    Nós apenas reiniciaríamos.
  • 19:29 - 19:32
    (Risos)
  • 19:35 - 19:37
    Eu não esperava por isso.
  • 19:38 - 19:39
    CA: E qual a sua visão?
  • 19:39 - 19:44
    Encaixando todos os pedaços,
    é provável que estejamos condenados?
  • 19:44 - 19:46
    (Risos)
  • 19:47 - 19:49
    Adoro quando as pessoas riem
    quando você pergunta isso.
  • 19:49 - 19:51
    NB: Em um nível individual,
  • 19:51 - 19:55
    parecemos condenados de qualquer jeito
    pela questão da linha do tempo,
  • 19:55 - 19:58
    já que estamos apodrecendo,
    envelhecendo, e tudo isso, não é?
  • 19:58 - 19:59
    (Risos)
  • 19:59 - 20:01
    De fato, é um pouco complexo.
  • 20:01 - 20:05
    Para prever uma probabilidade,
    primeiro: de quem estamos falando?
  • 20:05 - 20:07
    Um idoso, provavelmente
    morrerá de causas naturais,
  • 20:07 - 20:12
    alguém bem jovem ainda terá uns 100 anos;
    a probabilidade dependerá do receptor.
  • 20:12 - 20:16
    E então, o limite, o que contaria
    como a devastação da civilização?
  • 20:16 - 20:22
    No artigo eu não preciso
    de uma catástrofe existencial
  • 20:22 - 20:23
    para que se conte como tal.
  • 20:23 - 20:26
    É só uma questão de definição,
    digamos, um bilhão de mortos,
  • 20:26 - 20:29
    ou uma redução do PIB mundial de 50%;
  • 20:29 - 20:33
    mas dependendo do que coloca como limite,
    a estimativa da probabilidade é diferente.
  • 20:33 - 20:37
    Mas acho que você poderia me menosprezar
    dizendo que sou um otimista assustado.
  • 20:37 - 20:38
    (Risos)
  • 20:38 - 20:40
    CA: Você é um otimista assustado,
  • 20:40 - 20:44
    e acho que acabou de criar
    um grande número de outras...
  • 20:44 - 20:45
    pessoas assustadas.
  • 20:45 - 20:46
    (Risos)
  • 20:46 - 20:49
    NB: Dentro da simulação.
    CA: Dentro de uma simulação!
  • 20:49 - 20:51
    Nick Bostrom, sua mente me fascina,
  • 20:51 - 20:54
    muito obrigado por assustar
    todos nós imensamente.
  • 20:54 - 20:56
    (Aplausos)
Title:
Como a civilização poderia se autodestruir, e quatro possíveis soluções para prevenir isso
Speaker:
Nick Bostrom
Description:

A humanidade está a ponto de criar uma "bola escura": uma descoberta tecnológica que poderia destruir todos nós, diz o filósofo Nick Bostrom. Nesta conversa incisiva e surpreendentemente despreocupada com o curador do TED, Chris Anderson, Bostrom delineia as vulnerabilidades que podemos enfrentar se, ou quando, nossas invenções saírem de nosso controle, e explora como podemos prevenir nossa futura destruição.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Portuguese, Brazilian subtitles

Revisions Compare revisions