< Return to Video

Daniel Suarez: A decisão de matar não deve ser de um robô

  • 0:00 - 0:03
    Escrevo livros de suspense e ficção científica,
  • 0:03 - 0:06
    portanto, se eu disser "robôs assassinos",
  • 0:06 - 0:08
    você provavelmente pensa em algo assim.
  • 0:08 - 0:10
    Mas, na verdade, não estou aqui para falar de ficção.
  • 0:10 - 0:14
    Estou aqui para falar sobre robôs assassinos muito reais,
  • 0:14 - 0:17
    drones de combate autônomos.
  • 0:17 - 0:20
    Não me refiro aos drones Predator e Reaper,
  • 0:20 - 0:23
    que têm um humano tomando decisões sobre o alvo.
  • 0:23 - 0:27
    Estou falando de armas robóticas completamente autônomas
  • 0:27 - 0:29
    que tomam decisões letais sobre seres humanos
  • 0:29 - 0:32
    por si mesmas.
  • 0:32 - 0:36
    Há na verdade um termo técnico para isso: autonomia letal.
  • 0:36 - 0:38
    Bem, robôs assassinos com autonomia letal
  • 0:38 - 0:42
    tomariam muitas formas -- voar, dirigir
  • 0:42 - 0:44
    ou apenas ficar à espreita.
  • 0:44 - 0:47
    E, na verdade, eles estão se tornando realidade muito rapidamente.
  • 0:47 - 0:50
    Estas são duas estações automáticas de tiro
  • 0:50 - 0:54
    atualmente implantadas na zona desmilitarizada entre a Coreia do Norte e a do Sul.
  • 0:54 - 0:56
    Essas duas máquinas são capazes de automaticamente
  • 0:56 - 1:00
    identificar um alvo humano e atirar nele,
  • 1:00 - 1:04
    aquela, à esquerda, a uma distância de mais de um quilômetro.
  • 1:04 - 1:08
    Agora, em ambos os casos, ainda há um humano no circuito
  • 1:08 - 1:10
    para tomar a decisão letal de atirar,
  • 1:10 - 1:15
    mas isso não é um requisito tecnológico. É uma escolha.
  • 1:15 - 1:19
    E é nessa escolha em que quero focar,
  • 1:19 - 1:21
    porque, à medida que transferimos a decisão letal
  • 1:21 - 1:24
    dos humanos para um programa de computador,
  • 1:24 - 1:28
    colocamos em risco não só tirar a humanidade da guerra,
  • 1:28 - 1:31
    mas também alterar nossa paisagem social inteiramente,
  • 1:31 - 1:33
    longe do campo de batalha.
  • 1:33 - 1:38
    Isso ocorre porque a maneira como os humanos resolvem conflitos
  • 1:38 - 1:40
    dá forma à nossa paisagem social.
  • 1:40 - 1:42
    E o caso foi sempre esse, através da história.
  • 1:42 - 1:45
    Por exemplo, estes eram sistemas de armamento de primeira linha
  • 1:45 - 1:47
    em 1400 d.C.
  • 1:47 - 1:50
    Agora, eles eram muito caros para construir e manter,
  • 1:50 - 1:53
    mas com eles você poderia dominar a população,
  • 1:53 - 1:57
    e a distribuição do poder político na sociedade feudal refletiu isso.
  • 1:57 - 2:00
    O poder estava focado bem no topo.
  • 2:00 - 2:04
    E o que mudou? Inovação tecnológica.
  • 2:04 - 2:05
    Pólvora, canhões.
  • 2:05 - 2:09
    Logo armaduras e castelos estavam obsoletos,
  • 2:09 - 2:12
    e importava menos quem você trazia para o campo de batalha
  • 2:12 - 2:16
    do que quantas pessoas você trazia para o campo de batalha.
  • 2:16 - 2:19
    E, à medida que exércitos cresceram em tamanho, surgiu a nação-estado
  • 2:19 - 2:23
    como um requisito político e logístico de defesa .
  • 2:23 - 2:25
    E, à medida que os líderes tiveram que confiar em uma parcela maior da população,
  • 2:25 - 2:27
    eles começaram a compartilhar o poder.
  • 2:27 - 2:30
    O governo representativo começou a se formar.
  • 2:30 - 2:33
    Outra vez, as ferramentas que usamos para resolver conflitos
  • 2:33 - 2:36
    dão forma à nossa paisagem social.
  • 2:36 - 2:40
    Armas robóticas autônomas são ferramentas,
  • 2:40 - 2:46
    apesar de que, ao exigirem poucas pessoas numa guerra,
  • 2:46 - 2:50
    colocam em risco 'recentralizar' o poder em muito poucas mãos,
  • 2:50 - 2:57
    possivelmente revertendo uma tendência de cinco séculos em direção à democracia.
  • 2:57 - 2:59
    Agora, penso que, conhecendo isto,
  • 2:59 - 3:03
    podemos dar passos decisivos para preservar nossas instituições democráticas,
  • 3:03 - 3:07
    fazendo o que os humanos fazem melhor, que é adaptar-se.
  • 3:07 - 3:09
    Mas o tempo é um fator.
  • 3:09 - 3:12
    Setenta nações estão desenvolvendo, por conta própria,
  • 3:12 - 3:14
    drones de combate pilotados remotamente,
  • 3:14 - 3:17
    e, como vocês verão, drones de combate pilotados remotamente
  • 3:17 - 3:21
    são os precursores das armas robóticas autônomas.
  • 3:21 - 3:24
    Isso acontece porque, uma vez que você tenha instalado drones pilotados remotamente,
  • 3:24 - 3:27
    há três fatores poderosos agindo no sentido de que a tomada de decisão
  • 3:27 - 3:32
    passe dos humanos para a própria plataforma de armas.
  • 3:32 - 3:37
    O primeiro deles é a inundação de vídeos que os drones produzem.
  • 3:37 - 3:41
    Por exemplo, em 2004, a frota de drones dos E.U.A. produziu
  • 3:41 - 3:46
    um total de 71 horas de vídeos de vigilância para análise.
  • 3:46 - 3:51
    Em 2011, isso tinha aumentado para 300.000 horas,
  • 3:51 - 3:54
    superando a capacidade humana de revisá-los todos,
  • 3:54 - 3:58
    mas mesmo esse número deve aumentar drasticamente.
  • 3:58 - 4:00
    Os programas Gorgon Stare e Argus do Pentagono,
  • 4:00 - 4:03
    colocarão 65 câmeras operadas independentemente
  • 4:03 - 4:05
    em cada plataforma de drones,
  • 4:05 - 4:09
    e isto superará e muito a capacidade humana de revisá-las.
  • 4:09 - 4:11
    Isso significa que software visual inteligente precisará
  • 4:11 - 4:15
    verificá-las para itens de interesse.
  • 4:15 - 4:16
    Isso significa que muito em breve
  • 4:16 - 4:19
    os drones dirão aos humanos o que olhar,
  • 4:19 - 4:21
    não o contrário.
  • 4:21 - 4:24
    Mas há um segundo incentivo poderoso agindo para que
  • 4:24 - 4:27
    a tomada de decisão passe dos humanos para as máquinas,
  • 4:27 - 4:30
    que é o congestionamento eletromagnético
  • 4:30 - 4:32
    interrompendo a conexão entre o drone
  • 4:32 - 4:35
    e seu operador.
  • 4:35 - 4:38
    Vimos um exemplo disso, em 2011,
  • 4:38 - 4:41
    quando o drone Sentinel RQ-170
  • 4:41 - 4:45
    ficou ligeiramente confuso no Irã, devido a um ataque de 'spoofing' ao GPS,
  • 4:45 - 4:50
    mas qualquer drone pilotado remotamente é suscetível a esse tipo de ataque,
  • 4:50 - 4:52
    e isso significa que os drones
  • 4:52 - 4:56
    terão que ter maior poder de decisão.
  • 4:56 - 4:59
    Eles conhecerão o objetivo da missão,
  • 4:59 - 5:04
    e reagirão a novas circunstâncias sem a supervisão humana.
  • 5:04 - 5:06
    Eles ignorarão sinais externos de rádio
  • 5:06 - 5:09
    e enviarão muito poucos deles.
  • 5:09 - 5:11
    O que nos traz, de fato, ao terceiro
  • 5:11 - 5:15
    e mais poderoso incentivo para transferir a tomada de decisão
  • 5:15 - 5:18
    dos humanos para as máquinas:
  • 5:18 - 5:21
    negação plausível.
  • 5:21 - 5:24
    Atualmente vivemos em uma economia global.
  • 5:24 - 5:28
    A manufatura de alta tecnologia está ocorrendo na maioria dos continentes.
  • 5:28 - 5:31
    A espionagem cibernética está espalhando projetos avançados
  • 5:31 - 5:33
    para partes desconhecidas,
  • 5:33 - 5:35
    e, neste ambiente, é muito provável
  • 5:35 - 5:40
    que um bem sucedido projeto de drone, produzido em fábricas terceirizadas,
  • 5:40 - 5:42
    prolifere no mercado paralelo.
  • 5:42 - 5:45
    E, nessa situação, vasculhando os escombros
  • 5:45 - 5:48
    de um ataque sucida de drones, será muito difícil dizer
  • 5:48 - 5:52
    quem enviou aquela arma.
  • 5:52 - 5:55
    Isto levanta a possibilidade muito realista
  • 5:55 - 5:58
    de guerra anônima.
  • 5:58 - 6:00
    Isso poderia inclinar o equilíbrio geopolítico no topo,
  • 6:00 - 6:04
    tornar muito difícil para uma nação mirar seu poder de fogo
  • 6:04 - 6:07
    contra um atacante, e isso poderia alterar o equilíbrio,
  • 6:07 - 6:10
    no século XXI, da defesa para a ofensa.
  • 6:10 - 6:14
    Poderia tornar a ação militar uma opção viável
  • 6:14 - 6:16
    não apenas para nações pequenas,
  • 6:16 - 6:18
    mas também para organizações criminosas, empresas privadas,
  • 6:18 - 6:21
    até mesmo para indivíduos poderosos.
  • 6:21 - 6:24
    Poderia criar uma paisagem de senhores da guerra rivais
  • 6:24 - 6:28
    enfraquecendo a prevalência da lei e a sociedade civil.
  • 6:28 - 6:31
    Agora, se responsabilidade e transparência
  • 6:31 - 6:34
    são as duas pedras fundamentais do governo representativo,
  • 6:34 - 6:38
    armas robóticas autônomas poderiam enfraquecer ambas.
  • 6:38 - 6:40
    Bem, vocês podem estar pensando que
  • 6:40 - 6:42
    cidadãos de nações com alta tecnologia
  • 6:42 - 6:45
    teriam uma vantagem em qualquer guerra robótica,
  • 6:45 - 6:48
    que cidadãos dessas nações seriam menos vulneráveis,
  • 6:48 - 6:53
    particularmente em relação a nações em desenvolvimento.
  • 6:53 - 6:56
    Mas, penso que a verdade é exatamente o oposto.
  • 6:56 - 6:58
    Penso que cidadãos de sociedades de alta tecnologia
  • 6:58 - 7:02
    são mais vulneráveis a armas robóticas,
  • 7:02 - 7:07
    e a razão pode ser resumida em uma palavra: informação.
  • 7:07 - 7:10
    A informação dá poder a sociedades de alta tecnologia.
  • 7:10 - 7:13
    Geolocalização por celular, metadados de telecomunicação,
  • 7:13 - 7:17
    mídia social, email, mensagem de texto, dados de transações financeiras,
  • 7:17 - 7:21
    dados de transportes, é uma riqueza de dados em tempo real
  • 7:21 - 7:24
    dos movimentos e interações sociais das pessoas.
  • 7:24 - 7:27
    Em resumo, somos mais visíveis para as máquinas
  • 7:27 - 7:30
    que qualquer outro povo na história,
  • 7:30 - 7:35
    e isso se encaixa perfeitamente nas necessidades-alvo de armas autônomas.
  • 7:35 - 7:37
    O que estão vendo aqui
  • 7:37 - 7:40
    é um mapa com a análise das ligações de um grupo social.
  • 7:40 - 7:44
    As linhas indicam a conectividade social entre indivíduos.
  • 7:44 - 7:47
    E esses tipos de mapas podem ser gerados automaticamente
  • 7:47 - 7:51
    baseados no rastro de dados que as pessoas modernas deixam para trás.
  • 7:51 - 7:54
    Agora, isso é tipicamente usado para propaganda de bens e serviços
  • 7:54 - 7:58
    para populações alvo, mas é uma tecnologia de uso duplo
  • 7:58 - 8:02
    porque o alvo é usado em outro contexto.
  • 8:02 - 8:04
    Observe que certos indivíduos estão destacados.
  • 8:04 - 8:08
    Estes são os centros de redes sociais.
  • 8:08 - 8:11
    Eles são organizadores, formadores de opinião, líderes,
  • 8:11 - 8:14
    e essas pessoas também podem ser automaticamente identificadas
  • 8:14 - 8:16
    pelos seus padrões de comunicação.
  • 8:16 - 8:18
    Agora, se você é um marqueteiro, você pode atingi-las
  • 8:18 - 8:21
    com amostras de produtos, tentar espalhar sua marca
  • 8:21 - 8:24
    através do grupo social deles.
  • 8:24 - 8:26
    Mas, se você é um governo repressor
  • 8:26 - 8:30
    procurando inimigos políticos, você pode ao invés removê-los,
  • 8:30 - 8:33
    eliminá-los, destruir o grupo social deles,
  • 8:33 - 8:36
    e aqueles que restarem perdem a coesão social
  • 8:36 - 8:39
    e a organização.
  • 8:39 - 8:42
    Agora, em um mundo onde proliferam armas robóticas baratas,
  • 8:42 - 8:45
    as fronteiras ofereceriam muito pouca proteção
  • 8:45 - 8:47
    para críticos de governos distantes
  • 8:47 - 8:51
    ou organizações criminosas transnacionais.
  • 8:51 - 8:54
    Movimentos populares se agitando por mudança
  • 8:54 - 8:58
    poderiam ser detectados logo, e seus líderes eliminados
  • 8:58 - 9:01
    antes que suas ideias atinjam massa crítica.
  • 9:01 - 9:03
    E ideias atingindo massa crítica
  • 9:03 - 9:07
    tem tudo a ver com ativismo político em governos populares.
  • 9:07 - 9:11
    Armas letais anônimas poderiam tornar a ação letal
  • 9:11 - 9:15
    uma escolha fácil para todos os tipos de interesses concorrentes.
  • 9:15 - 9:19
    E isso congelaria o discurso livre
  • 9:19 - 9:24
    e a ação política popular, o próprio coração da democracia.
  • 9:24 - 9:27
    E é por isto que precisamos de um tratado internacional
  • 9:27 - 9:30
    sobre armas robóticas, e, em particular, o banimento global
  • 9:30 - 9:34
    do desenvolvimento e implantação de robôs assassinos.
  • 9:34 - 9:38
    Agora, nós já temos tratados internacionais
  • 9:38 - 9:41
    sobre armas nucleares e biológicas, e, ainda que imperfeitos,
  • 9:41 - 9:43
    eles têm funcionado amplamente.
  • 9:43 - 9:47
    Mas as armas robóticas podem ser um pouco mais perigosas,
  • 9:47 - 9:50
    porque elas serão usadas quase que com certeza,
  • 9:50 - 9:55
    e elas também seriam corrosivas para nossas instituições democráticas.
  • 9:55 - 9:59
    Agora, em novembro de 2012, o Departamento de Defesa dos EUA
  • 9:59 - 10:01
    emitiu uma diretriz exigindo
  • 10:01 - 10:06
    que um ser humano esteja presente em todas as decisões letais.
  • 10:06 - 10:11
    Temporariamente, isto de fato baniu armas autônomas nas forças militares dos EUA,
  • 10:11 - 10:14
    mas essa diretriz precisa tornar-se permanente.
  • 10:14 - 10:19
    E ela poderia preparar o palco para a ação global.
  • 10:19 - 10:22
    Porque precisamos de uma estrutura legal internacional
  • 10:22 - 10:25
    para armas robóticas.
  • 10:25 - 10:28
    E precisamos disto agora, antes que haja um ataque devastador
  • 10:28 - 10:31
    ou um incidente terrorista que provoque uma corrida
  • 10:31 - 10:33
    entre as nações do mundo para adotar essas armas,
  • 10:33 - 10:36
    antes de pensar nas consequências.
  • 10:36 - 10:39
    Armas robóticas autônomas concentram poder demais
  • 10:39 - 10:46
    em poucas mãos, e poderiam pôr em risco a própria democracia.
  • 10:46 - 10:48
    Agora, não me entendam mal, penso que há toneladas
  • 10:48 - 10:51
    de ótimos usos para drones civis desarmados:
  • 10:51 - 10:55
    monitoramento ambiental, busca e resgate, logística.
  • 10:55 - 10:58
    Se tivermos um tratado internacional sobre armas robóticas,
  • 10:58 - 11:01
    como obtemos os benefícios de drones e veículos autônomos
  • 11:01 - 11:04
    e ainda nos protegemos
  • 11:04 - 11:08
    contra armas robóticas ilegais?
  • 11:08 - 11:13
    Penso que o segredo será a transparência.
  • 11:13 - 11:16
    Nenhum robô deveria ter expectativa de privacidade
  • 11:16 - 11:19
    em local público.
  • 11:19 - 11:23
    (Aplausos)
  • 11:24 - 11:26
    Cada robô e drone deveriam ter
  • 11:26 - 11:29
    uma assinatura de identificação criptografada e marcada na fábrica
  • 11:29 - 11:32
    que pudesse ser usada para rastrear seus movimentos em espaços públicos.
  • 11:32 - 11:35
    Temos placas em carros, números em aeronaves.
  • 11:35 - 11:37
    Isto não é diferente.
  • 11:37 - 11:39
    E cada cidadão deveria ser capaz de baixar um aplicativo
  • 11:39 - 11:42
    que mostrasse a população de drones e veículos autônomos
  • 11:42 - 11:45
    transitando em espaços públicos ao redor delas,
  • 11:45 - 11:48
    tanto naquele momento quanto o histórico dessa movimentação.
  • 11:48 - 11:51
    E líderes civis deveriam instalar sensores e drones civis
  • 11:51 - 11:53
    para detectar drones intrusos,
  • 11:53 - 11:57
    que, em vez de enviar drones assassinos próprios para abatê-los,
  • 11:57 - 12:00
    deveriam notificar os humanos da presença deles.
  • 12:00 - 12:02
    E, em certas áreas de segurança máxima,
  • 12:02 - 12:04
    talvez drones civis pudessem emboscá-los
  • 12:04 - 12:07
    e arrastá-los para instalações de descarte de bombas.
  • 12:07 - 12:10
    Mas vejam, isto é mais um sistema imunológico
  • 12:10 - 12:11
    que um sistema de armamento.
  • 12:11 - 12:14
    Ele nos permitiria o benefício do uso
  • 12:14 - 12:16
    de veículos autônomos e drones
  • 12:16 - 12:20
    e ainda a preservação de nossa sociedade civil e aberta.
  • 12:20 - 12:23
    Devemos banir a instalação e o desenvolvimento
  • 12:23 - 12:25
    de robôs assassinos.
  • 12:25 - 12:30
    Não vamos sucumbir à tentação de automatizar a guerra.
  • 12:30 - 12:33
    Governos autocráticos e organizações criminosas,
  • 12:33 - 12:36
    sem dúvida, vão, mas não vamos nos juntar a eles.
  • 12:36 - 12:38
    Armas robóticas autônomas
  • 12:38 - 12:40
    concentrariam poder demais
  • 12:40 - 12:42
    em poucas mãos não vistas,
  • 12:42 - 12:45
    e isso seria corrosivo para o governo representativo.
  • 12:45 - 12:48
    Vamos nos certificar, para democracias ao menos,
  • 12:48 - 12:51
    de que robôs assassinos continuem sendo ficção.
  • 12:51 - 12:52
    Obrigado.
  • 12:52 - 12:57
    (Aplausos)
  • 12:57 - 13:01
    Obrigado. (Aplausos)
Title:
Daniel Suarez: A decisão de matar não deve ser de um robô
Speaker:
Daniel Suarez
Description:

Como romancista, Daniel Suarez tece contos distópicos do futuro. Mas, no palco do TEDGlobal, ele nos fala de um cenário da vida real do qual todos nós precisamos ter mais conhecimento: o surgimento de armas robóticas autônomas de guerra. Drones avançados, armas automatizadas e ferramentas que reúnem mecanismos inteligentes, sugere ele, poderiam tirar a decisão de guerrear das mãos humanas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:20

Portuguese, Brazilian subtitles

Revisions