Daniel Suarez: A decisão de matar não deve ser de um robô
-
0:00 - 0:03Escrevo livros de suspense e ficção científica,
-
0:03 - 0:06portanto, se eu disser "robôs assassinos",
-
0:06 - 0:08você provavelmente pensa em algo assim.
-
0:08 - 0:10Mas, na verdade, não estou aqui para falar de ficção.
-
0:10 - 0:14Estou aqui para falar sobre robôs assassinos muito reais,
-
0:14 - 0:17drones de combate autônomos.
-
0:17 - 0:20Não me refiro aos drones Predator e Reaper,
-
0:20 - 0:23que têm um humano tomando decisões sobre o alvo.
-
0:23 - 0:27Estou falando de armas robóticas completamente autônomas
-
0:27 - 0:29que tomam decisões letais sobre seres humanos
-
0:29 - 0:32por si mesmas.
-
0:32 - 0:36Há na verdade um termo técnico para isso: autonomia letal.
-
0:36 - 0:38Bem, robôs assassinos com autonomia letal
-
0:38 - 0:42tomariam muitas formas -- voar, dirigir
-
0:42 - 0:44ou apenas ficar à espreita.
-
0:44 - 0:47E, na verdade, eles estão se tornando realidade muito rapidamente.
-
0:47 - 0:50Estas são duas estações automáticas de tiro
-
0:50 - 0:54atualmente implantadas na zona desmilitarizada entre a Coreia do Norte e a do Sul.
-
0:54 - 0:56Essas duas máquinas são capazes de automaticamente
-
0:56 - 1:00identificar um alvo humano e atirar nele,
-
1:00 - 1:04aquela, à esquerda, a uma distância de mais de um quilômetro.
-
1:04 - 1:08Agora, em ambos os casos, ainda há um humano no circuito
-
1:08 - 1:10para tomar a decisão letal de atirar,
-
1:10 - 1:15mas isso não é um requisito tecnológico. É uma escolha.
-
1:15 - 1:19E é nessa escolha em que quero focar,
-
1:19 - 1:21porque, à medida que transferimos a decisão letal
-
1:21 - 1:24dos humanos para um programa de computador,
-
1:24 - 1:28colocamos em risco não só tirar a humanidade da guerra,
-
1:28 - 1:31mas também alterar nossa paisagem social inteiramente,
-
1:31 - 1:33longe do campo de batalha.
-
1:33 - 1:38Isso ocorre porque a maneira como os humanos resolvem conflitos
-
1:38 - 1:40dá forma à nossa paisagem social.
-
1:40 - 1:42E o caso foi sempre esse, através da história.
-
1:42 - 1:45Por exemplo, estes eram sistemas de armamento de primeira linha
-
1:45 - 1:47em 1400 d.C.
-
1:47 - 1:50Agora, eles eram muito caros para construir e manter,
-
1:50 - 1:53mas com eles você poderia dominar a população,
-
1:53 - 1:57e a distribuição do poder político na sociedade feudal refletiu isso.
-
1:57 - 2:00O poder estava focado bem no topo.
-
2:00 - 2:04E o que mudou? Inovação tecnológica.
-
2:04 - 2:05Pólvora, canhões.
-
2:05 - 2:09Logo armaduras e castelos estavam obsoletos,
-
2:09 - 2:12e importava menos quem você trazia para o campo de batalha
-
2:12 - 2:16do que quantas pessoas você trazia para o campo de batalha.
-
2:16 - 2:19E, à medida que exércitos cresceram em tamanho, surgiu a nação-estado
-
2:19 - 2:23como um requisito político e logístico de defesa .
-
2:23 - 2:25E, à medida que os líderes tiveram que confiar em uma parcela maior da população,
-
2:25 - 2:27eles começaram a compartilhar o poder.
-
2:27 - 2:30O governo representativo começou a se formar.
-
2:30 - 2:33Outra vez, as ferramentas que usamos para resolver conflitos
-
2:33 - 2:36dão forma à nossa paisagem social.
-
2:36 - 2:40Armas robóticas autônomas são ferramentas,
-
2:40 - 2:46apesar de que, ao exigirem poucas pessoas numa guerra,
-
2:46 - 2:50colocam em risco 'recentralizar' o poder em muito poucas mãos,
-
2:50 - 2:57possivelmente revertendo uma tendência de cinco séculos em direção à democracia.
-
2:57 - 2:59Agora, penso que, conhecendo isto,
-
2:59 - 3:03podemos dar passos decisivos para preservar nossas instituições democráticas,
-
3:03 - 3:07fazendo o que os humanos fazem melhor, que é adaptar-se.
-
3:07 - 3:09Mas o tempo é um fator.
-
3:09 - 3:12Setenta nações estão desenvolvendo, por conta própria,
-
3:12 - 3:14drones de combate pilotados remotamente,
-
3:14 - 3:17e, como vocês verão, drones de combate pilotados remotamente
-
3:17 - 3:21são os precursores das armas robóticas autônomas.
-
3:21 - 3:24Isso acontece porque, uma vez que você tenha instalado drones pilotados remotamente,
-
3:24 - 3:27há três fatores poderosos agindo no sentido de que a tomada de decisão
-
3:27 - 3:32passe dos humanos para a própria plataforma de armas.
-
3:32 - 3:37O primeiro deles é a inundação de vídeos que os drones produzem.
-
3:37 - 3:41Por exemplo, em 2004, a frota de drones dos E.U.A. produziu
-
3:41 - 3:46um total de 71 horas de vídeos de vigilância para análise.
-
3:46 - 3:51Em 2011, isso tinha aumentado para 300.000 horas,
-
3:51 - 3:54superando a capacidade humana de revisá-los todos,
-
3:54 - 3:58mas mesmo esse número deve aumentar drasticamente.
-
3:58 - 4:00Os programas Gorgon Stare e Argus do Pentagono,
-
4:00 - 4:03colocarão 65 câmeras operadas independentemente
-
4:03 - 4:05em cada plataforma de drones,
-
4:05 - 4:09e isto superará e muito a capacidade humana de revisá-las.
-
4:09 - 4:11Isso significa que software visual inteligente precisará
-
4:11 - 4:15verificá-las para itens de interesse.
-
4:15 - 4:16Isso significa que muito em breve
-
4:16 - 4:19os drones dirão aos humanos o que olhar,
-
4:19 - 4:21não o contrário.
-
4:21 - 4:24Mas há um segundo incentivo poderoso agindo para que
-
4:24 - 4:27a tomada de decisão passe dos humanos para as máquinas,
-
4:27 - 4:30que é o congestionamento eletromagnético
-
4:30 - 4:32interrompendo a conexão entre o drone
-
4:32 - 4:35e seu operador.
-
4:35 - 4:38Vimos um exemplo disso, em 2011,
-
4:38 - 4:41quando o drone Sentinel RQ-170
-
4:41 - 4:45ficou ligeiramente confuso no Irã, devido a um ataque de 'spoofing' ao GPS,
-
4:45 - 4:50mas qualquer drone pilotado remotamente é suscetível a esse tipo de ataque,
-
4:50 - 4:52e isso significa que os drones
-
4:52 - 4:56terão que ter maior poder de decisão.
-
4:56 - 4:59Eles conhecerão o objetivo da missão,
-
4:59 - 5:04e reagirão a novas circunstâncias sem a supervisão humana.
-
5:04 - 5:06Eles ignorarão sinais externos de rádio
-
5:06 - 5:09e enviarão muito poucos deles.
-
5:09 - 5:11O que nos traz, de fato, ao terceiro
-
5:11 - 5:15e mais poderoso incentivo para transferir a tomada de decisão
-
5:15 - 5:18dos humanos para as máquinas:
-
5:18 - 5:21negação plausível.
-
5:21 - 5:24Atualmente vivemos em uma economia global.
-
5:24 - 5:28A manufatura de alta tecnologia está ocorrendo na maioria dos continentes.
-
5:28 - 5:31A espionagem cibernética está espalhando projetos avançados
-
5:31 - 5:33para partes desconhecidas,
-
5:33 - 5:35e, neste ambiente, é muito provável
-
5:35 - 5:40que um bem sucedido projeto de drone, produzido em fábricas terceirizadas,
-
5:40 - 5:42prolifere no mercado paralelo.
-
5:42 - 5:45E, nessa situação, vasculhando os escombros
-
5:45 - 5:48de um ataque sucida de drones, será muito difícil dizer
-
5:48 - 5:52quem enviou aquela arma.
-
5:52 - 5:55Isto levanta a possibilidade muito realista
-
5:55 - 5:58de guerra anônima.
-
5:58 - 6:00Isso poderia inclinar o equilíbrio geopolítico no topo,
-
6:00 - 6:04tornar muito difícil para uma nação mirar seu poder de fogo
-
6:04 - 6:07contra um atacante, e isso poderia alterar o equilíbrio,
-
6:07 - 6:10no século XXI, da defesa para a ofensa.
-
6:10 - 6:14Poderia tornar a ação militar uma opção viável
-
6:14 - 6:16não apenas para nações pequenas,
-
6:16 - 6:18mas também para organizações criminosas, empresas privadas,
-
6:18 - 6:21até mesmo para indivíduos poderosos.
-
6:21 - 6:24Poderia criar uma paisagem de senhores da guerra rivais
-
6:24 - 6:28enfraquecendo a prevalência da lei e a sociedade civil.
-
6:28 - 6:31Agora, se responsabilidade e transparência
-
6:31 - 6:34são as duas pedras fundamentais do governo representativo,
-
6:34 - 6:38armas robóticas autônomas poderiam enfraquecer ambas.
-
6:38 - 6:40Bem, vocês podem estar pensando que
-
6:40 - 6:42cidadãos de nações com alta tecnologia
-
6:42 - 6:45teriam uma vantagem em qualquer guerra robótica,
-
6:45 - 6:48que cidadãos dessas nações seriam menos vulneráveis,
-
6:48 - 6:53particularmente em relação a nações em desenvolvimento.
-
6:53 - 6:56Mas, penso que a verdade é exatamente o oposto.
-
6:56 - 6:58Penso que cidadãos de sociedades de alta tecnologia
-
6:58 - 7:02são mais vulneráveis a armas robóticas,
-
7:02 - 7:07e a razão pode ser resumida em uma palavra: informação.
-
7:07 - 7:10A informação dá poder a sociedades de alta tecnologia.
-
7:10 - 7:13Geolocalização por celular, metadados de telecomunicação,
-
7:13 - 7:17mídia social, email, mensagem de texto, dados de transações financeiras,
-
7:17 - 7:21dados de transportes, é uma riqueza de dados em tempo real
-
7:21 - 7:24dos movimentos e interações sociais das pessoas.
-
7:24 - 7:27Em resumo, somos mais visíveis para as máquinas
-
7:27 - 7:30que qualquer outro povo na história,
-
7:30 - 7:35e isso se encaixa perfeitamente nas necessidades-alvo de armas autônomas.
-
7:35 - 7:37O que estão vendo aqui
-
7:37 - 7:40é um mapa com a análise das ligações de um grupo social.
-
7:40 - 7:44As linhas indicam a conectividade social entre indivíduos.
-
7:44 - 7:47E esses tipos de mapas podem ser gerados automaticamente
-
7:47 - 7:51baseados no rastro de dados que as pessoas modernas deixam para trás.
-
7:51 - 7:54Agora, isso é tipicamente usado para propaganda de bens e serviços
-
7:54 - 7:58para populações alvo, mas é uma tecnologia de uso duplo
-
7:58 - 8:02porque o alvo é usado em outro contexto.
-
8:02 - 8:04Observe que certos indivíduos estão destacados.
-
8:04 - 8:08Estes são os centros de redes sociais.
-
8:08 - 8:11Eles são organizadores, formadores de opinião, líderes,
-
8:11 - 8:14e essas pessoas também podem ser automaticamente identificadas
-
8:14 - 8:16pelos seus padrões de comunicação.
-
8:16 - 8:18Agora, se você é um marqueteiro, você pode atingi-las
-
8:18 - 8:21com amostras de produtos, tentar espalhar sua marca
-
8:21 - 8:24através do grupo social deles.
-
8:24 - 8:26Mas, se você é um governo repressor
-
8:26 - 8:30procurando inimigos políticos, você pode ao invés removê-los,
-
8:30 - 8:33eliminá-los, destruir o grupo social deles,
-
8:33 - 8:36e aqueles que restarem perdem a coesão social
-
8:36 - 8:39e a organização.
-
8:39 - 8:42Agora, em um mundo onde proliferam armas robóticas baratas,
-
8:42 - 8:45as fronteiras ofereceriam muito pouca proteção
-
8:45 - 8:47para críticos de governos distantes
-
8:47 - 8:51ou organizações criminosas transnacionais.
-
8:51 - 8:54Movimentos populares se agitando por mudança
-
8:54 - 8:58poderiam ser detectados logo, e seus líderes eliminados
-
8:58 - 9:01antes que suas ideias atinjam massa crítica.
-
9:01 - 9:03E ideias atingindo massa crítica
-
9:03 - 9:07tem tudo a ver com ativismo político em governos populares.
-
9:07 - 9:11Armas letais anônimas poderiam tornar a ação letal
-
9:11 - 9:15uma escolha fácil para todos os tipos de interesses concorrentes.
-
9:15 - 9:19E isso congelaria o discurso livre
-
9:19 - 9:24e a ação política popular, o próprio coração da democracia.
-
9:24 - 9:27E é por isto que precisamos de um tratado internacional
-
9:27 - 9:30sobre armas robóticas, e, em particular, o banimento global
-
9:30 - 9:34do desenvolvimento e implantação de robôs assassinos.
-
9:34 - 9:38Agora, nós já temos tratados internacionais
-
9:38 - 9:41sobre armas nucleares e biológicas, e, ainda que imperfeitos,
-
9:41 - 9:43eles têm funcionado amplamente.
-
9:43 - 9:47Mas as armas robóticas podem ser um pouco mais perigosas,
-
9:47 - 9:50porque elas serão usadas quase que com certeza,
-
9:50 - 9:55e elas também seriam corrosivas para nossas instituições democráticas.
-
9:55 - 9:59Agora, em novembro de 2012, o Departamento de Defesa dos EUA
-
9:59 - 10:01emitiu uma diretriz exigindo
-
10:01 - 10:06que um ser humano esteja presente em todas as decisões letais.
-
10:06 - 10:11Temporariamente, isto de fato baniu armas autônomas nas forças militares dos EUA,
-
10:11 - 10:14mas essa diretriz precisa tornar-se permanente.
-
10:14 - 10:19E ela poderia preparar o palco para a ação global.
-
10:19 - 10:22Porque precisamos de uma estrutura legal internacional
-
10:22 - 10:25para armas robóticas.
-
10:25 - 10:28E precisamos disto agora, antes que haja um ataque devastador
-
10:28 - 10:31ou um incidente terrorista que provoque uma corrida
-
10:31 - 10:33entre as nações do mundo para adotar essas armas,
-
10:33 - 10:36antes de pensar nas consequências.
-
10:36 - 10:39Armas robóticas autônomas concentram poder demais
-
10:39 - 10:46em poucas mãos, e poderiam pôr em risco a própria democracia.
-
10:46 - 10:48Agora, não me entendam mal, penso que há toneladas
-
10:48 - 10:51de ótimos usos para drones civis desarmados:
-
10:51 - 10:55monitoramento ambiental, busca e resgate, logística.
-
10:55 - 10:58Se tivermos um tratado internacional sobre armas robóticas,
-
10:58 - 11:01como obtemos os benefícios de drones e veículos autônomos
-
11:01 - 11:04e ainda nos protegemos
-
11:04 - 11:08contra armas robóticas ilegais?
-
11:08 - 11:13Penso que o segredo será a transparência.
-
11:13 - 11:16Nenhum robô deveria ter expectativa de privacidade
-
11:16 - 11:19em local público.
-
11:19 - 11:23(Aplausos)
-
11:24 - 11:26Cada robô e drone deveriam ter
-
11:26 - 11:29uma assinatura de identificação criptografada e marcada na fábrica
-
11:29 - 11:32que pudesse ser usada para rastrear seus movimentos em espaços públicos.
-
11:32 - 11:35Temos placas em carros, números em aeronaves.
-
11:35 - 11:37Isto não é diferente.
-
11:37 - 11:39E cada cidadão deveria ser capaz de baixar um aplicativo
-
11:39 - 11:42que mostrasse a população de drones e veículos autônomos
-
11:42 - 11:45transitando em espaços públicos ao redor delas,
-
11:45 - 11:48tanto naquele momento quanto o histórico dessa movimentação.
-
11:48 - 11:51E líderes civis deveriam instalar sensores e drones civis
-
11:51 - 11:53para detectar drones intrusos,
-
11:53 - 11:57que, em vez de enviar drones assassinos próprios para abatê-los,
-
11:57 - 12:00deveriam notificar os humanos da presença deles.
-
12:00 - 12:02E, em certas áreas de segurança máxima,
-
12:02 - 12:04talvez drones civis pudessem emboscá-los
-
12:04 - 12:07e arrastá-los para instalações de descarte de bombas.
-
12:07 - 12:10Mas vejam, isto é mais um sistema imunológico
-
12:10 - 12:11que um sistema de armamento.
-
12:11 - 12:14Ele nos permitiria o benefício do uso
-
12:14 - 12:16de veículos autônomos e drones
-
12:16 - 12:20e ainda a preservação de nossa sociedade civil e aberta.
-
12:20 - 12:23Devemos banir a instalação e o desenvolvimento
-
12:23 - 12:25de robôs assassinos.
-
12:25 - 12:30Não vamos sucumbir à tentação de automatizar a guerra.
-
12:30 - 12:33Governos autocráticos e organizações criminosas,
-
12:33 - 12:36sem dúvida, vão, mas não vamos nos juntar a eles.
-
12:36 - 12:38Armas robóticas autônomas
-
12:38 - 12:40concentrariam poder demais
-
12:40 - 12:42em poucas mãos não vistas,
-
12:42 - 12:45e isso seria corrosivo para o governo representativo.
-
12:45 - 12:48Vamos nos certificar, para democracias ao menos,
-
12:48 - 12:51de que robôs assassinos continuem sendo ficção.
-
12:51 - 12:52Obrigado.
-
12:52 - 12:57(Aplausos)
-
12:57 - 13:01Obrigado. (Aplausos)
- Title:
- Daniel Suarez: A decisão de matar não deve ser de um robô
- Speaker:
- Daniel Suarez
- Description:
-
Como romancista, Daniel Suarez tece contos distópicos do futuro. Mas, no palco do TEDGlobal, ele nos fala de um cenário da vida real do qual todos nós precisamos ter mais conhecimento: o surgimento de armas robóticas autônomas de guerra. Drones avançados, armas automatizadas e ferramentas que reúnem mecanismos inteligentes, sugere ele, poderiam tirar a decisão de guerrear das mãos humanas.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:20
Gustavo Rocha approved Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Gustavo Rocha edited Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Gustavo Rocha edited Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Gustavo Rocha edited Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Gustavo Rocha edited Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Gustavo Rocha edited Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Diogo Germano accepted Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot | ||
Diogo Germano commented on Portuguese, Brazilian subtitles for The kill decision shouldn't belong to a robot |