Como os "deepfakes" minam a verdade e ameaçam a democracia
-
0:00 - 0:03[Esta palestra apresenta conteúdo adulto]
-
0:06 - 0:09Rana Ayyub é uma jornalista na Índia
-
0:09 - 0:12que denunciou no seu trabalho
a corrupção governamental -
0:12 - 0:15e violações dos direitos humanos.
-
0:15 - 0:17E, ao longo dos anos,
-
0:17 - 0:20habituou-se à crítica corrosiva
e à controvérsia sobre o seu trabalho. -
0:20 - 0:25Mas nada disso a podia preparar
para o que aconteceu em abril de 2018. -
0:26 - 0:30Ela estava num café com um amigo
quando viu pela primeira vez -
0:30 - 0:35um vídeo de dois minutos e vinte segundos
em que ela aparecia numa relação sexual. -
0:35 - 0:38Ela não podia acreditar no que via.
-
0:38 - 0:40Nunca havia feito um vídeo de sexo.
-
0:41 - 0:44Mas, infelizmente, milhares de pessoas
-
0:44 - 0:46iam acreditar que era ela.
-
0:47 - 0:50Eu entrevistei Ayyub
há cerca de três meses, -
0:50 - 0:53para o meu livro sobre privacidade sexual.
-
0:53 - 0:56Sou professora de Direito, advogada
e porta-voz dos direitos civis. -
0:56 - 1:01É incrivelmente frustrante saber
que, neste exato momento, -
1:01 - 1:03a lei pouco pode fazer para ajudá-la.
-
1:03 - 1:05Enquanto conversávamos,
-
1:05 - 1:10ela explicou-me que devia ter previsto
aquele vídeo sexual forjado e disse: -
1:10 - 1:16"Afinal, o sexo é frequentemente
usado para humilhar as mulheres, -
1:16 - 1:18"especialmente as que fazem parte
de minorias, -
1:18 - 1:22"e mais ainda aquelas que se atrevem
a desafiar homens poderosos", -
1:23 - 1:25como ela havia feito.
-
1:25 - 1:29Esse vídeo de sexo forjado
tornou-se viral em 48 horas. -
1:30 - 1:32Todas as suas contas "online"
-
1:32 - 1:35foram inundadas com imagens
retiradas desse vídeo, -
1:35 - 1:38com ameaças gráficas
de violação e de morte -
1:38 - 1:41e com insultos em relação
à fé muçulmana dela. -
1:41 - 1:46Publicações "online" sugeriam
que ela estava "disponível" para sexo. -
1:46 - 1:48E ela foi "doxed",
-
1:48 - 1:51o que significa que o endereço
e o número do telemóvel dela -
1:51 - 1:53foram divulgados na Internet.
-
1:53 - 1:57O vídeo foi partilhado
mais de 40 000 vezes. -
1:58 - 2:02Quando alguém é alvo
deste tipo de ataque cibernético, -
2:02 - 2:04os danos são profundos.
-
2:04 - 2:08A vida de Rana Ayyub
virou-se de pernas para o ar. -
2:08 - 2:12Durante semanas,
ela mal conseguia comer ou falar. -
2:12 - 2:16Deixou de escrever e fechou
todas as contas nas redes sociais, -
2:16 - 2:19o que é uma coisa muito difícil
para uma jornalista. -
2:19 - 2:23Tinha medo de sair de casa.
-
2:23 - 2:26E se quem escrevia
cumprisse as suas ameaças? -
2:26 - 2:31O Conselho dos Direitos Humanos da ONU
confirmou que ela não estava paranoica. -
2:31 - 2:33Emitiram uma declaração pública dizendo
-
2:33 - 2:36que estavam preocupados
com a sua segurança. -
2:37 - 2:41O que Rana Ayyub enfrentava
era um "deepfake", -
2:41 - 2:44uma tecnologia de aprendizagem automática
-
2:44 - 2:48que manipula ou fabrica
gravações de áudio e vídeo -
2:48 - 2:50para mostrar pessoas
a fazer ou a dizer -
2:50 - 2:53coisas que nunca fizeram ou disseram.
-
2:53 - 2:56Os "deepfakes" parecem autênticos
e reais, mas não são, -
2:56 - 2:58são puras mentiras.
-
2:59 - 3:03Embora esta tecnologia
ainda esteja a aperfeiçoar-se. -
3:03 - 3:05já está amplamente disponível.
-
3:05 - 3:08O interesse atual em "deepfakes" surgiu
-
3:08 - 3:11— como com muitas coisas "online" —
-
3:11 - 3:12com a pornografia.
-
3:12 - 3:15No início de 2018,
-
3:15 - 3:17alguém publicou uma ferramenta no Reddit
-
3:17 - 3:22que permite às pessoas colocar rostos
em vídeos pornográficos. -
3:22 - 3:25O que se seguiu foi uma enxurrada
de vídeos pornográficos falsos -
3:25 - 3:28protagonizados pelas celebridades
preferidas do público. -
3:29 - 3:32E hoje é possível achar
no YouTube inúmeros tutoriais -
3:32 - 3:34com instruções passo-a-passo
-
3:35 - 3:38para criar um "deepfake"
num aplicativo do computador. -
3:38 - 3:42Em breve, talvez seja possível
criá-los nos nossos telemóveis. -
3:43 - 3:48Mas é a interação das fraquezas
humanas mais básicas -
3:48 - 3:50com ferramentas na Internet
-
3:50 - 3:53que pode transformar
os "deepfakes" em armas. -
3:53 - 3:55Passo a explicar.
-
3:55 - 3:59Enquanto seres humanos, temos
uma reação visceral aos áudios e vídeos. -
4:00 - 4:02Acreditamos que são verdadeiros,
-
4:02 - 4:04baseando-nos na noção
de que podemos acreditar -
4:04 - 4:06no que os nossos olhos
e ouvidos estão a dizer. -
4:06 - 4:08É esse mecanismo
-
4:08 - 4:12que pode enfraquecer o nosso sentido
de realidade comum. -
4:12 - 4:15Embora acreditemos que os "deepfakes"
sejam reais, não são. -
4:16 - 4:20E somos atraídos por aquilo
que é obsceno, provocador. -
4:20 - 4:23Temos a tendência a acreditar
e a partilhar informações -
4:23 - 4:25que sejam negativas,
que sejam novidade. -
4:26 - 4:29Os investigadores descobriram
que as aldrabices "online" -
4:29 - 4:31propagam-se dez vezes mais depressa
-
4:31 - 4:33do que histórias verdadeiras.
-
4:34 - 4:38Também somos atraídos por informações
-
4:38 - 4:41alinhadas com o nosso ponto de vista.
-
4:41 - 4:45Os psicólogos chamam a essa tendência
de "preconceito de confirmação". -
4:45 - 4:50As plataformas das redes sociais
superalimentam essa tendência, -
4:50 - 4:54quando nos permitem partilhar,
instantânea e amplamente, -
4:54 - 4:56informações de acordo
com os nossos pontos de vista. -
4:57 - 5:02Os "deepfakes" podem causar
graves danos pessoais e sociais. -
5:03 - 5:05Imaginem um "deepfake"
-
5:05 - 5:10que mostre soldados americanos
a incendiar um Alcorão no Afeganistão. -
5:11 - 5:14É fácil imaginar que este
"deepfake" provocaria violência -
5:14 - 5:16contra esses soldados.
-
5:16 - 5:19E se, no dia seguinte,
-
5:19 - 5:21surgisse um outro "deepfake",
-
5:21 - 5:24a mostrar um conhecido imã de Londres
-
5:24 - 5:27a pregar o ataque a esses soldados?
-
5:28 - 5:31Poderíamos ver a violência
e a desordem civil -
5:31 - 5:34não só no Afeganistão e no Reino Unido,
-
5:34 - 5:36mas pelo mundo inteiro.
-
5:36 - 5:38Vocês poderiam dizer:
-
5:38 - 5:40"Por favor, Danielle, isso é rebuscado".
-
5:40 - 5:41Mas não é.
-
5:41 - 5:44Já vimos que a propagação de mentiras
-
5:44 - 5:46no WhatsApp e noutros mensageiros "online"
-
5:46 - 5:49resultou em violência
contra minorias étnicas. -
5:49 - 5:51E foi apenas texto,
-
5:51 - 5:53imaginem se fosse um vídeo.
-
5:55 - 6:00Os "deepfakes" têm a capacidade
de destruir a confiança que temos -
6:00 - 6:03nas instituições democráticas.
-
6:03 - 6:06Então, imaginem que,
na noite antes dumas eleições, -
6:06 - 6:09temos um "deepfake" que mostra
um dos candidatos do principal partido -
6:09 - 6:11gravemente doente.
-
6:11 - 6:14Esse "deepfake" pode decidir as eleições
-
6:14 - 6:17e abalar o nosso sentido
de que as eleições são legítimas. -
6:19 - 6:22Imaginem se, na noite anterior
a uma oferta pública -
6:22 - 6:24de um importante banco global,
-
6:24 - 6:27aparecesse um "deepfake"
a mostrar o CEO do banco embriagado, -
6:27 - 6:31a vomitar teorias da conspiração.
-
6:31 - 6:34O "deepfake" pode afundar
a oferta pública, -
6:34 - 6:38e pior, pode abalar a nossa noção
de que o mercado financeiro é estável. -
6:39 - 6:43Os "deepfakes" podem explorar e expandir
-
6:43 - 6:46a profunda desconfiança que já temos
-
6:46 - 6:51nos políticos, nos líderes de negócios
e noutros líderes influentes. -
6:51 - 6:55Eles encontram uma audiência
pronta para acreditar neles. -
6:55 - 6:58A procura da verdade também está em jogo.
-
6:59 - 7:03Tecnólogos esperam que, com o
avanço da inteligência artificial, -
7:03 - 7:06em breve será difícil, se não impossível,
-
7:06 - 7:11dizer a diferença entre
um vídeo real e um vídeo falso. -
7:11 - 7:13Então, como pode a verdade surgir
-
7:14 - 7:17num mercado de ideias
movido a "deepfakes"? -
7:17 - 7:20Será que vamos seguir
pelo caminho de menor resistência, -
7:20 - 7:23acreditar no que queremos acreditar,
-
7:23 - 7:25e a verdade que se dane?
-
7:25 - 7:28Não só acreditaríamos no falso,
-
7:28 - 7:32como podíamos começar
a descrer da verdade. -
7:32 - 7:36Já vimos pessoas invocar
o fenómeno dos "deepfakes" -
7:36 - 7:40para provocar dúvidas sobre indícios
reais das suas más ações. -
7:40 - 7:46Ouvimos políticos dizer sobre áudios
com comentários seus perturbadores: -
7:46 - 7:48"Por favor, isso são notícias falsas.
-
7:48 - 7:52"Vocês não podem acreditar no que
os vossos olhos e ouvidos estão a dizer." -
7:52 - 7:54É esse o risco
-
7:54 - 7:59a que o professor Robert Chesney e eu
chamamos "dividendo do mentiroso": -
8:00 - 8:03o risco de que os mentirosos
venham a invocar os "deepfakes" -
8:03 - 8:06para escapar à responsabilidade
das suas más ações. -
8:07 - 8:10Temos um trabalho difícil a fazer,
não há dúvidas quanto a isso. -
8:11 - 8:14E vamos precisar de uma solução proativa
-
8:14 - 8:17das empresas de tecnologia,
dos legisladores, -
8:17 - 8:20dos agentes da lei e dos "media".
-
8:20 - 8:25E vamos precisar de uma boa dose
de resiliência da sociedade. -
8:26 - 8:29Neste momento, estamos empenhados
numa conversa pública -
8:29 - 8:32sobre a responsabilidade
das empresas de tecnologia. -
8:33 - 8:36O meu conselho para as plataformas
de redes sociais -
8:36 - 8:40tem sido mudar os termos do serviço
e as orientações para a comunidade -
8:40 - 8:43para impedir "deepfakes" que causem danos.
-
8:43 - 8:47Esta determinação vai requerer
a avaliação humana, -
8:47 - 8:48e isso é caro.
-
8:49 - 8:51Mas precisamos que haja seres humanos
-
8:51 - 8:55que olhem para o conteúdo
e o contexto de um "deepfake" -
8:55 - 8:59para perceberem se é
uma representação prejudicial -
8:59 - 9:03ou se, pelo contrário, tem valor
como sátira, arte ou educação. -
9:04 - 9:06E quanto à lei?
-
9:07 - 9:09A lei é a nossa educadora.
-
9:10 - 9:14Ensina-nos o que é prejudicial
e o que é errado. -
9:14 - 9:18E configura o comportamento
que inibe, punindo os criminosos, -
9:18 - 9:21e que assegura indemnizações às vítimas.
-
9:21 - 9:26Neste momento, a lei não está
apta a desafiar os "deepfakes". -
9:26 - 9:28No mundo inteiro,
-
9:28 - 9:30temos falta de leis bem feitas
-
9:30 - 9:34com o objetivo de enfrentar
falsificações digitais -
9:34 - 9:36que invadam a privacidade sexual,
-
9:36 - 9:37que prejudiquem reputações
-
9:37 - 9:40e que causem sofrimento emocional.
-
9:40 - 9:44O que aconteceu a Rana Ayyub
é um lugar comum cada vez mais frequente. -
9:44 - 9:47Mesmo assim, quando
recorreu à lei em Deli, -
9:47 - 9:49disseram-lhe que não podiam fazer nada.
-
9:49 - 9:52A triste verdade é que
o mesmo aconteceria -
9:52 - 9:55nos EUA e na Europa.
-
9:55 - 10:00Temos um vácuo legal
que precisa de ser preenchido. -
10:00 - 10:04A Dra. Mary Anne Franks e eu estamos
a trabalhar com legisladores americanos -
10:04 - 10:09na elaboração de leis capazes de proibir
falsificações digitais nocivas, -
10:09 - 10:12comparáveis a roubo de identidade.
-
10:12 - 10:15Temos visto movimentos parecidos
-
10:15 - 10:18na Islândia, no Reino Unido
e na Austrália. -
10:18 - 10:22Claro, esta é apenas uma pequena peça
no "puzzle" regulatório. -
10:23 - 10:26Eu sei que a lei não resolve tudo.
-
10:26 - 10:28É um instrumento pouco preciso
-
10:28 - 10:30e temos de usá-lo com sabedoria.
-
10:30 - 10:34Também tem alguns inconvenientes práticos.
-
10:34 - 10:39Não podemos aplicar a lei contra pessoas
sem as identificar e achar. -
10:39 - 10:44Se um criminoso viver fora do país
em que a vítima vive, -
10:45 - 10:46pode ser difícil conseguir
-
10:46 - 10:49que ele compareça no tribunal local
-
10:49 - 10:50para responder à justiça.
-
10:50 - 10:55Assim, precisamos de uma resposta
internacional coordenada. -
10:56 - 11:00A educação também tem de fazer parte
da nossa resposta. -
11:00 - 11:04As autoridades legais não vão impor
leis que desconhecem -
11:05 - 11:08e aconselhar problemas que não entendem.
-
11:08 - 11:11Na minha pesquisa sobre
perseguição cibernética -
11:11 - 11:14descobri que os agentes da polícia
não têm formação -
11:14 - 11:17para entender as leis disponíveis
-
11:17 - 11:19e o problema da violência "online".
-
11:19 - 11:22Frequentemente diziam às vítimas:
-
11:22 - 11:26"Desligue o computador.
Ignore. Isso passa". -
11:26 - 11:29Vimos isso no caso de Rana Ayyub.
-
11:29 - 11:33Disseram-lhe: "Você está a fazer
uma tempestade num copo de água." -
11:33 - 11:35"Isso é coisa de rapaziada".
-
11:35 - 11:41Por isso, precisamos de combinar
novas leis com ações de formação. -
11:42 - 11:46Os "media" também têm de ser
alvo de educação. -
11:46 - 11:51Os jornalistas precisam de ter formação
quanto ao fenómeno dos "deepfakes" -
11:51 - 11:54para não os ampliarem e espalharem.
-
11:55 - 11:57E é aqui que estamos todos envolvidos.
-
11:57 - 12:01Cada um de nós precisa de se educar.
-
12:01 - 12:05Clicamos, partilhamos, gostamos,
sem sequer pensar nisso. -
12:06 - 12:08Temos de melhorar isso.
-
12:08 - 12:11Precisamos de ficar
muito mais atentos às falsificações. -
12:14 - 12:18Enquanto trabalhamos nestas soluções,
-
12:18 - 12:21ainda haverá muito sofrimento.
-
12:21 - 12:24Rana Ayyub ainda está a lidar
com as consequências. -
12:25 - 12:29Ela ainda não se sente à vontade para
se exprimir "online" e "offline". -
12:30 - 12:31E como me disse,
-
12:31 - 12:36ela ainda sente milhares de olhos
sobre o seu corpo nu -
12:36 - 12:40embora, intelectualmente, saiba
que aquele não era o corpo dela. -
12:40 - 12:43Ela tem ataques de pânico frequentes,
-
12:43 - 12:47especialmente quando algum desconhecido
tenta tirar-lhe uma fotografia. -
12:47 - 12:51"E se eles fizerem outro 'deepfake'?"
pensa consigo mesma. -
12:51 - 12:55Então, a bem de pessoas como Rana Ayyub
-
12:55 - 12:57e a bem da nossa democracia,
-
12:57 - 13:00precisamos de fazer algo já.
-
13:00 - 13:01Obrigada.
-
13:01 - 13:03(Aplausos)
- Title:
- Como os "deepfakes" minam a verdade e ameaçam a democracia
- Speaker:
- Danielle Citron
- Description:
-
O uso da tecnologia de "deepfakes" para manipular vídeos e áudios com fins maliciosos — quer para incitar a violência ou para difamar políticos e jornalistas — vem-se tornando numa verdadeira ameaça. Cada vez mais acessíveis e com resultados mais realistas, como é que estas ferramentas vão modelar as nossas perceções sobre o mundo? Numa palestra extraordinária, a professora de Direito Danille Citron revela como os "deepfakes" aumentam a nossa desconfiança — e sugere novas abordagens para salvaguardar a verdade.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Margarida Ferreira approved Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Margarida Ferreira edited Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Margarida Ferreira edited Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Vitória Riera Padial accepted Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Bianca Goulart edited Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Bianca Goulart edited Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Bianca Goulart edited Portuguese subtitles for How deepfakes undermine truth and threaten democracy | ||
Luanne Araujo edited Portuguese subtitles for How deepfakes undermine truth and threaten democracy |