Como os "deepfakes" minam a verdade e ameaçam a democracia
-
0:00 - 0:04[Esta palestra apresenta conteúdo adulto]
-
0:06 - 0:09Rana Ayyub é uma jornalista na Índia
-
0:09 - 0:11cujo trabalho expôs a corrupção do governo
-
0:12 - 0:15e violações de direitos humanos.
-
0:15 - 0:16E ao longo dos anos,
-
0:16 - 0:20ela se acostumou com criticismo severo
e controvérsia em torno de seu trabalho. -
0:20 - 0:25Mas nada disso poderia tê-la preparado
para o que enfrentou em abril de 2018. -
0:26 - 0:30Ela estava num café com um amigo
quando viu pela primeira vez -
0:30 - 0:35um vídeo de dois minutos
e vinte segundos dela num ato sexual. -
0:35 - 0:38Não acreditou no que estava vendo.
-
0:38 - 0:40Ela nunca fez um vídeo de sexo.
-
0:41 - 0:44Mas, infelizmente, milhares de pessoas
-
0:44 - 0:46acreditaram que era ela.
-
0:47 - 0:50Entrevistei a Sra. Ayyub
cerca de três meses atrás, -
0:50 - 0:52em conexão com meu livro
sobre privacidade sexual. -
0:53 - 0:56Sou professora de direito, advogada
e defensora dos direitos civis. -
0:56 - 1:01É incrivelmente frustrante saber que agora
-
1:01 - 1:03a lei pode fazer muito pouco pra ajudá-la.
-
1:03 - 1:05E enquanto conversávamos,
-
1:05 - 1:10ela explicou que deveria ter
previsto o vídeo de sexo falso. -
1:10 - 1:16Ela disse: "Afinal, sexo costuma ser usado
para humilhar e envergonhar as mulheres, -
1:16 - 1:18especialmente mulheres de minorias,
-
1:18 - 1:22e especialmente as que ousam
desafiar homens poderosos", -
1:22 - 1:24como ela fazia em seu trabalho.
-
1:25 - 1:29O vídeo de sexo falso
se tornou viral em 48 horas. -
1:30 - 1:35Todas as suas contas on-line foram
inundadas com capturas de tela do vídeo, -
1:35 - 1:38ameaças explícitas de estupro e morte
-
1:38 - 1:41e com insultos à sua fé muçulmana.
-
1:41 - 1:46Postagens on-line sugeriam que ela
estava "disponível" para o sexo. -
1:46 - 1:48E ela tinha sido "doxed",
-
1:48 - 1:50ou seja, o número de celular
e o endereço residencial dela -
1:50 - 1:52foram espalhados pela internet.
-
1:53 - 1:57O vídeo foi compartilhado
mais de 40 mil vezes. -
1:58 - 2:02Quando alguém é alvo
desse tipo de ataque cibernético, -
2:02 - 2:04o dano é profundo.
-
2:04 - 2:08A vida de Rana Ayyub
virou de cabeça para baixo. -
2:08 - 2:12Por semanas, ela mal podia comer ou falar.
-
2:12 - 2:16Ela parou de escrever e cancelou
todas as contas de rede social, -
2:16 - 2:19algo difícil de fazer
quando se é jornalista. -
2:19 - 2:23Ela tinha medo de sair
da casa de sua família. -
2:23 - 2:26E se aquelas ameaças fossem cumpridas?
-
2:26 - 2:31O Conselho de Direitos Humanos da ONU
confirmou que ela não estava exagerando. -
2:31 - 2:35Emitiu uma declaração pública dizendo que
estavam preocupados com a segurança dela. -
2:37 - 2:41Rana Ayyub enfrentou um "deepfake":
-
2:41 - 2:44tecnologia de aprendizado de máquina
-
2:44 - 2:48que manipula ou fabrica
gravações de áudio e vídeo -
2:48 - 2:50mostrando pessoas fazendo e dizendo coisas
-
2:50 - 2:52que elas nunca fizeram ou disseram.
-
2:53 - 2:56Deepfakes parecem autênticos
e realistas, mas não são, -
2:56 - 2:58são falsidades totais.
-
2:59 - 3:03Embora a tecnologia ainda esteja
se desenvolvendo em sofisticação, -
3:03 - 3:05ela está amplamente disponível.
-
3:05 - 3:08O interesse mais recente
aos deepfakes surgiu, -
3:08 - 3:11como muitas coisas on-line,
-
3:11 - 3:12com a pornografia.
-
3:12 - 3:15No início de 2018,
-
3:15 - 3:17alguém postou uma ferramenta no Reddit
-
3:17 - 3:22permitindo que os usuários pusessem
rostos em vídeos pornográficos. -
3:22 - 3:25E o que se seguiu foi uma cascata
de vídeos pornográficos falsos -
3:25 - 3:28apresentando as celebridades
femininas favoritas das pessoas. -
3:29 - 3:32E hoje, podemos acessar o YouTube
e assistir a inúmeros tutoriais -
3:32 - 3:35com instruções passo a passo
-
3:35 - 3:38de como fazer um deepfake no computador.
-
3:38 - 3:42Em breve poderemos fazê-lo
em nosso telefone celular. -
3:43 - 3:49A interação de algumas de nossas
fragilidades humanas mais básicas -
3:49 - 3:50com ferramentas de rede
-
3:50 - 3:53podem transformar deepfakes em armas.
-
3:53 - 3:54Deixem-me explicar.
-
3:55 - 3:59Como seres humanos, temos
uma reação visceral ao áudio e vídeo. -
4:00 - 4:01Acreditamos que são verdadeiros,
-
4:01 - 4:03já que é claro que podemos acreditar
-
4:03 - 4:06no que nossos olhos e ouvidos
estão nos dizendo. -
4:06 - 4:08E é esse mecanismo
-
4:08 - 4:12que pode comprometer
nosso senso comum de realidade. -
4:12 - 4:15Embora acreditemos que deepfakes
sejam verdadeiros, eles não são. -
4:16 - 4:20E nós somos atraídos
pelo obsceno e provocante. -
4:20 - 4:23Tendemos a acreditar
e compartilhar informações -
4:23 - 4:25negativas e novas.
-
4:26 - 4:31Pesquisadores descobriram que os boatos
on-line se espalham dez vezes mais rápido -
4:31 - 4:32do que histórias verdadeiras.
-
4:34 - 4:38Também somos atraídos por informações
-
4:38 - 4:41alinhadas com nossos pontos de vista.
-
4:41 - 4:45Psicólogos chamam essa tendência
de "viés de confirmação". -
4:45 - 4:50E as plataformas de rede social
sobrecarregam essa tendência, -
4:50 - 4:54permitindo compartilhar informações,
instantaneamente e amplamente, -
4:54 - 4:56que estejam de acordo com nossa opinião.
-
4:57 - 5:02Deepfakes têm o potencial de causar
graves danos individuais e sociais. -
5:03 - 5:05Então, imaginem um deepfake
-
5:05 - 5:10que mostre soldados norte-americanos
no Afeganistão queimando um Alcorão. -
5:11 - 5:16Podem imaginar que esse deepfake
provocaria violência contra eles. -
5:16 - 5:19E se no dia seguinte
-
5:19 - 5:21há outro deepfake,
-
5:21 - 5:27mostrando um imame que mora em Londres
enaltecendo o ataque a esses soldados? -
5:28 - 5:31Poderíamos ver violência e agitação civil,
-
5:31 - 5:34não só no Afeganistão e no Reino Unido,
-
5:34 - 5:36mas em todo o mundo.
-
5:36 - 5:39E vocês podem me dizer:
"Deixe disso, Danielle, é exagero". -
5:40 - 5:41Mas não é.
-
5:41 - 5:44Vimos mentiras espalhadas
-
5:44 - 5:46no WhatsApp e outros serviços
de mensagens on-line -
5:46 - 5:49levarem à violência
contra minorias étnicas. -
5:49 - 5:51E isso era apenas um texto!
-
5:51 - 5:53imaginem se fosse um vídeo.
-
5:55 - 6:00Deepfakes têm o potencial
de corroer a confiança que temos -
6:00 - 6:02em instituições democráticas.
-
6:03 - 6:06Imaginem a véspera de uma eleição.
-
6:06 - 6:09Há um deepfake mostrando
um dos principais candidatos do partido -
6:09 - 6:11gravemente doente.
-
6:11 - 6:14O deepfake pode derrubar a eleição
-
6:14 - 6:17e abalar nossa noção
de que as eleições são legítimas. -
6:19 - 6:22Imaginem se na véspera
de uma oferta pública inicial, ou OPI, -
6:22 - 6:24de um grande banco global
-
6:24 - 6:31há um deepfake mostrando o CEO do banco
dizendo embriagado teorias de conspiração. -
6:31 - 6:34O deepfake pode detonar a OPI,
-
6:34 - 6:38e pior, abalar nossa noção de que
os mercados financeiros são estáveis. -
6:39 - 6:46Deepfakes podem explorar e ampliar
a profunda desconfiança que já temos -
6:46 - 6:51de políticos, líderes empresariais
e outros líderes influentes. -
6:51 - 6:55Eles encontram uma plateia
preparada para acreditar neles. -
6:55 - 6:58A busca pela verdade também está em jogo.
-
6:59 - 7:03Tecnólogos preveem
que, com os avanços na IA, -
7:03 - 7:06logo poderá ser difícil, senão impossível,
-
7:06 - 7:10distinguir um vídeo real de um falso.
-
7:11 - 7:16Então, como a verdade pode emergir
num mercado repleto de deepfakes? -
7:17 - 7:20Vamos então apenas pegar o caminho
de menor resistência, -
7:20 - 7:23acreditar no que quisermos acreditar,
-
7:23 - 7:24e dane-se a verdade?
-
7:25 - 7:28E podemos não apenas acreditar na mentira,
-
7:28 - 7:31mas começar a não acreditar na verdade.
-
7:32 - 7:36Já vimos pessoas recorrendo
ao fenômeno dos deepfakes -
7:36 - 7:40para lançar dúvidas em evidências reais
de suas transgressões. -
7:40 - 7:46Vimos políticos falarem sobre o áudio
de seus comentários constrangedores: -
7:46 - 7:48"Vamos lá, são notícias falsas.
-
7:48 - 7:52Não podem acreditar no que seus olhos
e ouvidos estão dizendo a você". -
7:52 - 7:54E é esse perigo
-
7:54 - 8:00que o professor Robert Chesney e eu
chamamos de "dividendo do mentiroso": -
8:00 - 8:03o risco de que os mentirosos
recorram a deepfakes -
8:03 - 8:06para escapar da responsabilização
por seus erros. -
8:07 - 8:10Nosso trabalho ficou mais difícil,
não há dúvida sobre isso. -
8:11 - 8:14E vamos precisar de uma solução proativa
-
8:14 - 8:17de empresas de tecnologia, legisladores,
-
8:17 - 8:19agentes da lei e da mídia.
-
8:20 - 8:24Também de uma dose saudável
de resiliência social. -
8:26 - 8:29Estamos agora envolvidos
numa discussão muito pública -
8:29 - 8:32sobre a responsabilidade
das empresas de tecnologia. -
8:33 - 8:36E meu conselho
para plataformas de rede social -
8:36 - 8:40tem sido alterar os termos de serviço
e as diretrizes da comunidade -
8:40 - 8:42para proibir deepfakes que causem danos.
-
8:43 - 8:47Essa determinação
exigirá julgamento humano -
8:47 - 8:48e ela é cara.
-
8:49 - 8:51Mas precisamos de seres humanos
-
8:51 - 8:55para examinar o conteúdo
e o contexto de um deepfake -
8:55 - 8:59e descobrir se é uma falsificação danosa
-
8:59 - 9:03ou uma sátira válida, arte ou educação.
-
9:04 - 9:06E quanto à lei?
-
9:07 - 9:09A lei é nosso educador.
-
9:10 - 9:14Nos ensina o que é prejudicial
e o que está errado. -
9:14 - 9:21Modela o comportamento, punindo os autores
e garantindo soluções para as vítimas. -
9:21 - 9:25No momento, a lei não está à altura
do desafio dos deepfakes. -
9:26 - 9:28Em todo o mundo,
-
9:28 - 9:30nos faltam leis adequadas
-
9:30 - 9:34para enfrentar falsificações digitais
-
9:34 - 9:36que invadem a privacidade sexual,
-
9:36 - 9:37prejudicam reputações
-
9:37 - 9:39e causam sofrimento emocional.
-
9:40 - 9:44O que aconteceu com Rana Ayyub
é cada vez mais comum. -
9:44 - 9:46Mas quando ela procurou
as autoridades em Deli, -
9:46 - 9:48lhe foi dito que nada poderia ser feito.
-
9:49 - 9:55E o triste é que aconteceria o mesmo
nos Estados Unidos e na Europa. -
9:55 - 10:00Portanto, temos um vácuo legal
que precisa ser preenchido. -
10:00 - 10:04A Dra. Mary Anne Franks e eu trabalhamos
com legisladores norte-americanos -
10:04 - 10:09para criar uma legislação que proíba
falsificações digitais nocivas, -
10:09 - 10:12equiparáveis a roubo de identidade.
-
10:12 - 10:14E temos visto movimentos semelhantes
-
10:14 - 10:18na Islândia, Reino Unido e Austrália.
-
10:18 - 10:22Mas é claro, é apenas uma pequena parte
do quebra-cabeça regulatório. -
10:23 - 10:26Sei que a lei não é uma panaceia, certo?
-
10:26 - 10:28É um instrumento contundente.
-
10:28 - 10:30E temos que usá-la com sabedoria.
-
10:30 - 10:33Ela também tem impedimentos práticos.
-
10:34 - 10:39Não podemos aplicar a lei contra pessoas
que não podemos identificar e encontrar. -
10:39 - 10:45E se um criminoso não mora
no mesmo país que a vítima, -
10:45 - 10:50talvez não consigamos fazer com que venha
enfrentar a justiça num tribunal local. -
10:50 - 10:54E assim vamos precisar
de uma resposta internacional coordenada. -
10:56 - 10:59A educação também deve
fazer parte da nossa resposta. -
11:00 - 11:04Agentes não aplicarão leis
-
11:04 - 11:05que eles não conhecem,
-
11:05 - 11:08nem resolverão problemas
que eles não entendem. -
11:08 - 11:11Na minha pesquisa
sobre perseguição cibernética, -
11:11 - 11:14descobri que os agentes
não tinham treinamento -
11:14 - 11:17para entender as leis disponíveis
-
11:17 - 11:19e o problema do abuso on-line.
-
11:19 - 11:22E tantas vezes eles disseram às vítimas:
-
11:22 - 11:26"Apenas desligue o computador.
Ignore. Vai passar". -
11:26 - 11:29E vimos isso no caso de Rana Ayyub.
-
11:29 - 11:33Foi-lhe dito: "Você está fazendo
o maior drama sobre isso. -
11:33 - 11:35São meninos sendo meninos".
-
11:35 - 11:41E então precisamos emparelhar a nova
legislação com esforços no treinamento. -
11:42 - 11:45E a educação também deve
ser destinada para a mídia. -
11:46 - 11:51Jornalistas precisam aprender
sobre o fenômeno dos deepfakes -
11:51 - 11:54para que não os amplifiquem e espalhem.
-
11:54 - 11:57Esta é a parte em que estamos
todos envolvidos. -
11:57 - 12:01Cada um de nós precisa de educação.
-
12:01 - 12:05Clicamos, compartilhamos,
curtimos algo e nem pensamos nisso. -
12:06 - 12:07Nós precisamos fazer melhor.
-
12:08 - 12:11Precisamos de um radar
muito melhor para mentira. -
12:14 - 12:18Enquanto trabalharmos nessas soluções,
-
12:18 - 12:20haverá muito sofrimento para superar.
-
12:21 - 12:24Rana Ayyub ainda está
enfrentando as consequências. -
12:25 - 12:29Ainda não se sente livre
para se expressar on-line e off-line. -
12:30 - 12:31E como me disse,
-
12:31 - 12:36ela ainda sente como se houvesse
milhares de olhos observando seu corpo nu, -
12:36 - 12:40embora, racionalmente,
saiba que não era o corpo dela. -
12:40 - 12:43E ela tem ataques de pânico frequentes,
-
12:43 - 12:47especialmente quando alguém que ela
não conhece tenta tirar uma foto dela. -
12:47 - 12:50"E se fizerem outro deepfake?", ela pensa.
-
12:51 - 12:55Então, pelo bem de pessoas como Rana Ayyub
-
12:55 - 12:57e pelo bem da nossa democracia,
-
12:57 - 13:00precisamos fazer algo agora.
-
13:00 - 13:01Obrigada.
-
13:01 - 13:03(Aplausos)
- Title:
- Como os "deepfakes" minam a verdade e ameaçam a democracia
- Speaker:
- Danielle Citron
- Description:
-
O uso da tecnologia "deepfake" para manipular vídeo e áudio para fins maliciosos, seja para alimentar a violência ou difamar políticos e jornalistas, está se tornando uma ameaça real. À medida que essas ferramentas se tornam mais acessíveis e seus produtos mais realistas, como eles moldarão o que acreditamos sobre o mundo? Em uma palestra portentosa, a professora de direito Danielle Citron revela como deepfakes ampliam nossa desconfiança, e sugere abordagens para salvaguardar a verdade.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Maricene Crus approved Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus edited Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus accepted Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus edited Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus edited Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus edited Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus edited Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy | ||
Maricene Crus edited Portuguese, Brazilian subtitles for How deepfakes undermine truth and threaten democracy |