Return to Video

Como os "deepfakes" minam a verdade e ameaçam a democracia

  • 0:00 - 0:04
    [Esta palestra apresenta conteúdo adulto]
  • 0:06 - 0:09
    Rana Ayyub é uma jornalista na Índia
  • 0:09 - 0:11
    cujo trabalho expôs a corrupção do governo
  • 0:12 - 0:15
    e violações de direitos humanos.
  • 0:15 - 0:16
    E ao longo dos anos,
  • 0:16 - 0:20
    ela se acostumou com criticismo severo
    e controvérsia em torno de seu trabalho.
  • 0:20 - 0:25
    Mas nada disso poderia tê-la preparado
    para o que enfrentou em abril de 2018.
  • 0:26 - 0:30
    Ela estava num café com um amigo
    quando viu pela primeira vez
  • 0:30 - 0:35
    um vídeo de dois minutos
    e vinte segundos dela num ato sexual.
  • 0:35 - 0:38
    Não acreditou no que estava vendo.
  • 0:38 - 0:40
    Ela nunca fez um vídeo de sexo.
  • 0:41 - 0:44
    Mas, infelizmente, milhares de pessoas
  • 0:44 - 0:46
    acreditaram que era ela.
  • 0:47 - 0:50
    Entrevistei a Sra. Ayyub
    cerca de três meses atrás,
  • 0:50 - 0:52
    em conexão com meu livro
    sobre privacidade sexual.
  • 0:53 - 0:56
    Sou professora de direito, advogada
    e defensora dos direitos civis.
  • 0:56 - 1:01
    É incrivelmente frustrante saber que agora
  • 1:01 - 1:03
    a lei pode fazer muito pouco pra ajudá-la.
  • 1:03 - 1:05
    E enquanto conversávamos,
  • 1:05 - 1:10
    ela explicou que deveria ter
    previsto o vídeo de sexo falso.
  • 1:10 - 1:16
    Ela disse: "Afinal, sexo costuma ser usado
    para humilhar e envergonhar as mulheres,
  • 1:16 - 1:18
    especialmente mulheres de minorias,
  • 1:18 - 1:22
    e especialmente as que ousam
    desafiar homens poderosos",
  • 1:22 - 1:24
    como ela fazia em seu trabalho.
  • 1:25 - 1:29
    O vídeo de sexo falso
    se tornou viral em 48 horas.
  • 1:30 - 1:35
    Todas as suas contas on-line foram
    inundadas com capturas de tela do vídeo,
  • 1:35 - 1:38
    ameaças explícitas de estupro e morte
  • 1:38 - 1:41
    e com insultos à sua fé muçulmana.
  • 1:41 - 1:46
    Postagens on-line sugeriam que ela
    estava "disponível" para o sexo.
  • 1:46 - 1:48
    E ela tinha sido "doxed",
  • 1:48 - 1:50
    ou seja, o número de celular
    e o endereço residencial dela
  • 1:50 - 1:52
    foram espalhados pela internet.
  • 1:53 - 1:57
    O vídeo foi compartilhado
    mais de 40 mil vezes.
  • 1:58 - 2:02
    Quando alguém é alvo
    desse tipo de ataque cibernético,
  • 2:02 - 2:04
    o dano é profundo.
  • 2:04 - 2:08
    A vida de Rana Ayyub
    virou de cabeça para baixo.
  • 2:08 - 2:12
    Por semanas, ela mal podia comer ou falar.
  • 2:12 - 2:16
    Ela parou de escrever e cancelou
    todas as contas de rede social,
  • 2:16 - 2:19
    algo difícil de fazer
    quando se é jornalista.
  • 2:19 - 2:23
    Ela tinha medo de sair
    da casa de sua família.
  • 2:23 - 2:26
    E se aquelas ameaças fossem cumpridas?
  • 2:26 - 2:31
    O Conselho de Direitos Humanos da ONU
    confirmou que ela não estava exagerando.
  • 2:31 - 2:35
    Emitiu uma declaração pública dizendo que
    estavam preocupados com a segurança dela.
  • 2:37 - 2:41
    Rana Ayyub enfrentou um "deepfake":
  • 2:41 - 2:44
    tecnologia de aprendizado de máquina
  • 2:44 - 2:48
    que manipula ou fabrica
    gravações de áudio e vídeo
  • 2:48 - 2:50
    mostrando pessoas fazendo e dizendo coisas
  • 2:50 - 2:52
    que elas nunca fizeram ou disseram.
  • 2:53 - 2:56
    Deepfakes parecem autênticos
    e realistas, mas não são,
  • 2:56 - 2:58
    são falsidades totais.
  • 2:59 - 3:03
    Embora a tecnologia ainda esteja
    se desenvolvendo em sofisticação,
  • 3:03 - 3:05
    ela está amplamente disponível.
  • 3:05 - 3:08
    O interesse mais recente
    aos deepfakes surgiu,
  • 3:08 - 3:11
    como muitas coisas on-line,
  • 3:11 - 3:12
    com a pornografia.
  • 3:12 - 3:15
    No início de 2018,
  • 3:15 - 3:17
    alguém postou uma ferramenta no Reddit
  • 3:17 - 3:22
    permitindo que os usuários pusessem
    rostos em vídeos pornográficos.
  • 3:22 - 3:25
    E o que se seguiu foi uma cascata
    de vídeos pornográficos falsos
  • 3:25 - 3:28
    apresentando as celebridades
    femininas favoritas das pessoas.
  • 3:29 - 3:32
    E hoje, podemos acessar o YouTube
    e assistir a inúmeros tutoriais
  • 3:32 - 3:35
    com instruções passo a passo
  • 3:35 - 3:38
    de como fazer um deepfake no computador.
  • 3:38 - 3:42
    Em breve poderemos fazê-lo
    em nosso telefone celular.
  • 3:43 - 3:49
    A interação de algumas de nossas
    fragilidades humanas mais básicas
  • 3:49 - 3:50
    com ferramentas de rede
  • 3:50 - 3:53
    podem transformar deepfakes em armas.
  • 3:53 - 3:54
    Deixem-me explicar.
  • 3:55 - 3:59
    Como seres humanos, temos
    uma reação visceral ao áudio e vídeo.
  • 4:00 - 4:01
    Acreditamos que são verdadeiros,
  • 4:01 - 4:03
    já que é claro que podemos acreditar
  • 4:03 - 4:06
    no que nossos olhos e ouvidos
    estão nos dizendo.
  • 4:06 - 4:08
    E é esse mecanismo
  • 4:08 - 4:12
    que pode comprometer
    nosso senso comum de realidade.
  • 4:12 - 4:15
    Embora acreditemos que deepfakes
    sejam verdadeiros, eles não são.
  • 4:16 - 4:20
    E nós somos atraídos
    pelo obsceno e provocante.
  • 4:20 - 4:23
    Tendemos a acreditar
    e compartilhar informações
  • 4:23 - 4:25
    negativas e novas.
  • 4:26 - 4:31
    Pesquisadores descobriram que os boatos
    on-line se espalham dez vezes mais rápido
  • 4:31 - 4:32
    do que histórias verdadeiras.
  • 4:34 - 4:38
    Também somos atraídos por informações
  • 4:38 - 4:41
    alinhadas com nossos pontos de vista.
  • 4:41 - 4:45
    Psicólogos chamam essa tendência
    de "viés de confirmação".
  • 4:45 - 4:50
    E as plataformas de rede social
    sobrecarregam essa tendência,
  • 4:50 - 4:54
    permitindo compartilhar informações,
    instantaneamente e amplamente,
  • 4:54 - 4:56
    que estejam de acordo com nossa opinião.
  • 4:57 - 5:02
    Deepfakes têm o potencial de causar
    graves danos individuais e sociais.
  • 5:03 - 5:05
    Então, imaginem um deepfake
  • 5:05 - 5:10
    que mostre soldados norte-americanos
    no Afeganistão queimando um Alcorão.
  • 5:11 - 5:16
    Podem imaginar que esse deepfake
    provocaria violência contra eles.
  • 5:16 - 5:19
    E se no dia seguinte
  • 5:19 - 5:21
    há outro deepfake,
  • 5:21 - 5:27
    mostrando um imame que mora em Londres
    enaltecendo o ataque a esses soldados?
  • 5:28 - 5:31
    Poderíamos ver violência e agitação civil,
  • 5:31 - 5:34
    não só no Afeganistão e no Reino Unido,
  • 5:34 - 5:36
    mas em todo o mundo.
  • 5:36 - 5:39
    E vocês podem me dizer:
    "Deixe disso, Danielle, é exagero".
  • 5:40 - 5:41
    Mas não é.
  • 5:41 - 5:44
    Vimos mentiras espalhadas
  • 5:44 - 5:46
    no WhatsApp e outros serviços
    de mensagens on-line
  • 5:46 - 5:49
    levarem à violência
    contra minorias étnicas.
  • 5:49 - 5:51
    E isso era apenas um texto!
  • 5:51 - 5:53
    imaginem se fosse um vídeo.
  • 5:55 - 6:00
    Deepfakes têm o potencial
    de corroer a confiança que temos
  • 6:00 - 6:02
    em instituições democráticas.
  • 6:03 - 6:06
    Imaginem a véspera de uma eleição.
  • 6:06 - 6:09
    Há um deepfake mostrando
    um dos principais candidatos do partido
  • 6:09 - 6:11
    gravemente doente.
  • 6:11 - 6:14
    O deepfake pode derrubar a eleição
  • 6:14 - 6:17
    e abalar nossa noção
    de que as eleições são legítimas.
  • 6:19 - 6:22
    Imaginem se na véspera
    de uma oferta pública inicial, ou OPI,
  • 6:22 - 6:24
    de um grande banco global
  • 6:24 - 6:31
    há um deepfake mostrando o CEO do banco
    dizendo embriagado teorias de conspiração.
  • 6:31 - 6:34
    O deepfake pode detonar a OPI,
  • 6:34 - 6:38
    e pior, abalar nossa noção de que
    os mercados financeiros são estáveis.
  • 6:39 - 6:46
    Deepfakes podem explorar e ampliar
    a profunda desconfiança que já temos
  • 6:46 - 6:51
    de políticos, líderes empresariais
    e outros líderes influentes.
  • 6:51 - 6:55
    Eles encontram uma plateia
    preparada para acreditar neles.
  • 6:55 - 6:58
    A busca pela verdade também está em jogo.
  • 6:59 - 7:03
    Tecnólogos preveem
    que, com os avanços na IA,
  • 7:03 - 7:06
    logo poderá ser difícil, senão impossível,
  • 7:06 - 7:10
    distinguir um vídeo real de um falso.
  • 7:11 - 7:16
    Então, como a verdade pode emergir
    num mercado repleto de deepfakes?
  • 7:17 - 7:20
    Vamos então apenas pegar o caminho
    de menor resistência,
  • 7:20 - 7:23
    acreditar no que quisermos acreditar,
  • 7:23 - 7:24
    e dane-se a verdade?
  • 7:25 - 7:28
    E podemos não apenas acreditar na mentira,
  • 7:28 - 7:31
    mas começar a não acreditar na verdade.
  • 7:32 - 7:36
    Já vimos pessoas recorrendo
    ao fenômeno dos deepfakes
  • 7:36 - 7:40
    para lançar dúvidas em evidências reais
    de suas transgressões.
  • 7:40 - 7:46
    Vimos políticos falarem sobre o áudio
    de seus comentários constrangedores:
  • 7:46 - 7:48
    "Vamos lá, são notícias falsas.
  • 7:48 - 7:52
    Não podem acreditar no que seus olhos
    e ouvidos estão dizendo a você".
  • 7:52 - 7:54
    E é esse perigo
  • 7:54 - 8:00
    que o professor Robert Chesney e eu
    chamamos de "dividendo do mentiroso":
  • 8:00 - 8:03
    o risco de que os mentirosos
    recorram a deepfakes
  • 8:03 - 8:06
    para escapar da responsabilização
    por seus erros.
  • 8:07 - 8:10
    Nosso trabalho ficou mais difícil,
    não há dúvida sobre isso.
  • 8:11 - 8:14
    E vamos precisar de uma solução proativa
  • 8:14 - 8:17
    de empresas de tecnologia, legisladores,
  • 8:17 - 8:19
    agentes da lei e da mídia.
  • 8:20 - 8:24
    Também de uma dose saudável
    de resiliência social.
  • 8:26 - 8:29
    Estamos agora envolvidos
    numa discussão muito pública
  • 8:29 - 8:32
    sobre a responsabilidade
    das empresas de tecnologia.
  • 8:33 - 8:36
    E meu conselho
    para plataformas de rede social
  • 8:36 - 8:40
    tem sido alterar os termos de serviço
    e as diretrizes da comunidade
  • 8:40 - 8:42
    para proibir deepfakes que causem danos.
  • 8:43 - 8:47
    Essa determinação
    exigirá julgamento humano
  • 8:47 - 8:48
    e ela é cara.
  • 8:49 - 8:51
    Mas precisamos de seres humanos
  • 8:51 - 8:55
    para examinar o conteúdo
    e o contexto de um deepfake
  • 8:55 - 8:59
    e descobrir se é uma falsificação danosa
  • 8:59 - 9:03
    ou uma sátira válida, arte ou educação.
  • 9:04 - 9:06
    E quanto à lei?
  • 9:07 - 9:09
    A lei é nosso educador.
  • 9:10 - 9:14
    Nos ensina o que é prejudicial
    e o que está errado.
  • 9:14 - 9:21
    Modela o comportamento, punindo os autores
    e garantindo soluções para as vítimas.
  • 9:21 - 9:25
    No momento, a lei não está à altura
    do desafio dos deepfakes.
  • 9:26 - 9:28
    Em todo o mundo,
  • 9:28 - 9:30
    nos faltam leis adequadas
  • 9:30 - 9:34
    para enfrentar falsificações digitais
  • 9:34 - 9:36
    que invadem a privacidade sexual,
  • 9:36 - 9:37
    prejudicam reputações
  • 9:37 - 9:39
    e causam sofrimento emocional.
  • 9:40 - 9:44
    O que aconteceu com Rana Ayyub
    é cada vez mais comum.
  • 9:44 - 9:46
    Mas quando ela procurou
    as autoridades em Deli,
  • 9:46 - 9:48
    lhe foi dito que nada poderia ser feito.
  • 9:49 - 9:55
    E o triste é que aconteceria o mesmo
    nos Estados Unidos e na Europa.
  • 9:55 - 10:00
    Portanto, temos um vácuo legal
    que precisa ser preenchido.
  • 10:00 - 10:04
    A Dra. Mary Anne Franks e eu trabalhamos
    com legisladores norte-americanos
  • 10:04 - 10:09
    para criar uma legislação que proíba
    falsificações digitais nocivas,
  • 10:09 - 10:12
    equiparáveis a roubo de identidade.
  • 10:12 - 10:14
    E temos visto movimentos semelhantes
  • 10:14 - 10:18
    na Islândia, Reino Unido e Austrália.
  • 10:18 - 10:22
    Mas é claro, é apenas uma pequena parte
    do quebra-cabeça regulatório.
  • 10:23 - 10:26
    Sei que a lei não é uma panaceia, certo?
  • 10:26 - 10:28
    É um instrumento contundente.
  • 10:28 - 10:30
    E temos que usá-la com sabedoria.
  • 10:30 - 10:33
    Ela também tem impedimentos práticos.
  • 10:34 - 10:39
    Não podemos aplicar a lei contra pessoas
    que não podemos identificar e encontrar.
  • 10:39 - 10:45
    E se um criminoso não mora
    no mesmo país que a vítima,
  • 10:45 - 10:50
    talvez não consigamos fazer com que venha
    enfrentar a justiça num tribunal local.
  • 10:50 - 10:54
    E assim vamos precisar
    de uma resposta internacional coordenada.
  • 10:56 - 10:59
    A educação também deve
    fazer parte da nossa resposta.
  • 11:00 - 11:04
    Agentes não aplicarão leis
  • 11:04 - 11:05
    que eles não conhecem,
  • 11:05 - 11:08
    nem resolverão problemas
    que eles não entendem.
  • 11:08 - 11:11
    Na minha pesquisa
    sobre perseguição cibernética,
  • 11:11 - 11:14
    descobri que os agentes
    não tinham treinamento
  • 11:14 - 11:17
    para entender as leis disponíveis
  • 11:17 - 11:19
    e o problema do abuso on-line.
  • 11:19 - 11:22
    E tantas vezes eles disseram às vítimas:
  • 11:22 - 11:26
    "Apenas desligue o computador.
    Ignore. Vai passar".
  • 11:26 - 11:29
    E vimos isso no caso de Rana Ayyub.
  • 11:29 - 11:33
    Foi-lhe dito: "Você está fazendo
    o maior drama sobre isso.
  • 11:33 - 11:35
    São meninos sendo meninos".
  • 11:35 - 11:41
    E então precisamos emparelhar a nova
    legislação com esforços no treinamento.
  • 11:42 - 11:45
    E a educação também deve
    ser destinada para a mídia.
  • 11:46 - 11:51
    Jornalistas precisam aprender
    sobre o fenômeno dos deepfakes
  • 11:51 - 11:54
    para que não os amplifiquem e espalhem.
  • 11:54 - 11:57
    Esta é a parte em que estamos
    todos envolvidos.
  • 11:57 - 12:01
    Cada um de nós precisa de educação.
  • 12:01 - 12:05
    Clicamos, compartilhamos,
    curtimos algo e nem pensamos nisso.
  • 12:06 - 12:07
    Nós precisamos fazer melhor.
  • 12:08 - 12:11
    Precisamos de um radar
    muito melhor para mentira.
  • 12:14 - 12:18
    Enquanto trabalharmos nessas soluções,
  • 12:18 - 12:20
    haverá muito sofrimento para superar.
  • 12:21 - 12:24
    Rana Ayyub ainda está
    enfrentando as consequências.
  • 12:25 - 12:29
    Ainda não se sente livre
    para se expressar on-line e off-line.
  • 12:30 - 12:31
    E como me disse,
  • 12:31 - 12:36
    ela ainda sente como se houvesse
    milhares de olhos observando seu corpo nu,
  • 12:36 - 12:40
    embora, racionalmente,
    saiba que não era o corpo dela.
  • 12:40 - 12:43
    E ela tem ataques de pânico frequentes,
  • 12:43 - 12:47
    especialmente quando alguém que ela
    não conhece tenta tirar uma foto dela.
  • 12:47 - 12:50
    "E se fizerem outro deepfake?", ela pensa.
  • 12:51 - 12:55
    Então, pelo bem de pessoas como Rana Ayyub
  • 12:55 - 12:57
    e pelo bem da nossa democracia,
  • 12:57 - 13:00
    precisamos fazer algo agora.
  • 13:00 - 13:01
    Obrigada.
  • 13:01 - 13:03
    (Aplausos)
Title:
Como os "deepfakes" minam a verdade e ameaçam a democracia
Speaker:
Danielle Citron
Description:

O uso da tecnologia "deepfake" para manipular vídeo e áudio para fins maliciosos, seja para alimentar a violência ou difamar políticos e jornalistas, está se tornando uma ameaça real. À medida que essas ferramentas se tornam mais acessíveis e seus produtos mais realistas, como eles moldarão o que acreditamos sobre o mundo? Em uma palestra portentosa, a professora de direito Danielle Citron revela como deepfakes ampliam nossa desconfiança, e sugere abordagens para salvaguardar a verdade.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Portuguese, Brazilian subtitles

Revisions