Return to Video

Como os "deepfakes" minam a verdade e ameaçam a democracia

  • 0:00 - 0:03
    [Esta palestra apresenta conteúdo adulto]
  • 0:06 - 0:09
    Rana Ayyub é uma jornalista na Índia
  • 0:09 - 0:12
    que denunciou no seu trabalho
    a corrupção governamental
  • 0:12 - 0:15
    e violações dos direitos humanos.
  • 0:15 - 0:17
    E, ao longo dos anos,
  • 0:17 - 0:20
    habituou-se à crítica corrosiva
    e à controvérsia sobre o seu trabalho.
  • 0:20 - 0:25
    Mas nada disso a podia preparar
    para o que aconteceu em abril de 2018.
  • 0:26 - 0:30
    Ela estava num café com um amigo
    quando viu pela primeira vez
  • 0:30 - 0:35
    um vídeo de dois minutos e vinte segundos
    em que ela aparecia numa relação sexual.
  • 0:35 - 0:38
    Ela não podia acreditar no que via.
  • 0:38 - 0:40
    Nunca havia feito um vídeo de sexo.
  • 0:41 - 0:44
    Mas, infelizmente, milhares de pessoas
  • 0:44 - 0:46
    iam acreditar que era ela.
  • 0:47 - 0:50
    Eu entrevistei Ayyub
    há cerca de três meses,
  • 0:50 - 0:53
    para o meu livro sobre privacidade sexual.
  • 0:53 - 0:56
    Sou professora de Direito, advogada
    e porta-voz dos direitos civis.
  • 0:56 - 1:01
    É incrivelmente frustrante saber
    que, neste exato momento,
  • 1:01 - 1:03
    a lei pouco pode fazer para ajudá-la.
  • 1:03 - 1:05
    Enquanto conversávamos,
  • 1:05 - 1:10
    ela explicou-me que devia ter previsto
    aquele vídeo sexual forjado e disse:
  • 1:10 - 1:16
    "Afinal, o sexo é frequentemente
    usado para humilhar as mulheres,
  • 1:16 - 1:18
    "especialmente as que fazem parte
    de minorias,
  • 1:18 - 1:22
    "e mais ainda aquelas que se atrevem
    a desafiar homens poderosos",
  • 1:23 - 1:25
    como ela havia feito.
  • 1:25 - 1:29
    Esse vídeo de sexo forjado
    tornou-se viral em 48 horas.
  • 1:30 - 1:32
    Todas as suas contas "online"
  • 1:32 - 1:35
    foram inundadas com imagens
    retiradas desse vídeo,
  • 1:35 - 1:38
    com ameaças gráficas
    de violação e de morte
  • 1:38 - 1:41
    e com insultos em relação
    à fé muçulmana dela.
  • 1:41 - 1:46
    Publicações "online" sugeriam
    que ela estava "disponível" para sexo.
  • 1:46 - 1:48
    E ela foi "doxed",
  • 1:48 - 1:51
    o que significa que o endereço
    e o número do telemóvel dela
  • 1:51 - 1:53
    foram divulgados na Internet.
  • 1:53 - 1:57
    O vídeo foi partilhado
    mais de 40 000 vezes.
  • 1:58 - 2:02
    Quando alguém é alvo
    deste tipo de ataque cibernético,
  • 2:02 - 2:04
    os danos são profundos.
  • 2:04 - 2:08
    A vida de Rana Ayyub
    virou-se de pernas para o ar.
  • 2:08 - 2:12
    Durante semanas,
    ela mal conseguia comer ou falar.
  • 2:12 - 2:16
    Deixou de escrever e fechou
    todas as contas nas redes sociais,
  • 2:16 - 2:19
    o que é uma coisa muito difícil
    para uma jornalista.
  • 2:19 - 2:23
    Tinha medo de sair de casa.
  • 2:23 - 2:26
    E se quem escrevia
    cumprisse as suas ameaças?
  • 2:26 - 2:31
    O Conselho dos Direitos Humanos da ONU
    confirmou que ela não estava paranoica.
  • 2:31 - 2:33
    Emitiram uma declaração pública dizendo
  • 2:33 - 2:36
    que estavam preocupados
    com a sua segurança.
  • 2:37 - 2:41
    O que Rana Ayyub enfrentava
    era um "deepfake",
  • 2:41 - 2:44
    uma tecnologia de aprendizagem automática
  • 2:44 - 2:48
    que manipula ou fabrica
    gravações de áudio e vídeo
  • 2:48 - 2:50
    para mostrar pessoas
    a fazer ou a dizer
  • 2:50 - 2:53
    coisas que nunca fizeram ou disseram.
  • 2:53 - 2:56
    Os "deepfakes" parecem autênticos
    e reais, mas não são,
  • 2:56 - 2:58
    são puras mentiras.
  • 2:59 - 3:03
    Embora esta tecnologia
    ainda esteja a aperfeiçoar-se.
  • 3:03 - 3:05
    já está amplamente disponível.
  • 3:05 - 3:08
    O interesse atual em "deepfakes" surgiu
  • 3:08 - 3:11
    — como com muitas coisas "online" —
  • 3:11 - 3:12
    com a pornografia.
  • 3:12 - 3:15
    No início de 2018,
  • 3:15 - 3:17
    alguém publicou uma ferramenta no Reddit
  • 3:17 - 3:22
    que permite às pessoas colocar rostos
    em vídeos pornográficos.
  • 3:22 - 3:25
    O que se seguiu foi uma enxurrada
    de vídeos pornográficos falsos
  • 3:25 - 3:28
    protagonizados pelas celebridades
    preferidas do público.
  • 3:29 - 3:32
    E hoje é possível achar
    no YouTube inúmeros tutoriais
  • 3:32 - 3:34
    com instruções passo-a-passo
  • 3:35 - 3:38
    para criar um "deepfake"
    num aplicativo do computador.
  • 3:38 - 3:42
    Em breve, talvez seja possível
    criá-los nos nossos telemóveis.
  • 3:43 - 3:48
    Mas é a interação das fraquezas
    humanas mais básicas
  • 3:48 - 3:50
    com ferramentas na Internet
  • 3:50 - 3:53
    que pode transformar
    os "deepfakes" em armas.
  • 3:53 - 3:55
    Passo a explicar.
  • 3:55 - 3:59
    Enquanto seres humanos, temos
    uma reação visceral aos áudios e vídeos.
  • 4:00 - 4:02
    Acreditamos que são verdadeiros,
  • 4:02 - 4:04
    baseando-nos na noção
    de que podemos acreditar
  • 4:04 - 4:06
    no que os nossos olhos
    e ouvidos estão a dizer.
  • 4:06 - 4:08
    É esse mecanismo
  • 4:08 - 4:12
    que pode enfraquecer o nosso sentido
    de realidade comum.
  • 4:12 - 4:15
    Embora acreditemos que os "deepfakes"
    sejam reais, não são.
  • 4:16 - 4:20
    E somos atraídos por aquilo
    que é obsceno, provocador.
  • 4:20 - 4:23
    Temos a tendência a acreditar
    e a partilhar informações
  • 4:23 - 4:25
    que sejam negativas,
    que sejam novidade.
  • 4:26 - 4:29
    Os investigadores descobriram
    que as aldrabices "online"
  • 4:29 - 4:31
    propagam-se dez vezes mais depressa
  • 4:31 - 4:33
    do que histórias verdadeiras.
  • 4:34 - 4:38
    Também somos atraídos por informações
  • 4:38 - 4:41
    alinhadas com o nosso ponto de vista.
  • 4:41 - 4:45
    Os psicólogos chamam a essa tendência
    de "preconceito de confirmação".
  • 4:45 - 4:50
    As plataformas das redes sociais
    superalimentam essa tendência,
  • 4:50 - 4:54
    quando nos permitem partilhar,
    instantânea e amplamente,
  • 4:54 - 4:56
    informações de acordo
    com os nossos pontos de vista.
  • 4:57 - 5:02
    Os "deepfakes" podem causar
    graves danos pessoais e sociais.
  • 5:03 - 5:05
    Imaginem um "deepfake"
  • 5:05 - 5:10
    que mostre soldados americanos
    a incendiar um Alcorão no Afeganistão.
  • 5:11 - 5:14
    É fácil imaginar que este
    "deepfake" provocaria violência
  • 5:14 - 5:16
    contra esses soldados.
  • 5:16 - 5:19
    E se, no dia seguinte,
  • 5:19 - 5:21
    surgisse um outro "deepfake",
  • 5:21 - 5:24
    a mostrar um conhecido imã de Londres
  • 5:24 - 5:27
    a pregar o ataque a esses soldados?
  • 5:28 - 5:31
    Poderíamos ver a violência
    e a desordem civil
  • 5:31 - 5:34
    não só no Afeganistão e no Reino Unido,
  • 5:34 - 5:36
    mas pelo mundo inteiro.
  • 5:36 - 5:38
    Vocês poderiam dizer:
  • 5:38 - 5:40
    "Por favor, Danielle, isso é rebuscado".
  • 5:40 - 5:41
    Mas não é.
  • 5:41 - 5:44
    Já vimos que a propagação de mentiras
  • 5:44 - 5:46
    no WhatsApp e noutros mensageiros "online"
  • 5:46 - 5:49
    resultou em violência
    contra minorias étnicas.
  • 5:49 - 5:51
    E foi apenas texto,
  • 5:51 - 5:53
    imaginem se fosse um vídeo.
  • 5:55 - 6:00
    Os "deepfakes" têm a capacidade
    de destruir a confiança que temos
  • 6:00 - 6:03
    nas instituições democráticas.
  • 6:03 - 6:06
    Então, imaginem que,
    na noite antes dumas eleições,
  • 6:06 - 6:09
    temos um "deepfake" que mostra
    um dos candidatos do principal partido
  • 6:09 - 6:11
    gravemente doente.
  • 6:11 - 6:14
    Esse "deepfake" pode decidir as eleições
  • 6:14 - 6:17
    e abalar o nosso sentido
    de que as eleições são legítimas.
  • 6:19 - 6:22
    Imaginem se, na noite anterior
    a uma oferta pública
  • 6:22 - 6:24
    de um importante banco global,
  • 6:24 - 6:27
    aparecesse um "deepfake"
    a mostrar o CEO do banco embriagado,
  • 6:27 - 6:31
    a vomitar teorias da conspiração.
  • 6:31 - 6:34
    O "deepfake" pode afundar
    a oferta pública,
  • 6:34 - 6:38
    e pior, pode abalar a nossa noção
    de que o mercado financeiro é estável.
  • 6:39 - 6:43
    Os "deepfakes" podem explorar e expandir
  • 6:43 - 6:46
    a profunda desconfiança que já temos
  • 6:46 - 6:51
    nos políticos, nos líderes de negócios
    e noutros líderes influentes.
  • 6:51 - 6:55
    Eles encontram uma audiência
    pronta para acreditar neles.
  • 6:55 - 6:58
    A procura da verdade também está em jogo.
  • 6:59 - 7:03
    Tecnólogos esperam que, com o
    avanço da inteligência artificial,
  • 7:03 - 7:06
    em breve será difícil, se não impossível,
  • 7:06 - 7:11
    dizer a diferença entre
    um vídeo real e um vídeo falso.
  • 7:11 - 7:13
    Então, como pode a verdade surgir
  • 7:14 - 7:17
    num mercado de ideias
    movido a "deepfakes"?
  • 7:17 - 7:20
    Será que vamos seguir
    pelo caminho de menor resistência,
  • 7:20 - 7:23
    acreditar no que queremos acreditar,
  • 7:23 - 7:25
    e a verdade que se dane?
  • 7:25 - 7:28
    Não só acreditaríamos no falso,
  • 7:28 - 7:32
    como podíamos começar
    a descrer da verdade.
  • 7:32 - 7:36
    Já vimos pessoas invocar
    o fenómeno dos "deepfakes"
  • 7:36 - 7:40
    para provocar dúvidas sobre indícios
    reais das suas más ações.
  • 7:40 - 7:46
    Ouvimos políticos dizer sobre áudios
    com comentários seus perturbadores:
  • 7:46 - 7:48
    "Por favor, isso são notícias falsas.
  • 7:48 - 7:52
    "Vocês não podem acreditar no que
    os vossos olhos e ouvidos estão a dizer."
  • 7:52 - 7:54
    É esse o risco
  • 7:54 - 7:59
    a que o professor Robert Chesney e eu
    chamamos "dividendo do mentiroso":
  • 8:00 - 8:03
    o risco de que os mentirosos
    venham a invocar os "deepfakes"
  • 8:03 - 8:06
    para escapar à responsabilidade
    das suas más ações.
  • 8:07 - 8:10
    Temos um trabalho difícil a fazer,
    não há dúvidas quanto a isso.
  • 8:11 - 8:14
    E vamos precisar de uma solução proativa
  • 8:14 - 8:17
    das empresas de tecnologia,
    dos legisladores,
  • 8:17 - 8:20
    dos agentes da lei e dos "media".
  • 8:20 - 8:25
    E vamos precisar de uma boa dose
    de resiliência da sociedade.
  • 8:26 - 8:29
    Neste momento, estamos empenhados
    numa conversa pública
  • 8:29 - 8:32
    sobre a responsabilidade
    das empresas de tecnologia.
  • 8:33 - 8:36
    O meu conselho para as plataformas
    de redes sociais
  • 8:36 - 8:40
    tem sido mudar os termos do serviço
    e as orientações para a comunidade
  • 8:40 - 8:43
    para impedir "deepfakes" que causem danos.
  • 8:43 - 8:47
    Esta determinação vai requerer
    a avaliação humana,
  • 8:47 - 8:48
    e isso é caro.
  • 8:49 - 8:51
    Mas precisamos que haja seres humanos
  • 8:51 - 8:55
    que olhem para o conteúdo
    e o contexto de um "deepfake"
  • 8:55 - 8:59
    para perceberem se é
    uma representação prejudicial
  • 8:59 - 9:03
    ou se, pelo contrário, tem valor
    como sátira, arte ou educação.
  • 9:04 - 9:06
    E quanto à lei?
  • 9:07 - 9:09
    A lei é a nossa educadora.
  • 9:10 - 9:14
    Ensina-nos o que é prejudicial
    e o que é errado.
  • 9:14 - 9:18
    E configura o comportamento
    que inibe, punindo os criminosos,
  • 9:18 - 9:21
    e que assegura indemnizações às vítimas.
  • 9:21 - 9:26
    Neste momento, a lei não está
    apta a desafiar os "deepfakes".
  • 9:26 - 9:28
    No mundo inteiro,
  • 9:28 - 9:30
    temos falta de leis bem feitas
  • 9:30 - 9:34
    com o objetivo de enfrentar
    falsificações digitais
  • 9:34 - 9:36
    que invadam a privacidade sexual,
  • 9:36 - 9:37
    que prejudiquem reputações
  • 9:37 - 9:40
    e que causem sofrimento emocional.
  • 9:40 - 9:44
    O que aconteceu a Rana Ayyub
    é um lugar comum cada vez mais frequente.
  • 9:44 - 9:47
    Mesmo assim, quando
    recorreu à lei em Deli,
  • 9:47 - 9:49
    disseram-lhe que não podiam fazer nada.
  • 9:49 - 9:52
    A triste verdade é que
    o mesmo aconteceria
  • 9:52 - 9:55
    nos EUA e na Europa.
  • 9:55 - 10:00
    Temos um vácuo legal
    que precisa de ser preenchido.
  • 10:00 - 10:04
    A Dra. Mary Anne Franks e eu estamos
    a trabalhar com legisladores americanos
  • 10:04 - 10:09
    na elaboração de leis capazes de proibir
    falsificações digitais nocivas,
  • 10:09 - 10:12
    comparáveis a roubo de identidade.
  • 10:12 - 10:15
    Temos visto movimentos parecidos
  • 10:15 - 10:18
    na Islândia, no Reino Unido
    e na Austrália.
  • 10:18 - 10:22
    Claro, esta é apenas uma pequena peça
    no "puzzle" regulatório.
  • 10:23 - 10:26
    Eu sei que a lei não resolve tudo.
  • 10:26 - 10:28
    É um instrumento pouco preciso
  • 10:28 - 10:30
    e temos de usá-lo com sabedoria.
  • 10:30 - 10:34
    Também tem alguns inconvenientes práticos.
  • 10:34 - 10:39
    Não podemos aplicar a lei contra pessoas
    sem as identificar e achar.
  • 10:39 - 10:44
    Se um criminoso viver fora do país
    em que a vítima vive,
  • 10:45 - 10:46
    pode ser difícil conseguir
  • 10:46 - 10:49
    que ele compareça no tribunal local
  • 10:49 - 10:50
    para responder à justiça.
  • 10:50 - 10:55
    Assim, precisamos de uma resposta
    internacional coordenada.
  • 10:56 - 11:00
    A educação também tem de fazer parte
    da nossa resposta.
  • 11:00 - 11:04
    As autoridades legais não vão impor
    leis que desconhecem
  • 11:05 - 11:08
    e aconselhar problemas que não entendem.
  • 11:08 - 11:11
    Na minha pesquisa sobre
    perseguição cibernética
  • 11:11 - 11:14
    descobri que os agentes da polícia
    não têm formação
  • 11:14 - 11:17
    para entender as leis disponíveis
  • 11:17 - 11:19
    e o problema da violência "online".
  • 11:19 - 11:22
    Frequentemente diziam às vítimas:
  • 11:22 - 11:26
    "Desligue o computador.
    Ignore. Isso passa".
  • 11:26 - 11:29
    Vimos isso no caso de Rana Ayyub.
  • 11:29 - 11:33
    Disseram-lhe: "Você está a fazer
    uma tempestade num copo de água."
  • 11:33 - 11:35
    "Isso é coisa de rapaziada".
  • 11:35 - 11:41
    Por isso, precisamos de combinar
    novas leis com ações de formação.
  • 11:42 - 11:46
    Os "media" também têm de ser
    alvo de educação.
  • 11:46 - 11:51
    Os jornalistas precisam de ter formação
    quanto ao fenómeno dos "deepfakes"
  • 11:51 - 11:54
    para não os ampliarem e espalharem.
  • 11:55 - 11:57
    E é aqui que estamos todos envolvidos.
  • 11:57 - 12:01
    Cada um de nós precisa de se educar.
  • 12:01 - 12:05
    Clicamos, partilhamos, gostamos,
    sem sequer pensar nisso.
  • 12:06 - 12:08
    Temos de melhorar isso.
  • 12:08 - 12:11
    Precisamos de ficar
    muito mais atentos às falsificações.
  • 12:14 - 12:18
    Enquanto trabalhamos nestas soluções,
  • 12:18 - 12:21
    ainda haverá muito sofrimento.
  • 12:21 - 12:24
    Rana Ayyub ainda está a lidar
    com as consequências.
  • 12:25 - 12:29
    Ela ainda não se sente à vontade para
    se exprimir "online" e "offline".
  • 12:30 - 12:31
    E como me disse,
  • 12:31 - 12:36
    ela ainda sente milhares de olhos
    sobre o seu corpo nu
  • 12:36 - 12:40
    embora, intelectualmente, saiba
    que aquele não era o corpo dela.
  • 12:40 - 12:43
    Ela tem ataques de pânico frequentes,
  • 12:43 - 12:47
    especialmente quando algum desconhecido
    tenta tirar-lhe uma fotografia.
  • 12:47 - 12:51
    "E se eles fizerem outro 'deepfake'?"
    pensa consigo mesma.
  • 12:51 - 12:55
    Então, a bem de pessoas como Rana Ayyub
  • 12:55 - 12:57
    e a bem da nossa democracia,
  • 12:57 - 13:00
    precisamos de fazer algo já.
  • 13:00 - 13:01
    Obrigada.
  • 13:01 - 13:03
    (Aplausos)
Title:
Como os "deepfakes" minam a verdade e ameaçam a democracia
Speaker:
Danielle Citron
Description:

O uso da tecnologia de "deepfakes" para manipular vídeos e áudios com fins maliciosos — quer para incitar a violência ou para difamar políticos e jornalistas — vem-se tornando numa verdadeira ameaça. Cada vez mais acessíveis e com resultados mais realistas, como é que estas ferramentas vão modelar as nossas perceções sobre o mundo? Numa palestra extraordinária, a professora de Direito Danille Citron revela como os "deepfakes" aumentam a nossa desconfiança — e sugere novas abordagens para salvaguardar a verdade.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
13:16

Portuguese subtitles

Revisions