[Esta palestra apresenta conteúdo adulto]
Rana Ayyub é uma jornalista na Índia
cujo trabalho expôs a corrupção do governo
e violações de direitos humanos.
E ao longo dos anos,
ela se acostumou com criticismo severo
e controvérsia em torno de seu trabalho.
Mas nada disso poderia tê-la preparado
para o que enfrentou em abril de 2018.
Ela estava num café com um amigo
quando viu pela primeira vez
um vídeo de dois minutos
e vinte segundos dela num ato sexual.
Não acreditou no que estava vendo.
Ela nunca fez um vídeo de sexo.
Mas, infelizmente, milhares de pessoas
acreditaram que era ela.
Entrevistei a Sra. Ayyub
cerca de três meses atrás,
em conexão com meu livro
sobre privacidade sexual.
Sou professora de direito, advogada
e defensora dos direitos civis.
É incrivelmente frustrante saber que agora
a lei pode fazer muito pouco pra ajudá-la.
E enquanto conversávamos,
ela explicou que deveria ter
previsto o vídeo de sexo falso.
Ela disse: "Afinal, sexo costuma ser usado
para humilhar e envergonhar as mulheres,
especialmente mulheres de minorias,
e especialmente as que ousam
desafiar homens poderosos",
como ela fazia em seu trabalho.
O vídeo de sexo falso
se tornou viral em 48 horas.
Todas as suas contas on-line foram
inundadas com capturas de tela do vídeo,
ameaças explícitas de estupro e morte
e com insultos à sua fé muçulmana.
Postagens on-line sugeriam que ela
estava "disponível" para o sexo.
E ela tinha sido "doxed",
ou seja, o número de celular
e o endereço residencial dela
foram espalhados pela internet.
O vídeo foi compartilhado
mais de 40 mil vezes.
Quando alguém é alvo
desse tipo de ataque cibernético,
o dano é profundo.
A vida de Rana Ayyub
virou de cabeça para baixo.
Por semanas, ela mal podia comer ou falar.
Ela parou de escrever e cancelou
todas as contas de rede social,
algo difícil de fazer
quando se é jornalista.
Ela tinha medo de sair
da casa de sua família.
E se aquelas ameaças fossem cumpridas?
O Conselho de Direitos Humanos da ONU
confirmou que ela não estava exagerando.
Emitiu uma declaração pública dizendo que
estavam preocupados com a segurança dela.
Rana Ayyub enfrentou um "deepfake":
tecnologia de aprendizado de máquina
que manipula ou fabrica
gravações de áudio e vídeo
mostrando pessoas fazendo e dizendo coisas
que elas nunca fizeram ou disseram.
Deepfakes parecem autênticos
e realistas, mas não são,
são falsidades totais.
Embora a tecnologia ainda esteja
se desenvolvendo em sofisticação,
ela está amplamente disponível.
O interesse mais recente
aos deepfakes surgiu,
como muitas coisas on-line,
com a pornografia.
No início de 2018,
alguém postou uma ferramenta no Reddit
permitindo que os usuários pusessem
rostos em vídeos pornográficos.
E o que se seguiu foi uma cascata
de vídeos pornográficos falsos
apresentando as celebridades
femininas favoritas das pessoas.
E hoje, podemos acessar o YouTube
e assistir a inúmeros tutoriais
com instruções passo a passo
de como fazer um deepfake no computador.
Em breve poderemos fazê-lo
em nosso telefone celular.
A interação de algumas de nossas
fragilidades humanas mais básicas
com ferramentas de rede
podem transformar deepfakes em armas.
Deixem-me explicar.
Como seres humanos, temos
uma reação visceral ao áudio e vídeo.
Acreditamos que são verdadeiros,
já que é claro que podemos acreditar
no que nossos olhos e ouvidos
estão nos dizendo.
E é esse mecanismo
que pode comprometer
nosso senso comum de realidade.
Embora acreditemos que deepfakes
sejam verdadeiros, eles não são.
E nós somos atraídos
pelo obsceno e provocante.
Tendemos a acreditar
e compartilhar informações
negativas e novas.
Pesquisadores descobriram que os boatos
on-line se espalham dez vezes mais rápido
do que histórias verdadeiras.
Também somos atraídos por informações
alinhadas com nossos pontos de vista.
Psicólogos chamam essa tendência
de "viés de confirmação".
E as plataformas de rede social
sobrecarregam essa tendência,
permitindo compartilhar informações,
instantaneamente e amplamente,
que estejam de acordo com nossa opinião.
Deepfakes têm o potencial de causar
graves danos individuais e sociais.
Então, imaginem um deepfake
que mostre soldados norte-americanos
no Afeganistão queimando um Alcorão.
Podem imaginar que esse deepfake
provocaria violência contra eles.
E se no dia seguinte
há outro deepfake,
mostrando um imame que mora em Londres
enaltecendo o ataque a esses soldados?
Poderíamos ver violência e agitação civil,
não só no Afeganistão e no Reino Unido,
mas em todo o mundo.
E vocês podem me dizer:
"Deixe disso, Danielle, é exagero".
Mas não é.
Vimos mentiras espalhadas
no WhatsApp e outros serviços
de mensagens on-line
levarem à violência
contra minorias étnicas.
E isso era apenas um texto!
imaginem se fosse um vídeo.
Deepfakes têm o potencial
de corroer a confiança que temos
em instituições democráticas.
Imaginem a véspera de uma eleição.
Há um deepfake mostrando
um dos principais candidatos do partido
gravemente doente.
O deepfake pode derrubar a eleição
e abalar nossa noção
de que as eleições são legítimas.
Imaginem se na véspera
de uma oferta pública inicial, ou OPI,
de um grande banco global
há um deepfake mostrando o CEO do banco
dizendo embriagado teorias de conspiração.
O deepfake pode detonar a OPI,
e pior, abalar nossa noção de que
os mercados financeiros são estáveis.
Deepfakes podem explorar e ampliar
a profunda desconfiança que já temos
de políticos, líderes empresariais
e outros líderes influentes.
Eles encontram uma plateia
preparada para acreditar neles.
A busca pela verdade também está em jogo.
Tecnólogos preveem
que, com os avanços na IA,
logo poderá ser difícil, senão impossível,
distinguir um vídeo real de um falso.
Então, como a verdade pode emergir
num mercado repleto de deepfakes?
Vamos então apenas pegar o caminho
de menor resistência,
acreditar no que quisermos acreditar,
e dane-se a verdade?
E podemos não apenas acreditar na mentira,
mas começar a não acreditar na verdade.
Já vimos pessoas recorrendo
ao fenômeno dos deepfakes
para lançar dúvidas em evidências reais
de suas transgressões.
Vimos políticos falarem sobre o áudio
de seus comentários constrangedores:
"Vamos lá, são notícias falsas.
Não podem acreditar no que seus olhos
e ouvidos estão dizendo a você".
E é esse perigo
que o professor Robert Chesney e eu
chamamos de "dividendo do mentiroso":
o risco de que os mentirosos
recorram a deepfakes
para escapar da responsabilização
por seus erros.
Nosso trabalho ficou mais difícil,
não há dúvida sobre isso.
E vamos precisar de uma solução proativa
de empresas de tecnologia, legisladores,
agentes da lei e da mídia.
Também de uma dose saudável
de resiliência social.
Estamos agora envolvidos
numa discussão muito pública
sobre a responsabilidade
das empresas de tecnologia.
E meu conselho
para plataformas de rede social
tem sido alterar os termos de serviço
e as diretrizes da comunidade
para proibir deepfakes que causem danos.
Essa determinação
exigirá julgamento humano
e ela é cara.
Mas precisamos de seres humanos
para examinar o conteúdo
e o contexto de um deepfake
e descobrir se é uma falsificação danosa
ou uma sátira válida, arte ou educação.
E quanto à lei?
A lei é nosso educador.
Nos ensina o que é prejudicial
e o que está errado.
Modela o comportamento, punindo os autores
e garantindo soluções para as vítimas.
No momento, a lei não está à altura
do desafio dos deepfakes.
Em todo o mundo,
nos faltam leis adequadas
para enfrentar falsificações digitais
que invadem a privacidade sexual,
prejudicam reputações
e causam sofrimento emocional.
O que aconteceu com Rana Ayyub
é cada vez mais comum.
Mas quando ela procurou
as autoridades em Deli,
lhe foi dito que nada poderia ser feito.
E o triste é que aconteceria o mesmo
nos Estados Unidos e na Europa.
Portanto, temos um vácuo legal
que precisa ser preenchido.
A Dra. Mary Anne Franks e eu trabalhamos
com legisladores norte-americanos
para criar uma legislação que proíba
falsificações digitais nocivas,
equiparáveis a roubo de identidade.
E temos visto movimentos semelhantes
na Islândia, Reino Unido e Austrália.
Mas é claro, é apenas uma pequena parte
do quebra-cabeça regulatório.
Sei que a lei não é uma panaceia, certo?
É um instrumento contundente.
E temos que usá-la com sabedoria.
Ela também tem impedimentos práticos.
Não podemos aplicar a lei contra pessoas
que não podemos identificar e encontrar.
E se um criminoso não mora
no mesmo país que a vítima,
talvez não consigamos fazer com que venha
enfrentar a justiça num tribunal local.
E assim vamos precisar
de uma resposta internacional coordenada.
A educação também deve
fazer parte da nossa resposta.
Agentes não aplicarão leis
que eles não conhecem,
nem resolverão problemas
que eles não entendem.
Na minha pesquisa
sobre perseguição cibernética,
descobri que os agentes
não tinham treinamento
para entender as leis disponíveis
e o problema do abuso on-line.
E tantas vezes eles disseram às vítimas:
"Apenas desligue o computador.
Ignore. Vai passar".
E vimos isso no caso de Rana Ayyub.
Foi-lhe dito: "Você está fazendo
o maior drama sobre isso.
São meninos sendo meninos".
E então precisamos emparelhar a nova
legislação com esforços no treinamento.
E a educação também deve
ser destinada para a mídia.
Jornalistas precisam aprender
sobre o fenômeno dos deepfakes
para que não os amplifiquem e espalhem.
Esta é a parte em que estamos
todos envolvidos.
Cada um de nós precisa de educação.
Clicamos, compartilhamos,
curtimos algo e nem pensamos nisso.
Nós precisamos fazer melhor.
Precisamos de um radar
muito melhor para mentira.
Enquanto trabalharmos nessas soluções,
haverá muito sofrimento para superar.
Rana Ayyub ainda está
enfrentando as consequências.
Ainda não se sente livre
para se expressar on-line e off-line.
E como me disse,
ela ainda sente como se houvesse
milhares de olhos observando seu corpo nu,
embora, racionalmente,
saiba que não era o corpo dela.
E ela tem ataques de pânico frequentes,
especialmente quando alguém que ela
não conhece tenta tirar uma foto dela.
"E se fizerem outro deepfake?", ela pensa.
Então, pelo bem de pessoas como Rana Ayyub
e pelo bem da nossa democracia,
precisamos fazer algo agora.
Obrigada.
(Aplausos)