[Esta palestra apresenta conteúdo adulto] Rana Ayyub é uma jornalista na Índia que denunciou no seu trabalho a corrupção governamental e violações dos direitos humanos. E, ao longo dos anos, habituou-se à crítica corrosiva e à controvérsia sobre o seu trabalho. Mas nada disso a podia preparar para o que aconteceu em abril de 2018. Ela estava num café com um amigo quando viu pela primeira vez um vídeo de dois minutos e vinte segundos em que ela aparecia numa relação sexual. Ela não podia acreditar no que via. Nunca havia feito um vídeo de sexo. Mas, infelizmente, milhares de pessoas iam acreditar que era ela. Eu entrevistei Ayyub há cerca de três meses, para o meu livro sobre privacidade sexual. Sou professora de Direito, advogada e porta-voz dos direitos civis. É incrivelmente frustrante saber que, neste exato momento, a lei pouco pode fazer para ajudá-la. Enquanto conversávamos, ela explicou-me que devia ter previsto aquele vídeo sexual forjado e disse: "Afinal, o sexo é frequentemente usado para humilhar as mulheres, "especialmente as que fazem parte de minorias, "e mais ainda aquelas que se atrevem a desafiar homens poderosos", como ela havia feito. Esse vídeo de sexo forjado tornou-se viral em 48 horas. Todas as suas contas "online" foram inundadas com imagens retiradas desse vídeo, com ameaças gráficas de violação e de morte e com insultos em relação à fé muçulmana dela. Publicações "online" sugeriam que ela estava "disponível" para sexo. E ela foi "doxed", o que significa que o endereço e o número do telemóvel dela foram divulgados na Internet. O vídeo foi partilhado mais de 40 000 vezes. Quando alguém é alvo deste tipo de ataque cibernético, os danos são profundos. A vida de Rana Ayyub virou-se de pernas para o ar. Durante semanas, ela mal conseguia comer ou falar. Deixou de escrever e fechou todas as contas nas redes sociais, o que é uma coisa muito difícil para uma jornalista. Tinha medo de sair de casa. E se quem escrevia cumprisse as suas ameaças? O Conselho dos Direitos Humanos da ONU confirmou que ela não estava paranoica. Emitiram uma declaração pública dizendo que estavam preocupados com a sua segurança. O que Rana Ayyub enfrentava era um "deepfake", uma tecnologia de aprendizagem automática que manipula ou fabrica gravações de áudio e vídeo para mostrar pessoas a fazer ou a dizer coisas que nunca fizeram ou disseram. Os "deepfakes" parecem autênticos e reais, mas não são, são puras mentiras. Embora esta tecnologia ainda esteja a aperfeiçoar-se. já está amplamente disponível. O interesse atual em "deepfakes" surgiu — como com muitas coisas "online" — com a pornografia. No início de 2018, alguém publicou uma ferramenta no Reddit que permite às pessoas colocar rostos em vídeos pornográficos. O que se seguiu foi uma enxurrada de vídeos pornográficos falsos protagonizados pelas celebridades preferidas do público. E hoje é possível achar no YouTube inúmeros tutoriais com instruções passo-a-passo para criar um "deepfake" num aplicativo do computador. Em breve, talvez seja possível criá-los nos nossos telemóveis. Mas é a interação das fraquezas humanas mais básicas com ferramentas na Internet que pode transformar os "deepfakes" em armas. Passo a explicar. Enquanto seres humanos, temos uma reação visceral aos áudios e vídeos. Acreditamos que são verdadeiros, baseando-nos na noção de que podemos acreditar no que os nossos olhos e ouvidos estão a dizer. É esse mecanismo que pode enfraquecer o nosso sentido de realidade comum. Embora acreditemos que os "deepfakes" sejam reais, não são. E somos atraídos por aquilo que é obsceno, provocador. Temos a tendência a acreditar e a partilhar informações que sejam negativas, que sejam novidade. Os investigadores descobriram que as aldrabices "online" propagam-se dez vezes mais depressa do que histórias verdadeiras. Também somos atraídos por informações alinhadas com o nosso ponto de vista. Os psicólogos chamam a essa tendência de "preconceito de confirmação". As plataformas das redes sociais superalimentam essa tendência, quando nos permitem partilhar, instantânea e amplamente, informações de acordo com os nossos pontos de vista. Os "deepfakes" podem causar graves danos pessoais e sociais. Imaginem um "deepfake" que mostre soldados americanos a incendiar um Alcorão no Afeganistão. É fácil imaginar que este "deepfake" provocaria violência contra esses soldados. E se, no dia seguinte, surgisse um outro "deepfake", a mostrar um conhecido imã de Londres a pregar o ataque a esses soldados? Poderíamos ver a violência e a desordem civil não só no Afeganistão e no Reino Unido, mas pelo mundo inteiro. Vocês poderiam dizer: "Por favor, Danielle, isso é rebuscado". Mas não é. Já vimos que a propagação de mentiras no WhatsApp e noutros mensageiros "online" resultou em violência contra minorias étnicas. E foi apenas texto, imaginem se fosse um vídeo. Os "deepfakes" têm a capacidade de destruir a confiança que temos nas instituições democráticas. Então, imaginem que, na noite antes dumas eleições, temos um "deepfake" que mostra um dos candidatos do principal partido gravemente doente. Esse "deepfake" pode decidir as eleições e abalar o nosso sentido de que as eleições são legítimas. Imaginem se, na noite anterior a uma oferta pública de um importante banco global, aparecesse um "deepfake" a mostrar o CEO do banco embriagado, a vomitar teorias da conspiração. O "deepfake" pode afundar a oferta pública, e pior, pode abalar a nossa noção de que o mercado financeiro é estável. Os "deepfakes" podem explorar e expandir a profunda desconfiança que já temos nos políticos, nos líderes de negócios e noutros líderes influentes. Eles encontram uma audiência pronta para acreditar neles. A procura da verdade também está em jogo. Tecnólogos esperam que, com o avanço da inteligência artificial, em breve será difícil, se não impossível, dizer a diferença entre um vídeo real e um vídeo falso. Então, como pode a verdade surgir num mercado de ideias movido a "deepfakes"? Será que vamos seguir pelo caminho de menor resistência, acreditar no que queremos acreditar, e a verdade que se dane? Não só acreditaríamos no falso, como podíamos começar a descrer da verdade. Já vimos pessoas invocar o fenómeno dos "deepfakes" para provocar dúvidas sobre indícios reais das suas más ações. Ouvimos políticos dizer sobre áudios com comentários seus perturbadores: "Por favor, isso são notícias falsas. "Vocês não podem acreditar no que os vossos olhos e ouvidos estão a dizer." É esse o risco a que o professor Robert Chesney e eu chamamos "dividendo do mentiroso": o risco de que os mentirosos venham a invocar os "deepfakes" para escapar à responsabilidade das suas más ações. Temos um trabalho difícil a fazer, não há dúvidas quanto a isso. E vamos precisar de uma solução proativa das empresas de tecnologia, dos legisladores, dos agentes da lei e dos "media". E vamos precisar de uma boa dose de resiliência da sociedade. Neste momento, estamos empenhados numa conversa pública sobre a responsabilidade das empresas de tecnologia. O meu conselho para as plataformas de redes sociais tem sido mudar os termos do serviço e as orientações para a comunidade para impedir "deepfakes" que causem danos. Esta determinação vai requerer a avaliação humana, e isso é caro. Mas precisamos que haja seres humanos que olhem para o conteúdo e o contexto de um "deepfake" para perceberem se é uma representação prejudicial ou se, pelo contrário, tem valor como sátira, arte ou educação. E quanto à lei? A lei é a nossa educadora. Ensina-nos o que é prejudicial e o que é errado. E configura o comportamento que inibe, punindo os criminosos, e que assegura indemnizações às vítimas. Neste momento, a lei não está apta a desafiar os "deepfakes". No mundo inteiro, temos falta de leis bem feitas com o objetivo de enfrentar falsificações digitais que invadam a privacidade sexual, que prejudiquem reputações e que causem sofrimento emocional. O que aconteceu a Rana Ayyub é um lugar comum cada vez mais frequente. Mesmo assim, quando recorreu à lei em Deli, disseram-lhe que não podiam fazer nada. A triste verdade é que o mesmo aconteceria nos EUA e na Europa. Temos um vácuo legal que precisa de ser preenchido. A Dra. Mary Anne Franks e eu estamos a trabalhar com legisladores americanos na elaboração de leis capazes de proibir falsificações digitais nocivas, comparáveis a roubo de identidade. Temos visto movimentos parecidos na Islândia, no Reino Unido e na Austrália. Claro, esta é apenas uma pequena peça no "puzzle" regulatório. Eu sei que a lei não resolve tudo. É um instrumento pouco preciso e temos de usá-lo com sabedoria. Também tem alguns inconvenientes práticos. Não podemos aplicar a lei contra pessoas sem as identificar e achar. Se um criminoso viver fora do país em que a vítima vive, pode ser difícil conseguir que ele compareça no tribunal local para responder à justiça. Assim, precisamos de uma resposta internacional coordenada. A educação também tem de fazer parte da nossa resposta. As autoridades legais não vão impor leis que desconhecem e aconselhar problemas que não entendem. Na minha pesquisa sobre perseguição cibernética descobri que os agentes da polícia não têm formação para entender as leis disponíveis e o problema da violência "online". Frequentemente diziam às vítimas: "Desligue o computador. Ignore. Isso passa". Vimos isso no caso de Rana Ayyub. Disseram-lhe: "Você está a fazer uma tempestade num copo de água." "Isso é coisa de rapaziada". Por isso, precisamos de combinar novas leis com ações de formação. Os "media" também têm de ser alvo de educação. Os jornalistas precisam de ter formação quanto ao fenómeno dos "deepfakes" para não os ampliarem e espalharem. E é aqui que estamos todos envolvidos. Cada um de nós precisa de se educar. Clicamos, partilhamos, gostamos, sem sequer pensar nisso. Temos de melhorar isso. Precisamos de ficar muito mais atentos às falsificações. Enquanto trabalhamos nestas soluções, ainda haverá muito sofrimento. Rana Ayyub ainda está a lidar com as consequências. Ela ainda não se sente à vontade para se exprimir "online" e "offline". E como me disse, ela ainda sente milhares de olhos sobre o seu corpo nu embora, intelectualmente, saiba que aquele não era o corpo dela. Ela tem ataques de pânico frequentes, especialmente quando algum desconhecido tenta tirar-lhe uma fotografia. "E se eles fizerem outro 'deepfake'?" pensa consigo mesma. Então, a bem de pessoas como Rana Ayyub e a bem da nossa democracia, precisamos de fazer algo já. Obrigada. (Aplausos)