1 00:00:00,430 --> 00:00:03,302 [Esta palestra apresenta conteúdo adulto] 2 00:00:06,002 --> 00:00:08,754 Rana Ayyub é uma jornalista na Índia 3 00:00:08,778 --> 00:00:11,950 que denunciou no seu trabalho a corrupção governamental 4 00:00:12,411 --> 00:00:14,758 e violações dos direitos humanos. 5 00:00:14,990 --> 00:00:16,527 E, ao longo dos anos, 6 00:00:16,551 --> 00:00:20,014 habituou-se à crítica corrosiva e à controvérsia sobre o seu trabalho. 7 00:00:20,149 --> 00:00:25,350 Mas nada disso a podia preparar para o que aconteceu em abril de 2018. 8 00:00:26,125 --> 00:00:29,776 Ela estava num café com um amigo quando viu pela primeira vez 9 00:00:29,800 --> 00:00:34,952 um vídeo de dois minutos e vinte segundos em que ela aparecia numa relação sexual. 10 00:00:35,188 --> 00:00:37,757 Ela não podia acreditar no que via. 11 00:00:37,781 --> 00:00:40,454 Nunca havia feito um vídeo de sexo. 12 00:00:40,506 --> 00:00:43,971 Mas, infelizmente, milhares de pessoas 13 00:00:43,995 --> 00:00:46,303 iam acreditar que era ela. 14 00:00:46,673 --> 00:00:49,617 Eu entrevistei Ayyub há cerca de três meses, 15 00:00:49,641 --> 00:00:52,520 para o meu livro sobre privacidade sexual. 16 00:00:52,681 --> 00:00:56,190 Sou professora de Direito, advogada e porta-voz dos direitos civis. 17 00:00:56,304 --> 00:01:00,815 É incrivelmente frustrante saber que, neste exato momento, 18 00:01:00,839 --> 00:01:03,337 a lei pouco pode fazer para ajudá-la. 19 00:01:03,458 --> 00:01:05,315 Enquanto conversávamos, 20 00:01:05,329 --> 00:01:10,341 ela explicou-me que devia ter previsto aquele vídeo sexual forjado e disse: 21 00:01:10,468 --> 00:01:15,754 "Afinal, o sexo é frequentemente usado para humilhar as mulheres, 22 00:01:15,818 --> 00:01:18,306 "especialmente as que fazem parte de minorias, 23 00:01:18,360 --> 00:01:22,482 "e mais ainda aquelas que se atrevem a desafiar homens poderosos", 24 00:01:22,526 --> 00:01:24,687 como ela havia feito. 25 00:01:25,191 --> 00:01:29,420 Esse vídeo de sexo forjado tornou-se viral em 48 horas. 26 00:01:30,064 --> 00:01:32,045 Todas as suas contas "online" 27 00:01:32,108 --> 00:01:35,395 foram inundadas com imagens retiradas desse vídeo, 28 00:01:35,445 --> 00:01:38,022 com ameaças gráficas de violação e de morte 29 00:01:38,046 --> 00:01:41,168 e com insultos em relação à fé muçulmana dela. 30 00:01:41,426 --> 00:01:45,990 Publicações "online" sugeriam que ela estava "disponível" para sexo. 31 00:01:46,054 --> 00:01:47,794 E ela foi "doxed", 32 00:01:47,808 --> 00:01:50,831 o que significa que o endereço e o número do telemóvel dela 33 00:01:50,831 --> 00:01:52,846 foram divulgados na Internet. 34 00:01:52,879 --> 00:01:57,228 O vídeo foi partilhado mais de 40 000 vezes. 35 00:01:57,760 --> 00:02:01,696 Quando alguém é alvo deste tipo de ataque cibernético, 36 00:02:01,720 --> 00:02:04,216 os danos são profundos. 37 00:02:04,482 --> 00:02:07,836 A vida de Rana Ayyub virou-se de pernas para o ar. 38 00:02:08,211 --> 00:02:11,702 Durante semanas, ela mal conseguia comer ou falar. 39 00:02:11,919 --> 00:02:15,718 Deixou de escrever e fechou todas as contas nas redes sociais, 40 00:02:15,782 --> 00:02:19,113 o que é uma coisa muito difícil para uma jornalista. 41 00:02:19,188 --> 00:02:22,522 Tinha medo de sair de casa. 42 00:02:22,696 --> 00:02:26,126 E se quem escrevia cumprisse as suas ameaças? 43 00:02:26,395 --> 00:02:30,840 O Conselho dos Direitos Humanos da ONU confirmou que ela não estava paranoica. 44 00:02:30,914 --> 00:02:33,054 Emitiram uma declaração pública dizendo 45 00:02:33,054 --> 00:02:35,865 que estavam preocupados com a sua segurança. 46 00:02:36,776 --> 00:02:40,845 O que Rana Ayyub enfrentava era um "deepfake", 47 00:02:41,029 --> 00:02:43,569 uma tecnologia de aprendizagem automática 48 00:02:43,593 --> 00:02:47,704 que manipula ou fabrica gravações de áudio e vídeo 49 00:02:47,728 --> 00:02:50,161 para mostrar pessoas a fazer ou a dizer 50 00:02:50,195 --> 00:02:52,751 coisas que nunca fizeram ou disseram. 51 00:02:52,807 --> 00:02:56,328 Os "deepfakes" parecem autênticos e reais, mas não são, 52 00:02:56,382 --> 00:02:58,241 são puras mentiras. 53 00:02:59,228 --> 00:03:03,022 Embora esta tecnologia ainda esteja a aperfeiçoar-se. 54 00:03:03,046 --> 00:03:05,180 já está amplamente disponível. 55 00:03:05,371 --> 00:03:08,443 O interesse atual em "deepfakes" surgiu 56 00:03:08,467 --> 00:03:10,628 — como com muitas coisas "online" — 57 00:03:10,652 --> 00:03:12,401 com a pornografia. 58 00:03:12,498 --> 00:03:14,609 No início de 2018, 59 00:03:14,633 --> 00:03:17,101 alguém publicou uma ferramenta no Reddit 60 00:03:17,125 --> 00:03:21,537 que permite às pessoas colocar rostos em vídeos pornográficos. 61 00:03:21,561 --> 00:03:25,001 O que se seguiu foi uma enxurrada de vídeos pornográficos falsos 62 00:03:25,025 --> 00:03:28,040 protagonizados pelas celebridades preferidas do público. 63 00:03:28,712 --> 00:03:32,189 E hoje é possível achar no YouTube inúmeros tutoriais 64 00:03:32,213 --> 00:03:34,499 com instruções passo-a-passo 65 00:03:34,523 --> 00:03:37,824 para criar um "deepfake" num aplicativo do computador. 66 00:03:38,260 --> 00:03:42,181 Em breve, talvez seja possível criá-los nos nossos telemóveis. 67 00:03:43,072 --> 00:03:48,454 Mas é a interação das fraquezas humanas mais básicas 68 00:03:48,478 --> 00:03:50,160 com ferramentas na Internet 69 00:03:50,184 --> 00:03:52,850 que pode transformar os "deepfakes" em armas. 70 00:03:52,874 --> 00:03:54,674 Passo a explicar. 71 00:03:54,875 --> 00:03:59,441 Enquanto seres humanos, temos uma reação visceral aos áudios e vídeos. 72 00:03:59,860 --> 00:04:01,688 Acreditamos que são verdadeiros, 73 00:04:01,722 --> 00:04:03,880 baseando-nos na noção de que podemos acreditar 74 00:04:03,884 --> 00:04:06,456 no que os nossos olhos e ouvidos estão a dizer. 75 00:04:06,476 --> 00:04:08,315 É esse mecanismo 76 00:04:08,342 --> 00:04:11,897 que pode enfraquecer o nosso sentido de realidade comum. 77 00:04:11,921 --> 00:04:15,435 Embora acreditemos que os "deepfakes" sejam reais, não são. 78 00:04:15,604 --> 00:04:19,951 E somos atraídos por aquilo que é obsceno, provocador. 79 00:04:20,365 --> 00:04:23,412 Temos a tendência a acreditar e a partilhar informações 80 00:04:23,436 --> 00:04:25,459 que sejam negativas, que sejam novidade. 81 00:04:25,809 --> 00:04:28,992 Os investigadores descobriram que as aldrabices "online" 82 00:04:29,012 --> 00:04:31,165 propagam-se dez vezes mais depressa 83 00:04:31,165 --> 00:04:33,272 do que histórias verdadeiras. 84 00:04:34,135 --> 00:04:38,255 Também somos atraídos por informações 85 00:04:38,319 --> 00:04:40,771 alinhadas com o nosso ponto de vista. 86 00:04:41,060 --> 00:04:44,739 Os psicólogos chamam a essa tendência de "preconceito de confirmação". 87 00:04:45,430 --> 00:04:49,817 As plataformas das redes sociais superalimentam essa tendência, 88 00:04:49,861 --> 00:04:53,592 quando nos permitem partilhar, instantânea e amplamente, 89 00:04:53,616 --> 00:04:56,248 informações de acordo com os nossos pontos de vista. 90 00:04:56,735 --> 00:05:02,243 Os "deepfakes" podem causar graves danos pessoais e sociais. 91 00:05:03,204 --> 00:05:05,358 Imaginem um "deepfake" 92 00:05:05,382 --> 00:05:09,764 que mostre soldados americanos a incendiar um Alcorão no Afeganistão. 93 00:05:10,807 --> 00:05:13,831 É fácil imaginar que este "deepfake" provocaria violência 94 00:05:13,855 --> 00:05:15,774 contra esses soldados. 95 00:05:15,847 --> 00:05:18,720 E se, no dia seguinte, 96 00:05:18,744 --> 00:05:21,138 surgisse um outro "deepfake", 97 00:05:21,172 --> 00:05:24,339 a mostrar um conhecido imã de Londres 98 00:05:24,363 --> 00:05:27,250 a pregar o ataque a esses soldados? 99 00:05:27,617 --> 00:05:30,990 Poderíamos ver a violência e a desordem civil 100 00:05:31,044 --> 00:05:34,053 não só no Afeganistão e no Reino Unido, 101 00:05:34,077 --> 00:05:36,072 mas pelo mundo inteiro. 102 00:05:36,251 --> 00:05:37,573 Vocês poderiam dizer: 103 00:05:37,573 --> 00:05:39,680 "Por favor, Danielle, isso é rebuscado". 104 00:05:39,704 --> 00:05:41,129 Mas não é. 105 00:05:41,293 --> 00:05:43,634 Já vimos que a propagação de mentiras 106 00:05:43,688 --> 00:05:46,360 no WhatsApp e noutros mensageiros "online" 107 00:05:46,384 --> 00:05:49,015 resultou em violência contra minorias étnicas. 108 00:05:49,039 --> 00:05:50,926 E foi apenas texto, 109 00:05:50,950 --> 00:05:53,425 imaginem se fosse um vídeo. 110 00:05:54,593 --> 00:05:59,950 Os "deepfakes" têm a capacidade de destruir a confiança que temos 111 00:05:59,974 --> 00:06:02,566 nas instituições democráticas. 112 00:06:03,006 --> 00:06:05,844 Então, imaginem que, na noite antes dumas eleições, 113 00:06:05,996 --> 00:06:09,234 temos um "deepfake" que mostra um dos candidatos do principal partido 114 00:06:09,258 --> 00:06:11,093 gravemente doente. 115 00:06:11,202 --> 00:06:13,605 Esse "deepfake" pode decidir as eleições 116 00:06:13,629 --> 00:06:17,494 e abalar o nosso sentido de que as eleições são legítimas. 117 00:06:18,515 --> 00:06:21,841 Imaginem se, na noite anterior a uma oferta pública 118 00:06:21,865 --> 00:06:24,318 de um importante banco global, 119 00:06:24,342 --> 00:06:27,371 aparecesse um "deepfake" a mostrar o CEO do banco embriagado, 120 00:06:27,395 --> 00:06:30,539 a vomitar teorias da conspiração. 121 00:06:30,887 --> 00:06:34,054 O "deepfake" pode afundar a oferta pública, 122 00:06:34,078 --> 00:06:38,272 e pior, pode abalar a nossa noção de que o mercado financeiro é estável. 123 00:06:39,265 --> 00:06:42,944 Os "deepfakes" podem explorar e expandir 124 00:06:42,961 --> 00:06:46,301 a profunda desconfiança que já temos 125 00:06:46,398 --> 00:06:50,807 nos políticos, nos líderes de negócios e noutros líderes influentes. 126 00:06:50,945 --> 00:06:54,819 Eles encontram uma audiência pronta para acreditar neles. 127 00:06:55,287 --> 00:06:58,362 A procura da verdade também está em jogo. 128 00:06:59,077 --> 00:07:02,870 Tecnólogos esperam que, com o avanço da inteligência artificial, 129 00:07:02,870 --> 00:07:06,347 em breve será difícil, se não impossível, 130 00:07:06,371 --> 00:07:10,586 dizer a diferença entre um vídeo real e um vídeo falso. 131 00:07:11,022 --> 00:07:13,462 Então, como pode a verdade surgir 132 00:07:13,522 --> 00:07:16,512 num mercado de ideias movido a "deepfakes"? 133 00:07:16,752 --> 00:07:20,172 Será que vamos seguir pelo caminho de menor resistência, 134 00:07:20,196 --> 00:07:22,633 acreditar no que queremos acreditar, 135 00:07:22,657 --> 00:07:24,657 e a verdade que se dane? 136 00:07:24,831 --> 00:07:28,006 Não só acreditaríamos no falso, 137 00:07:28,030 --> 00:07:31,611 como podíamos começar a descrer da verdade. 138 00:07:31,887 --> 00:07:35,966 Já vimos pessoas invocar o fenómeno dos "deepfakes" 139 00:07:35,990 --> 00:07:40,110 para provocar dúvidas sobre indícios reais das suas más ações. 140 00:07:40,204 --> 00:07:45,903 Ouvimos políticos dizer sobre áudios com comentários seus perturbadores: 141 00:07:45,927 --> 00:07:48,219 "Por favor, isso são notícias falsas. 142 00:07:48,219 --> 00:07:52,011 "Vocês não podem acreditar no que os vossos olhos e ouvidos estão a dizer." 143 00:07:52,402 --> 00:07:54,133 É esse o risco 144 00:07:54,157 --> 00:07:59,243 a que o professor Robert Chesney e eu chamamos "dividendo do mentiroso": 145 00:07:59,617 --> 00:08:02,974 o risco de que os mentirosos venham a invocar os "deepfakes" 146 00:08:02,974 --> 00:08:06,439 para escapar à responsabilidade das suas más ações. 147 00:08:06,963 --> 00:08:10,258 Temos um trabalho difícil a fazer, não há dúvidas quanto a isso. 148 00:08:10,606 --> 00:08:13,931 E vamos precisar de uma solução proativa 149 00:08:13,955 --> 00:08:17,466 das empresas de tecnologia, dos legisladores, 150 00:08:17,490 --> 00:08:19,954 dos agentes da lei e dos "media". 151 00:08:20,093 --> 00:08:24,519 E vamos precisar de uma boa dose de resiliência da sociedade. 152 00:08:25,506 --> 00:08:29,402 Neste momento, estamos empenhados numa conversa pública 153 00:08:29,426 --> 00:08:32,490 sobre a responsabilidade das empresas de tecnologia. 154 00:08:32,926 --> 00:08:35,958 O meu conselho para as plataformas de redes sociais 155 00:08:35,982 --> 00:08:39,855 tem sido mudar os termos do serviço e as orientações para a comunidade 156 00:08:39,879 --> 00:08:42,667 para impedir "deepfakes" que causem danos. 157 00:08:42,712 --> 00:08:46,672 Esta determinação vai requerer a avaliação humana, 158 00:08:46,696 --> 00:08:48,408 e isso é caro. 159 00:08:48,673 --> 00:08:50,958 Mas precisamos que haja seres humanos 160 00:08:50,982 --> 00:08:54,855 que olhem para o conteúdo e o contexto de um "deepfake" 161 00:08:54,879 --> 00:08:58,561 para perceberem se é uma representação prejudicial 162 00:08:58,585 --> 00:09:03,232 ou se, pelo contrário, tem valor como sátira, arte ou educação. 163 00:09:04,118 --> 00:09:06,175 E quanto à lei? 164 00:09:06,666 --> 00:09:09,315 A lei é a nossa educadora. 165 00:09:09,515 --> 00:09:13,553 Ensina-nos o que é prejudicial e o que é errado. 166 00:09:13,727 --> 00:09:18,132 E configura o comportamento que inibe, punindo os criminosos, 167 00:09:18,156 --> 00:09:20,932 e que assegura indemnizações às vítimas. 168 00:09:21,148 --> 00:09:25,709 Neste momento, a lei não está apta a desafiar os "deepfakes". 169 00:09:26,116 --> 00:09:27,686 No mundo inteiro, 170 00:09:27,700 --> 00:09:30,314 temos falta de leis bem feitas 171 00:09:30,338 --> 00:09:33,568 com o objetivo de enfrentar falsificações digitais 172 00:09:33,592 --> 00:09:35,823 que invadam a privacidade sexual, 173 00:09:35,847 --> 00:09:37,444 que prejudiquem reputações 174 00:09:37,488 --> 00:09:39,599 e que causem sofrimento emocional. 175 00:09:39,725 --> 00:09:44,047 O que aconteceu a Rana Ayyub é um lugar comum cada vez mais frequente. 176 00:09:44,074 --> 00:09:46,588 Mesmo assim, quando recorreu à lei em Deli, 177 00:09:46,602 --> 00:09:48,957 disseram-lhe que não podiam fazer nada. 178 00:09:49,101 --> 00:09:52,284 A triste verdade é que o mesmo aconteceria 179 00:09:52,308 --> 00:09:54,829 nos EUA e na Europa. 180 00:09:55,360 --> 00:09:59,736 Temos um vácuo legal que precisa de ser preenchido. 181 00:10:00,352 --> 00:10:04,434 A Dra. Mary Anne Franks e eu estamos a trabalhar com legisladores americanos 182 00:10:04,488 --> 00:10:09,272 na elaboração de leis capazes de proibir falsificações digitais nocivas, 183 00:10:09,336 --> 00:10:12,097 comparáveis a roubo de identidade. 184 00:10:12,252 --> 00:10:14,538 Temos visto movimentos parecidos 185 00:10:14,562 --> 00:10:17,823 na Islândia, no Reino Unido e na Austrália. 186 00:10:18,157 --> 00:10:21,824 Claro, esta é apenas uma pequena peça no "puzzle" regulatório. 187 00:10:22,911 --> 00:10:26,080 Eu sei que a lei não resolve tudo. 188 00:10:26,104 --> 00:10:28,089 É um instrumento pouco preciso 189 00:10:28,346 --> 00:10:30,411 e temos de usá-lo com sabedoria. 190 00:10:30,411 --> 00:10:33,517 Também tem alguns inconvenientes práticos. 191 00:10:33,657 --> 00:10:39,070 Não podemos aplicar a lei contra pessoas sem as identificar e achar. 192 00:10:39,463 --> 00:10:44,158 Se um criminoso viver fora do país em que a vítima vive, 193 00:10:44,551 --> 00:10:46,180 pode ser difícil conseguir 194 00:10:46,204 --> 00:10:48,553 que ele compareça no tribunal local 195 00:10:48,577 --> 00:10:50,387 para responder à justiça. 196 00:10:50,417 --> 00:10:54,591 Assim, precisamos de uma resposta internacional coordenada. 197 00:10:55,809 --> 00:10:59,502 A educação também tem de fazer parte da nossa resposta. 198 00:10:59,803 --> 00:11:03,821 As autoridades legais não vão impor leis que desconhecem 199 00:11:05,040 --> 00:11:08,081 e aconselhar problemas que não entendem. 200 00:11:08,376 --> 00:11:10,815 Na minha pesquisa sobre perseguição cibernética 201 00:11:10,815 --> 00:11:14,250 descobri que os agentes da polícia não têm formação 202 00:11:14,264 --> 00:11:16,696 para entender as leis disponíveis 203 00:11:16,720 --> 00:11:19,069 e o problema da violência "online". 204 00:11:19,093 --> 00:11:21,995 Frequentemente diziam às vítimas: 205 00:11:22,039 --> 00:11:26,011 "Desligue o computador. Ignore. Isso passa". 206 00:11:26,261 --> 00:11:29,037 Vimos isso no caso de Rana Ayyub. 207 00:11:29,102 --> 00:11:32,570 Disseram-lhe: "Você está a fazer uma tempestade num copo de água." 208 00:11:32,594 --> 00:11:34,825 "Isso é coisa de rapaziada". 209 00:11:35,268 --> 00:11:40,520 Por isso, precisamos de combinar novas leis com ações de formação. 210 00:11:42,053 --> 00:11:45,903 Os "media" também têm de ser alvo de educação. 211 00:11:46,180 --> 00:11:50,688 Os jornalistas precisam de ter formação quanto ao fenómeno dos "deepfakes" 212 00:11:50,755 --> 00:11:54,033 para não os ampliarem e espalharem. 213 00:11:54,583 --> 00:11:56,751 E é aqui que estamos todos envolvidos. 214 00:11:56,775 --> 00:12:00,987 Cada um de nós precisa de se educar. 215 00:12:01,375 --> 00:12:05,394 Clicamos, partilhamos, gostamos, sem sequer pensar nisso. 216 00:12:05,551 --> 00:12:07,720 Temos de melhorar isso. 217 00:12:07,726 --> 00:12:11,138 Precisamos de ficar muito mais atentos às falsificações. 218 00:12:13,744 --> 00:12:17,585 Enquanto trabalhamos nestas soluções, 219 00:12:17,609 --> 00:12:20,581 ainda haverá muito sofrimento. 220 00:12:21,093 --> 00:12:24,278 Rana Ayyub ainda está a lidar com as consequências. 221 00:12:24,669 --> 00:12:29,337 Ela ainda não se sente à vontade para se exprimir "online" e "offline". 222 00:12:29,566 --> 00:12:31,322 E como me disse, 223 00:12:31,322 --> 00:12:36,029 ela ainda sente milhares de olhos sobre o seu corpo nu 224 00:12:36,053 --> 00:12:40,041 embora, intelectualmente, saiba que aquele não era o corpo dela. 225 00:12:40,371 --> 00:12:42,720 Ela tem ataques de pânico frequentes, 226 00:12:42,744 --> 00:12:46,844 especialmente quando algum desconhecido tenta tirar-lhe uma fotografia. 227 00:12:46,868 --> 00:12:50,501 "E se eles fizerem outro 'deepfake'?" pensa consigo mesma. 228 00:12:51,082 --> 00:12:55,003 Então, a bem de pessoas como Rana Ayyub 229 00:12:55,027 --> 00:12:57,333 e a bem da nossa democracia, 230 00:12:57,357 --> 00:12:59,539 precisamos de fazer algo já. 231 00:12:59,563 --> 00:13:00,714 Obrigada. 232 00:13:00,738 --> 00:13:03,246 (Aplausos)