WEBVTT 00:00:00.225 --> 00:00:03.502 [Esta palestra apresenta conteúdo adulto] 00:00:05.762 --> 00:00:08.784 Rana Ayyub é uma jornalista na Índia 00:00:08.784 --> 00:00:11.380 cujo trabalho expôs a corrupção do governo 00:00:12.411 --> 00:00:14.568 e violações de direitos humanos. 00:00:14.990 --> 00:00:15.987 E ao longo dos anos, 00:00:15.987 --> 00:00:20.134 ela se acostumou com criticismo severo e controvérsia em torno de seu trabalho. 00:00:20.149 --> 00:00:25.258 Mas nada disso poderia tê-la preparado para o que enfrentou em abril de 2018. NOTE Paragraph 00:00:26.125 --> 00:00:29.836 Ela estava num café com um amigo quando viu pela primeira vez 00:00:29.836 --> 00:00:34.743 um vídeo de dois minutos e vinte segundos dela num ato sexual. 00:00:35.188 --> 00:00:37.597 Não acreditou no que estava vendo. 00:00:37.597 --> 00:00:39.834 Ela nunca fez um vídeo de sexo. 00:00:40.506 --> 00:00:44.011 Mas, infelizmente, milhares de pessoas 00:00:44.011 --> 00:00:45.661 acreditaram que era ela. NOTE Paragraph 00:00:46.673 --> 00:00:49.677 Entrevistei a Sra. Ayyub cerca de três meses atrás, 00:00:49.677 --> 00:00:52.145 em conexão com meu livro sobre privacidade sexual. 00:00:52.681 --> 00:00:56.189 Sou professora de direito, advogada e defensora dos direitos civis. 00:00:56.204 --> 00:01:00.895 É incrivelmente frustrante saber que agora 00:01:00.895 --> 00:01:03.377 a lei pode fazer muito pouco pra ajudá-la. 00:01:03.458 --> 00:01:05.065 E enquanto conversávamos, 00:01:05.065 --> 00:01:09.541 ela explicou que deveria ter previsto o vídeo de sexo falso. 00:01:10.038 --> 00:01:15.664 Ela disse: "Afinal, sexo costuma ser usado para humilhar e envergonhar as mulheres, 00:01:15.664 --> 00:01:18.126 especialmente mulheres de minorias, 00:01:18.126 --> 00:01:22.472 e especialmente as que ousam desafiar homens poderosos", 00:01:22.472 --> 00:01:24.419 como ela fazia em seu trabalho. 00:01:25.191 --> 00:01:29.167 O vídeo de sexo falso se tornou viral em 48 horas. 00:01:30.064 --> 00:01:35.411 Todas as suas contas on-line foram inundadas com capturas de tela do vídeo, 00:01:35.411 --> 00:01:38.072 ameaças explícitas de estupro e morte 00:01:38.072 --> 00:01:40.579 e com insultos à sua fé muçulmana. 00:01:41.426 --> 00:01:46.020 Postagens on-line sugeriam que ela estava "disponível" para o sexo. 00:01:46.020 --> 00:01:47.674 E ela tinha sido "doxed", 00:01:47.674 --> 00:01:50.496 ou seja, o número de celular e o endereço residencial dela 00:01:50.496 --> 00:01:52.196 foram espalhados pela internet. 00:01:52.879 --> 00:01:56.963 O vídeo foi compartilhado mais de 40 mil vezes. NOTE Paragraph 00:01:57.760 --> 00:02:01.756 Quando alguém é alvo desse tipo de ataque cibernético, 00:02:01.756 --> 00:02:03.783 o dano é profundo. 00:02:04.482 --> 00:02:07.521 A vida de Rana Ayyub virou de cabeça para baixo. 00:02:08.211 --> 00:02:11.545 Por semanas, ela mal podia comer ou falar. 00:02:11.919 --> 00:02:15.648 Ela parou de escrever e cancelou todas as contas de rede social, 00:02:15.648 --> 00:02:18.790 algo difícil de fazer quando se é jornalista. 00:02:19.188 --> 00:02:22.712 Ela tinha medo de sair da casa de sua família. 00:02:22.712 --> 00:02:25.718 E se aquelas ameaças fossem cumpridas? 00:02:26.395 --> 00:02:30.810 O Conselho de Direitos Humanos da ONU confirmou que ela não estava exagerando. 00:02:30.810 --> 00:02:35.421 Emitiu uma declaração pública dizendo que estavam preocupados com a segurança dela. NOTE Paragraph 00:02:36.776 --> 00:02:41.065 Rana Ayyub enfrentou um "deepfake": 00:02:41.065 --> 00:02:43.629 tecnologia de aprendizado de máquina 00:02:43.629 --> 00:02:47.744 que manipula ou fabrica gravações de áudio e vídeo 00:02:47.744 --> 00:02:50.491 mostrando pessoas fazendo e dizendo coisas 00:02:50.491 --> 00:02:52.341 que elas nunca fizeram ou disseram. 00:02:52.807 --> 00:02:56.208 Deepfakes parecem autênticos e realistas, mas não são, 00:02:56.208 --> 00:02:57.964 são falsidades totais. 00:02:59.228 --> 00:03:03.072 Embora a tecnologia ainda esteja se desenvolvendo em sofisticação, 00:03:03.072 --> 00:03:04.660 ela está amplamente disponível. NOTE Paragraph 00:03:05.371 --> 00:03:08.473 O interesse mais recente aos deepfakes surgiu, 00:03:08.473 --> 00:03:10.698 como muitas coisas on-line, 00:03:10.698 --> 00:03:11.907 com a pornografia. NOTE Paragraph 00:03:12.498 --> 00:03:14.679 No início de 2018, 00:03:14.679 --> 00:03:17.181 alguém postou uma ferramenta no Reddit 00:03:17.181 --> 00:03:21.607 permitindo que os usuários pusessem rostos em vídeos pornográficos. 00:03:21.607 --> 00:03:25.031 E o que se seguiu foi uma cascata de vídeos pornográficos falsos 00:03:25.031 --> 00:03:27.922 apresentando as celebridades femininas favoritas das pessoas. 00:03:28.712 --> 00:03:32.239 E hoje, podemos acessar o YouTube e assistir a inúmeros tutoriais 00:03:32.239 --> 00:03:34.529 com instruções passo a passo 00:03:34.529 --> 00:03:37.686 de como fazer um deepfake no computador. 00:03:38.260 --> 00:03:41.966 Em breve poderemos fazê-lo em nosso telefone celular. 00:03:43.072 --> 00:03:48.504 A interação de algumas de nossas fragilidades humanas mais básicas 00:03:48.504 --> 00:03:50.220 com ferramentas de rede 00:03:50.220 --> 00:03:52.900 podem transformar deepfakes em armas. 00:03:52.900 --> 00:03:54.454 Deixem-me explicar. NOTE Paragraph 00:03:54.875 --> 00:03:59.441 Como seres humanos, temos uma reação visceral ao áudio e vídeo. 00:03:59.860 --> 00:04:01.398 Acreditamos que são verdadeiros, 00:04:01.398 --> 00:04:03.490 já que é claro que podemos acreditar 00:04:03.490 --> 00:04:05.952 no que nossos olhos e ouvidos estão nos dizendo. 00:04:06.476 --> 00:04:08.235 E é esse mecanismo 00:04:08.235 --> 00:04:11.937 que pode comprometer nosso senso comum de realidade. 00:04:11.937 --> 00:04:15.148 Embora acreditemos que deepfakes sejam verdadeiros, eles não são. 00:04:15.604 --> 00:04:19.761 E nós somos atraídos pelo obsceno e provocante. 00:04:20.365 --> 00:04:23.492 Tendemos a acreditar e compartilhar informações 00:04:23.492 --> 00:04:25.459 negativas e novas. 00:04:25.809 --> 00:04:30.858 Pesquisadores descobriram que os boatos on-line se espalham dez vezes mais rápido 00:04:30.858 --> 00:04:32.479 do que histórias verdadeiras. 00:04:34.015 --> 00:04:38.445 Também somos atraídos por informações 00:04:38.445 --> 00:04:40.991 alinhadas com nossos pontos de vista. 00:04:40.991 --> 00:04:44.511 Psicólogos chamam essa tendência de "viés de confirmação". 00:04:45.300 --> 00:04:49.727 E as plataformas de rede social sobrecarregam essa tendência, 00:04:49.727 --> 00:04:53.622 permitindo compartilhar informações, instantaneamente e amplamente, 00:04:53.622 --> 00:04:55.958 que estejam de acordo com nossa opinião. NOTE Paragraph 00:04:56.735 --> 00:05:02.303 Deepfakes têm o potencial de causar graves danos individuais e sociais. 00:05:03.204 --> 00:05:05.268 Então, imaginem um deepfake 00:05:05.268 --> 00:05:09.794 que mostre soldados norte-americanos no Afeganistão queimando um Alcorão. 00:05:10.807 --> 00:05:15.541 Podem imaginar que esse deepfake provocaria violência contra eles. 00:05:15.847 --> 00:05:18.770 E se no dia seguinte 00:05:18.770 --> 00:05:21.038 há outro deepfake, 00:05:21.038 --> 00:05:26.749 mostrando um imame que mora em Londres enaltecendo o ataque a esses soldados? 00:05:27.617 --> 00:05:30.830 Poderíamos ver violência e agitação civil, 00:05:30.830 --> 00:05:34.113 não só no Afeganistão e no Reino Unido, 00:05:34.113 --> 00:05:35.782 mas em todo o mundo. NOTE Paragraph 00:05:36.251 --> 00:05:39.169 E vocês podem me dizer: "Deixe disso, Danielle, é exagero". 00:05:39.740 --> 00:05:40.854 Mas não é. 00:05:41.293 --> 00:05:43.544 Vimos mentiras espalhadas 00:05:43.544 --> 00:05:46.280 no WhatsApp e outros serviços de mensagens on-line 00:05:46.280 --> 00:05:49.075 levarem à violência contra minorias étnicas. 00:05:49.075 --> 00:05:50.946 E isso era apenas um texto! 00:05:50.950 --> 00:05:52.974 imaginem se fosse um vídeo. NOTE Paragraph 00:05:54.593 --> 00:05:59.990 Deepfakes têm o potencial de corroer a confiança que temos 00:05:59.990 --> 00:06:01.966 em instituições democráticas. 00:06:03.006 --> 00:06:05.673 Imaginem a véspera de uma eleição. 00:06:05.996 --> 00:06:09.274 Há um deepfake mostrando um dos principais candidatos do partido 00:06:09.274 --> 00:06:10.688 gravemente doente. 00:06:11.202 --> 00:06:13.595 O deepfake pode derrubar a eleição 00:06:13.595 --> 00:06:16.934 e abalar nossa noção de que as eleições são legítimas. 00:06:18.515 --> 00:06:21.881 Imaginem se na véspera de uma oferta pública inicial, ou OPI, 00:06:21.881 --> 00:06:24.278 de um grande banco global 00:06:24.278 --> 00:06:30.591 há um deepfake mostrando o CEO do banco dizendo embriagado teorias de conspiração. 00:06:30.887 --> 00:06:34.014 O deepfake pode detonar a OPI, 00:06:34.014 --> 00:06:38.153 e pior, abalar nossa noção de que os mercados financeiros são estáveis. NOTE Paragraph 00:06:39.395 --> 00:06:46.404 Deepfakes podem explorar e ampliar a profunda desconfiança que já temos 00:06:46.404 --> 00:06:50.612 de políticos, líderes empresariais e outros líderes influentes. 00:06:50.945 --> 00:06:54.559 Eles encontram uma plateia preparada para acreditar neles. 00:06:55.287 --> 00:06:58.052 A busca pela verdade também está em jogo. 00:06:59.077 --> 00:07:02.701 Tecnólogos preveem que, com os avanços na IA, 00:07:02.701 --> 00:07:06.387 logo poderá ser difícil, senão impossível, 00:07:06.387 --> 00:07:10.140 distinguir um vídeo real de um falso. NOTE Paragraph 00:07:11.022 --> 00:07:16.363 Então, como a verdade pode emergir num mercado repleto de deepfakes? 00:07:16.752 --> 00:07:20.212 Vamos então apenas pegar o caminho de menor resistência, 00:07:20.212 --> 00:07:22.673 acreditar no que quisermos acreditar, 00:07:22.673 --> 00:07:24.227 e dane-se a verdade? 00:07:24.831 --> 00:07:28.046 E podemos não apenas acreditar na mentira, 00:07:28.046 --> 00:07:31.356 mas começar a não acreditar na verdade. 00:07:31.887 --> 00:07:36.006 Já vimos pessoas recorrendo ao fenômeno dos deepfakes 00:07:36.006 --> 00:07:39.960 para lançar dúvidas em evidências reais de suas transgressões. 00:07:39.960 --> 00:07:45.963 Vimos políticos falarem sobre o áudio de seus comentários constrangedores: 00:07:45.963 --> 00:07:47.713 "Vamos lá, são notícias falsas. 00:07:47.713 --> 00:07:52.177 Não podem acreditar no que seus olhos e ouvidos estão dizendo a você". 00:07:52.402 --> 00:07:54.213 E é esse perigo 00:07:54.213 --> 00:07:59.683 que o professor Robert Chesney e eu chamamos de "dividendo do mentiroso": 00:07:59.683 --> 00:08:03.004 o risco de que os mentirosos recorram a deepfakes 00:08:03.004 --> 00:08:05.903 para escapar da responsabilização por seus erros. NOTE Paragraph 00:08:06.963 --> 00:08:10.034 Nosso trabalho ficou mais difícil, não há dúvida sobre isso. 00:08:10.606 --> 00:08:13.991 E vamos precisar de uma solução proativa 00:08:13.991 --> 00:08:17.496 de empresas de tecnologia, legisladores, 00:08:17.496 --> 00:08:19.474 agentes da lei e da mídia. 00:08:20.093 --> 00:08:24.109 Também de uma dose saudável de resiliência social. 00:08:25.506 --> 00:08:29.462 Estamos agora envolvidos numa discussão muito pública 00:08:29.462 --> 00:08:32.339 sobre a responsabilidade das empresas de tecnologia. 00:08:32.926 --> 00:08:36.028 E meu conselho para plataformas de rede social 00:08:36.028 --> 00:08:39.895 tem sido alterar os termos de serviço e as diretrizes da comunidade 00:08:39.895 --> 00:08:42.215 para proibir deepfakes que causem danos. 00:08:42.712 --> 00:08:46.722 Essa determinação exigirá julgamento humano 00:08:46.722 --> 00:08:48.267 e ela é cara. 00:08:48.673 --> 00:08:50.998 Mas precisamos de seres humanos 00:08:50.998 --> 00:08:54.915 para examinar o conteúdo e o contexto de um deepfake 00:08:54.915 --> 00:08:58.621 e descobrir se é uma falsificação danosa 00:08:58.621 --> 00:09:02.967 ou uma sátira válida, arte ou educação. NOTE Paragraph 00:09:04.118 --> 00:09:05.613 E quanto à lei? 00:09:06.666 --> 00:09:09.015 A lei é nosso educador. 00:09:09.515 --> 00:09:13.613 Nos ensina o que é prejudicial e o que está errado. 00:09:13.613 --> 00:09:20.512 Modela o comportamento, punindo os autores e garantindo soluções para as vítimas. 00:09:21.148 --> 00:09:25.428 No momento, a lei não está à altura do desafio dos deepfakes. 00:09:26.116 --> 00:09:27.546 Em todo o mundo, 00:09:27.546 --> 00:09:30.034 nos faltam leis adequadas 00:09:30.034 --> 00:09:33.608 para enfrentar falsificações digitais 00:09:33.608 --> 00:09:35.863 que invadem a privacidade sexual, 00:09:35.863 --> 00:09:37.284 prejudicam reputações 00:09:37.284 --> 00:09:39.209 e causam sofrimento emocional. 00:09:39.725 --> 00:09:43.598 O que aconteceu com Rana Ayyub é cada vez mais comum. 00:09:44.074 --> 00:09:46.348 Mas quando ela procurou as autoridades em Deli, 00:09:46.348 --> 00:09:48.447 lhe foi dito que nada poderia ser feito. 00:09:49.101 --> 00:09:54.574 E o triste é que aconteceria o mesmo nos Estados Unidos e na Europa. NOTE Paragraph 00:09:55.300 --> 00:09:59.656 Portanto, temos um vácuo legal que precisa ser preenchido. 00:10:00.292 --> 00:10:04.414 A Dra. Mary Anne Franks e eu trabalhamos com legisladores norte-americanos 00:10:04.414 --> 00:10:09.272 para criar uma legislação que proíba falsificações digitais nocivas, 00:10:09.272 --> 00:10:11.769 equiparáveis a roubo de identidade. 00:10:12.252 --> 00:10:14.438 E temos visto movimentos semelhantes 00:10:14.438 --> 00:10:17.703 na Islândia, Reino Unido e Austrália. 00:10:18.157 --> 00:10:22.216 Mas é claro, é apenas uma pequena parte do quebra-cabeça regulatório. NOTE Paragraph 00:10:22.911 --> 00:10:26.130 Sei que a lei não é uma panaceia, certo? 00:10:26.130 --> 00:10:28.084 É um instrumento contundente. 00:10:28.346 --> 00:10:30.365 E temos que usá-la com sabedoria. 00:10:30.411 --> 00:10:33.223 Ela também tem impedimentos práticos. 00:10:33.657 --> 00:10:38.891 Não podemos aplicar a lei contra pessoas que não podemos identificar e encontrar. 00:10:39.463 --> 00:10:44.559 E se um criminoso não mora no mesmo país que a vítima, 00:10:44.597 --> 00:10:50.190 talvez não consigamos fazer com que venha enfrentar a justiça num tribunal local. 00:10:50.236 --> 00:10:54.299 E assim vamos precisar de uma resposta internacional coordenada. 00:10:55.819 --> 00:10:59.152 A educação também deve fazer parte da nossa resposta. 00:10:59.803 --> 00:11:03.584 Agentes não aplicarão leis 00:11:03.584 --> 00:11:05.106 que eles não conhecem, 00:11:05.106 --> 00:11:07.636 nem resolverão problemas que eles não entendem. 00:11:08.376 --> 00:11:10.767 Na minha pesquisa sobre perseguição cibernética, 00:11:10.767 --> 00:11:14.150 descobri que os agentes não tinham treinamento 00:11:14.150 --> 00:11:16.756 para entender as leis disponíveis 00:11:16.756 --> 00:11:19.119 e o problema do abuso on-line. 00:11:19.119 --> 00:11:21.825 E tantas vezes eles disseram às vítimas: 00:11:21.825 --> 00:11:25.770 "Apenas desligue o computador. Ignore. Vai passar". 00:11:26.261 --> 00:11:28.727 E vimos isso no caso de Rana Ayyub. 00:11:29.102 --> 00:11:32.600 Foi-lhe dito: "Você está fazendo o maior drama sobre isso. 00:11:32.600 --> 00:11:34.757 São meninos sendo meninos". 00:11:35.268 --> 00:11:40.520 E então precisamos emparelhar a nova legislação com esforços no treinamento. NOTE Paragraph 00:11:42.053 --> 00:11:45.482 E a educação também deve ser destinada para a mídia. 00:11:46.180 --> 00:11:50.520 Jornalistas precisam aprender sobre o fenômeno dos deepfakes 00:11:50.520 --> 00:11:53.503 para que não os amplifiquem e espalhem. 00:11:54.313 --> 00:11:56.511 Esta é a parte em que estamos todos envolvidos. 00:11:56.511 --> 00:12:00.630 Cada um de nós precisa de educação. 00:12:01.375 --> 00:12:05.050 Clicamos, compartilhamos, curtimos algo e nem pensamos nisso. 00:12:05.551 --> 00:12:07.478 Nós precisamos fazer melhor. 00:12:07.726 --> 00:12:11.015 Precisamos de um radar muito melhor para mentira. NOTE Paragraph 00:12:13.744 --> 00:12:17.605 Enquanto trabalharmos nessas soluções, 00:12:17.609 --> 00:12:20.172 haverá muito sofrimento para superar. 00:12:21.093 --> 00:12:23.839 Rana Ayyub ainda está enfrentando as consequências. 00:12:24.669 --> 00:12:28.858 Ainda não se sente livre para se expressar on-line e off-line. 00:12:29.566 --> 00:12:30.971 E como me disse, 00:12:30.971 --> 00:12:36.109 ela ainda sente como se houvesse milhares de olhos observando seu corpo nu, 00:12:36.109 --> 00:12:39.714 embora, racionalmente, saiba que não era o corpo dela. 00:12:40.371 --> 00:12:42.780 E ela tem ataques de pânico frequentes, 00:12:42.780 --> 00:12:46.884 especialmente quando alguém que ela não conhece tenta tirar uma foto dela. 00:12:46.884 --> 00:12:50.379 "E se fizerem outro deepfake?", ela pensa. 00:12:51.082 --> 00:12:55.053 Então, pelo bem de pessoas como Rana Ayyub 00:12:55.053 --> 00:12:56.983 e pelo bem da nossa democracia, 00:12:57.393 --> 00:12:59.599 precisamos fazer algo agora. NOTE Paragraph 00:12:59.599 --> 00:13:00.764 Obrigada. NOTE Paragraph 00:13:00.764 --> 00:13:03.246 (Aplausos)