0:00:00.430,0:00:03.302 [Esta palestra apresenta conteúdo adulto] 0:00:06.002,0:00:08.754 Rana Ayyub é uma jornalista na Índia 0:00:08.778,0:00:11.950 que denunciou no seu trabalho[br]a corrupção governamental 0:00:12.411,0:00:14.758 e violações dos direitos humanos. 0:00:14.990,0:00:16.527 E, ao longo dos anos, 0:00:16.551,0:00:20.014 habituou-se à crítica corrosiva[br]e à controvérsia sobre o seu trabalho. 0:00:20.149,0:00:25.350 Mas nada disso a podia preparar[br]para o que aconteceu em abril de 2018. 0:00:26.125,0:00:29.776 Ela estava num café com um amigo[br]quando viu pela primeira vez 0:00:29.800,0:00:34.952 um vídeo de dois minutos e vinte segundos[br]em que ela aparecia numa relação sexual. 0:00:35.188,0:00:37.757 Ela não podia acreditar no que via. 0:00:37.781,0:00:40.454 Nunca havia feito um vídeo de sexo. 0:00:40.506,0:00:43.971 Mas, infelizmente, milhares de pessoas 0:00:43.995,0:00:46.303 iam acreditar que era ela. 0:00:46.673,0:00:49.617 Eu entrevistei Ayyub[br]há cerca de três meses, 0:00:49.641,0:00:52.520 para o meu livro sobre privacidade sexual. 0:00:52.681,0:00:56.190 Sou professora de Direito, advogada[br]e porta-voz dos direitos civis. 0:00:56.304,0:01:00.815 É incrivelmente frustrante saber[br]que, neste exato momento, 0:01:00.839,0:01:03.337 a lei pouco pode fazer para ajudá-la. 0:01:03.458,0:01:05.315 Enquanto conversávamos, 0:01:05.329,0:01:10.341 ela explicou-me que devia ter previsto[br]aquele vídeo sexual forjado e disse: 0:01:10.468,0:01:15.754 "Afinal, o sexo é frequentemente[br]usado para humilhar as mulheres, 0:01:15.818,0:01:18.306 "especialmente as que fazem parte[br]de minorias, 0:01:18.360,0:01:22.482 "e mais ainda aquelas que se atrevem[br]a desafiar homens poderosos", 0:01:22.526,0:01:24.687 como ela havia feito. 0:01:25.191,0:01:29.420 Esse vídeo de sexo forjado[br]tornou-se viral em 48 horas. 0:01:30.064,0:01:32.045 Todas as suas contas "online" 0:01:32.108,0:01:35.395 foram inundadas com imagens[br]retiradas desse vídeo, 0:01:35.445,0:01:38.022 com ameaças gráficas[br]de violação e de morte 0:01:38.046,0:01:41.168 e com insultos em relação[br]à fé muçulmana dela. 0:01:41.426,0:01:45.990 Publicações "online" sugeriam[br]que ela estava "disponível" para sexo. 0:01:46.054,0:01:47.794 E ela foi "doxed", 0:01:47.808,0:01:50.831 o que significa que o endereço [br]e o número do telemóvel dela 0:01:50.831,0:01:52.846 foram divulgados na Internet. 0:01:52.879,0:01:57.228 O vídeo foi partilhado[br]mais de 40 000 vezes. 0:01:57.760,0:02:01.696 Quando alguém é alvo [br]deste tipo de ataque cibernético, 0:02:01.720,0:02:04.216 os danos são profundos. 0:02:04.482,0:02:07.836 A vida de Rana Ayyub[br]virou-se de pernas para o ar. 0:02:08.211,0:02:11.702 Durante semanas,[br]ela mal conseguia comer ou falar. 0:02:11.919,0:02:15.718 Deixou de escrever e fechou [br]todas as contas nas redes sociais, 0:02:15.782,0:02:19.113 o que é uma coisa muito difícil [br]para uma jornalista. 0:02:19.188,0:02:22.522 Tinha medo de sair de casa. 0:02:22.696,0:02:26.126 E se quem escrevia[br]cumprisse as suas ameaças? 0:02:26.395,0:02:30.840 O Conselho dos Direitos Humanos da ONU[br]confirmou que ela não estava paranoica. 0:02:30.914,0:02:33.054 Emitiram uma declaração pública dizendo 0:02:33.054,0:02:35.865 que estavam preocupados[br]com a sua segurança. 0:02:36.776,0:02:40.845 O que Rana Ayyub enfrentava[br]era um "deepfake", 0:02:41.029,0:02:43.569 uma tecnologia de aprendizagem automática 0:02:43.593,0:02:47.704 que manipula ou fabrica[br]gravações de áudio e vídeo 0:02:47.728,0:02:50.161 para mostrar pessoas[br]a fazer ou a dizer 0:02:50.195,0:02:52.751 coisas que nunca fizeram ou disseram. 0:02:52.807,0:02:56.328 Os "deepfakes" parecem autênticos[br]e reais, mas não são, 0:02:56.382,0:02:58.241 são puras mentiras. 0:02:59.228,0:03:03.022 Embora esta tecnologia[br]ainda esteja a aperfeiçoar-se. 0:03:03.046,0:03:05.180 já está amplamente disponível. 0:03:05.371,0:03:08.443 O interesse atual em "deepfakes" surgiu 0:03:08.467,0:03:10.628 — como com muitas coisas "online" — 0:03:10.652,0:03:12.401 com a pornografia. 0:03:12.498,0:03:14.609 No início de 2018, 0:03:14.633,0:03:17.101 alguém publicou uma ferramenta no Reddit 0:03:17.125,0:03:21.537 que permite às pessoas colocar rostos[br]em vídeos pornográficos. 0:03:21.561,0:03:25.001 O que se seguiu foi uma enxurrada[br]de vídeos pornográficos falsos 0:03:25.025,0:03:28.040 protagonizados pelas celebridades [br]preferidas do público. 0:03:28.712,0:03:32.189 E hoje é possível achar [br]no YouTube inúmeros tutoriais 0:03:32.213,0:03:34.499 com instruções passo-a-passo 0:03:34.523,0:03:37.824 para criar um "deepfake"[br]num aplicativo do computador. 0:03:38.260,0:03:42.181 Em breve, talvez seja possível[br]criá-los nos nossos telemóveis. 0:03:43.072,0:03:48.454 Mas é a interação das fraquezas[br]humanas mais básicas 0:03:48.478,0:03:50.160 com ferramentas na Internet 0:03:50.184,0:03:52.850 que pode transformar[br]os "deepfakes" em armas. 0:03:52.874,0:03:54.674 Passo a explicar. 0:03:54.875,0:03:59.441 Enquanto seres humanos, temos[br]uma reação visceral aos áudios e vídeos. 0:03:59.860,0:04:01.688 Acreditamos que são verdadeiros, 0:04:01.722,0:04:03.880 baseando-nos na noção[br]de que podemos acreditar 0:04:03.884,0:04:06.456 no que os nossos olhos[br]e ouvidos estão a dizer. 0:04:06.476,0:04:08.315 É esse mecanismo 0:04:08.342,0:04:11.897 que pode enfraquecer o nosso sentido[br]de realidade comum. 0:04:11.921,0:04:15.435 Embora acreditemos que os "deepfakes"[br]sejam reais, não são. 0:04:15.604,0:04:19.951 E somos atraídos por aquilo [br]que é obsceno, provocador. 0:04:20.365,0:04:23.412 Temos a tendência a acreditar[br]e a partilhar informações 0:04:23.436,0:04:25.459 que sejam negativas,[br]que sejam novidade. 0:04:25.809,0:04:28.992 Os investigadores descobriram[br]que as aldrabices "online" 0:04:29.012,0:04:31.165 propagam-se dez vezes mais depressa 0:04:31.165,0:04:33.272 do que histórias verdadeiras. 0:04:34.135,0:04:38.255 Também somos atraídos por informações 0:04:38.319,0:04:40.771 alinhadas com o nosso ponto de vista. 0:04:41.060,0:04:44.739 Os psicólogos chamam a essa tendência[br]de "preconceito de confirmação". 0:04:45.430,0:04:49.817 As plataformas das redes sociais [br]superalimentam essa tendência, 0:04:49.861,0:04:53.592 quando nos permitem partilhar,[br]instantânea e amplamente, 0:04:53.616,0:04:56.248 informações de acordo[br]com os nossos pontos de vista. 0:04:56.735,0:05:02.243 Os "deepfakes" podem causar[br]graves danos pessoais e sociais. 0:05:03.204,0:05:05.358 Imaginem um "deepfake" 0:05:05.382,0:05:09.764 que mostre soldados americanos[br]a incendiar um Alcorão no Afeganistão. 0:05:10.807,0:05:13.831 É fácil imaginar que este[br]"deepfake" provocaria violência 0:05:13.855,0:05:15.774 contra esses soldados. 0:05:15.847,0:05:18.720 E se, no dia seguinte, 0:05:18.744,0:05:21.138 surgisse um outro "deepfake", 0:05:21.172,0:05:24.339 a mostrar um conhecido imã de Londres 0:05:24.363,0:05:27.250 a pregar o ataque a esses soldados? 0:05:27.617,0:05:30.990 Poderíamos ver a violência[br]e a desordem civil 0:05:31.044,0:05:34.053 não só no Afeganistão e no Reino Unido, 0:05:34.077,0:05:36.072 mas pelo mundo inteiro. 0:05:36.251,0:05:37.573 Vocês poderiam dizer: 0:05:37.573,0:05:39.680 "Por favor, Danielle, isso é rebuscado". 0:05:39.704,0:05:41.129 Mas não é. 0:05:41.293,0:05:43.634 Já vimos que a propagação de mentiras 0:05:43.688,0:05:46.360 no WhatsApp e noutros mensageiros "online" 0:05:46.384,0:05:49.015 resultou em violência[br]contra minorias étnicas. 0:05:49.039,0:05:50.926 E foi apenas texto, 0:05:50.950,0:05:53.425 imaginem se fosse um vídeo. 0:05:54.593,0:05:59.950 Os "deepfakes" têm a capacidade[br]de destruir a confiança que temos 0:05:59.974,0:06:02.566 nas instituições democráticas. 0:06:03.006,0:06:05.844 Então, imaginem que,[br]na noite antes dumas eleições, 0:06:05.996,0:06:09.234 temos um "deepfake" que mostra[br]um dos candidatos do principal partido 0:06:09.258,0:06:11.093 gravemente doente. 0:06:11.202,0:06:13.605 Esse "deepfake" pode decidir as eleições 0:06:13.629,0:06:17.494 e abalar o nosso sentido[br]de que as eleições são legítimas. 0:06:18.515,0:06:21.841 Imaginem se, na noite anterior[br]a uma oferta pública 0:06:21.865,0:06:24.318 de um importante banco global, 0:06:24.342,0:06:27.371 aparecesse um "deepfake"[br]a mostrar o CEO do banco embriagado, 0:06:27.395,0:06:30.539 a vomitar teorias da conspiração. 0:06:30.887,0:06:34.054 O "deepfake" pode afundar [br]a oferta pública, 0:06:34.078,0:06:38.272 e pior, pode abalar a nossa noção[br]de que o mercado financeiro é estável. 0:06:39.265,0:06:42.944 Os "deepfakes" podem explorar e expandir 0:06:42.961,0:06:46.301 a profunda desconfiança que já temos 0:06:46.398,0:06:50.807 nos políticos, nos líderes de negócios[br]e noutros líderes influentes. 0:06:50.945,0:06:54.819 Eles encontram uma audiência[br]pronta para acreditar neles. 0:06:55.287,0:06:58.362 A procura da verdade também está em jogo. 0:06:59.077,0:07:02.870 Tecnólogos esperam que, com o[br]avanço da inteligência artificial, 0:07:02.870,0:07:06.347 em breve será difícil, se não impossível, 0:07:06.371,0:07:10.586 dizer a diferença entre[br]um vídeo real e um vídeo falso. 0:07:11.022,0:07:13.462 Então, como pode a verdade surgir 0:07:13.522,0:07:16.512 num mercado de ideias[br]movido a "deepfakes"? 0:07:16.752,0:07:20.172 Será que vamos seguir[br]pelo caminho de menor resistência, 0:07:20.196,0:07:22.633 acreditar no que queremos acreditar, 0:07:22.657,0:07:24.657 e a verdade que se dane? 0:07:24.831,0:07:28.006 Não só acreditaríamos no falso, 0:07:28.030,0:07:31.611 como podíamos começar[br]a descrer da verdade. 0:07:31.887,0:07:35.966 Já vimos pessoas invocar [br]o fenómeno dos "deepfakes" 0:07:35.990,0:07:40.110 para provocar dúvidas sobre indícios[br]reais das suas más ações. 0:07:40.204,0:07:45.903 Ouvimos políticos dizer sobre áudios[br]com comentários seus perturbadores: 0:07:45.927,0:07:48.219 "Por favor, isso são notícias falsas. 0:07:48.219,0:07:52.011 "Vocês não podem acreditar no que[br]os vossos olhos e ouvidos estão a dizer." 0:07:52.402,0:07:54.133 É esse o risco 0:07:54.157,0:07:59.243 a que o professor Robert Chesney e eu[br]chamamos "dividendo do mentiroso": 0:07:59.617,0:08:02.974 o risco de que os mentirosos[br]venham a invocar os "deepfakes" 0:08:02.974,0:08:06.439 para escapar à responsabilidade[br]das suas más ações. 0:08:06.963,0:08:10.258 Temos um trabalho difícil a fazer, [br]não há dúvidas quanto a isso. 0:08:10.606,0:08:13.931 E vamos precisar de uma solução proativa 0:08:13.955,0:08:17.466 das empresas de tecnologia,[br]dos legisladores, 0:08:17.490,0:08:19.954 dos agentes da lei e dos "media". 0:08:20.093,0:08:24.519 E vamos precisar de uma boa dose[br]de resiliência da sociedade. 0:08:25.506,0:08:29.402 Neste momento, estamos empenhados[br]numa conversa pública 0:08:29.426,0:08:32.490 sobre a responsabilidade[br]das empresas de tecnologia. 0:08:32.926,0:08:35.958 O meu conselho para as plataformas[br]de redes sociais 0:08:35.982,0:08:39.855 tem sido mudar os termos do serviço[br]e as orientações para a comunidade 0:08:39.879,0:08:42.667 para impedir "deepfakes" que causem danos. 0:08:42.712,0:08:46.672 Esta determinação vai requerer[br]a avaliação humana, 0:08:46.696,0:08:48.408 e isso é caro. 0:08:48.673,0:08:50.958 Mas precisamos que haja seres humanos 0:08:50.982,0:08:54.855 que olhem para o conteúdo[br]e o contexto de um "deepfake" 0:08:54.879,0:08:58.561 para perceberem se é[br]uma representação prejudicial 0:08:58.585,0:09:03.232 ou se, pelo contrário, tem valor[br]como sátira, arte ou educação. 0:09:04.118,0:09:06.175 E quanto à lei? 0:09:06.666,0:09:09.315 A lei é a nossa educadora. 0:09:09.515,0:09:13.553 Ensina-nos o que é prejudicial[br]e o que é errado. 0:09:13.727,0:09:18.132 E configura o comportamento[br]que inibe, punindo os criminosos, 0:09:18.156,0:09:20.932 e que assegura indemnizações às vítimas. 0:09:21.148,0:09:25.709 Neste momento, a lei não está[br]apta a desafiar os "deepfakes". 0:09:26.116,0:09:27.686 No mundo inteiro, 0:09:27.700,0:09:30.314 temos falta de leis bem feitas 0:09:30.338,0:09:33.568 com o objetivo de enfrentar[br]falsificações digitais 0:09:33.592,0:09:35.823 que invadam a privacidade sexual, 0:09:35.847,0:09:37.444 que prejudiquem reputações 0:09:37.488,0:09:39.599 e que causem sofrimento emocional. 0:09:39.725,0:09:44.047 O que aconteceu a Rana Ayyub[br]é um lugar comum cada vez mais frequente. 0:09:44.074,0:09:46.588 Mesmo assim, quando[br]recorreu à lei em Deli, 0:09:46.602,0:09:48.957 disseram-lhe que não podiam fazer nada. 0:09:49.101,0:09:52.284 A triste verdade é que [br]o mesmo aconteceria 0:09:52.308,0:09:54.829 nos EUA e na Europa. 0:09:55.360,0:09:59.736 Temos um vácuo legal[br]que precisa de ser preenchido. 0:10:00.352,0:10:04.434 A Dra. Mary Anne Franks e eu estamos[br]a trabalhar com legisladores americanos 0:10:04.488,0:10:09.272 na elaboração de leis capazes de proibir[br]falsificações digitais nocivas, 0:10:09.336,0:10:12.097 comparáveis a roubo de identidade. 0:10:12.252,0:10:14.538 Temos visto movimentos parecidos 0:10:14.562,0:10:17.823 na Islândia, no Reino Unido[br]e na Austrália. 0:10:18.157,0:10:21.824 Claro, esta é apenas uma pequena peça[br]no "puzzle" regulatório. 0:10:22.911,0:10:26.080 Eu sei que a lei não resolve tudo. 0:10:26.104,0:10:28.089 É um instrumento pouco preciso 0:10:28.346,0:10:30.411 e temos de usá-lo com sabedoria. 0:10:30.411,0:10:33.517 Também tem alguns inconvenientes práticos. 0:10:33.657,0:10:39.070 Não podemos aplicar a lei contra pessoas[br]sem as identificar e achar. 0:10:39.463,0:10:44.158 Se um criminoso viver fora do país[br]em que a vítima vive, 0:10:44.551,0:10:46.180 pode ser difícil conseguir 0:10:46.204,0:10:48.553 que ele compareça no tribunal local 0:10:48.577,0:10:50.387 para responder à justiça. 0:10:50.417,0:10:54.591 Assim, precisamos de uma resposta[br]internacional coordenada. 0:10:55.809,0:10:59.502 A educação também tem de fazer parte [br]da nossa resposta. 0:10:59.803,0:11:03.821 As autoridades legais não vão impor[br]leis que desconhecem 0:11:05.040,0:11:08.081 e aconselhar problemas que não entendem. 0:11:08.376,0:11:10.815 Na minha pesquisa sobre[br]perseguição cibernética 0:11:10.815,0:11:14.250 descobri que os agentes da polícia[br]não têm formação 0:11:14.264,0:11:16.696 para entender as leis disponíveis 0:11:16.720,0:11:19.069 e o problema da violência "online". 0:11:19.093,0:11:21.995 Frequentemente diziam às vítimas: 0:11:22.039,0:11:26.011 "Desligue o computador.[br]Ignore. Isso passa". 0:11:26.261,0:11:29.037 Vimos isso no caso de Rana Ayyub. 0:11:29.102,0:11:32.570 Disseram-lhe: "Você está a fazer[br]uma tempestade num copo de água." 0:11:32.594,0:11:34.825 "Isso é coisa de rapaziada". 0:11:35.268,0:11:40.520 Por isso, precisamos de combinar[br]novas leis com ações de formação. 0:11:42.053,0:11:45.903 Os "media" também têm de ser[br]alvo de educação. 0:11:46.180,0:11:50.688 Os jornalistas precisam de ter formação[br]quanto ao fenómeno dos "deepfakes" 0:11:50.755,0:11:54.033 para não os ampliarem e espalharem. 0:11:54.583,0:11:56.751 E é aqui que estamos todos envolvidos. 0:11:56.775,0:12:00.987 Cada um de nós precisa de se educar. 0:12:01.375,0:12:05.394 Clicamos, partilhamos, gostamos,[br]sem sequer pensar nisso. 0:12:05.551,0:12:07.720 Temos de melhorar isso. 0:12:07.726,0:12:11.138 Precisamos de ficar[br]muito mais atentos às falsificações. 0:12:13.744,0:12:17.585 Enquanto trabalhamos nestas soluções, 0:12:17.609,0:12:20.581 ainda haverá muito sofrimento. 0:12:21.093,0:12:24.278 Rana Ayyub ainda está a lidar[br]com as consequências. 0:12:24.669,0:12:29.337 Ela ainda não se sente à vontade para[br]se exprimir "online" e "offline". 0:12:29.566,0:12:31.322 E como me disse, 0:12:31.322,0:12:36.029 ela ainda sente milhares de olhos[br]sobre o seu corpo nu 0:12:36.053,0:12:40.041 embora, intelectualmente, saiba[br]que aquele não era o corpo dela. 0:12:40.371,0:12:42.720 Ela tem ataques de pânico frequentes, 0:12:42.744,0:12:46.844 especialmente quando algum desconhecido[br]tenta tirar-lhe uma fotografia. 0:12:46.868,0:12:50.501 "E se eles fizerem outro 'deepfake'?"[br]pensa consigo mesma. 0:12:51.082,0:12:55.003 Então, a bem de pessoas como Rana Ayyub 0:12:55.027,0:12:57.333 e a bem da nossa democracia, 0:12:57.357,0:12:59.539 precisamos de fazer algo já. 0:12:59.563,0:13:00.714 Obrigada. 0:13:00.738,0:13:03.246 (Aplausos)