Portuguese subtitles

← Como os "deepfakes" minam a verdade e ameaçam a democracia

Get Embed Code
21 Languages

Showing Revision 17 created 04/15/2020 by Margarida Ferreira.

  1. [Esta palestra apresenta conteúdo adulto]
  2. Rana Ayyub é uma jornalista na Índia

  3. que denunciou no seu trabalho
    a corrupção governamental
  4. e violações dos direitos humanos.
  5. E, ao longo dos anos,
  6. habituou-se à crítica corrosiva
    e à controvérsia sobre o seu trabalho.
  7. Mas nada disso a podia preparar
    para o que aconteceu em abril de 2018.
  8. Ela estava num café com um amigo
    quando viu pela primeira vez

  9. um vídeo de dois minutos e vinte segundos
    em que ela aparecia numa relação sexual.
  10. Ela não podia acreditar no que via.
  11. Nunca havia feito um vídeo de sexo.
  12. Mas, infelizmente, milhares de pessoas
  13. iam acreditar que era ela.
  14. Eu entrevistei Ayyub
    há cerca de três meses,

  15. para o meu livro sobre privacidade sexual.
  16. Sou professora de Direito, advogada
    e porta-voz dos direitos civis.
  17. É incrivelmente frustrante saber
    que, neste exato momento,
  18. a lei pouco pode fazer para ajudá-la.
  19. Enquanto conversávamos,
  20. ela explicou-me que devia ter previsto
    aquele vídeo sexual forjado e disse:
  21. "Afinal, o sexo é frequentemente
    usado para humilhar as mulheres,
  22. "especialmente as que fazem parte
    de minorias,
  23. "e mais ainda aquelas que se atrevem
    a desafiar homens poderosos",
  24. como ela havia feito.
  25. Esse vídeo de sexo forjado
    tornou-se viral em 48 horas.
  26. Todas as suas contas "online"
  27. foram inundadas com imagens
    retiradas desse vídeo,
  28. com ameaças gráficas
    de violação e de morte
  29. e com insultos em relação
    à fé muçulmana dela.
  30. Publicações "online" sugeriam
    que ela estava "disponível" para sexo.
  31. E ela foi "doxed",
  32. o que significa que o endereço
    e o número do telemóvel dela
  33. foram divulgados na Internet.
  34. O vídeo foi partilhado
    mais de 40 000 vezes.
  35. Quando alguém é alvo
    deste tipo de ataque cibernético,

  36. os danos são profundos.
  37. A vida de Rana Ayyub
    virou-se de pernas para o ar.
  38. Durante semanas,
    ela mal conseguia comer ou falar.
  39. Deixou de escrever e fechou
    todas as contas nas redes sociais,
  40. o que é uma coisa muito difícil
    para uma jornalista.
  41. Tinha medo de sair de casa.
  42. E se quem escrevia
    cumprisse as suas ameaças?
  43. O Conselho dos Direitos Humanos da ONU
    confirmou que ela não estava paranoica.
  44. Emitiram uma declaração pública dizendo
  45. que estavam preocupados
    com a sua segurança.
  46. O que Rana Ayyub enfrentava
    era um "deepfake",

  47. uma tecnologia de aprendizagem automática
  48. que manipula ou fabrica
    gravações de áudio e vídeo
  49. para mostrar pessoas
    a fazer ou a dizer
  50. coisas que nunca fizeram ou disseram.
  51. Os "deepfakes" parecem autênticos
    e reais, mas não são,
  52. são puras mentiras.
  53. Embora esta tecnologia
    ainda esteja a aperfeiçoar-se.
  54. já está amplamente disponível.
  55. O interesse atual em "deepfakes" surgiu

  56. — como com muitas coisas "online" —
  57. com a pornografia.
  58. No início de 2018,

  59. alguém publicou uma ferramenta no Reddit
  60. que permite às pessoas colocar rostos
    em vídeos pornográficos.
  61. O que se seguiu foi uma enxurrada
    de vídeos pornográficos falsos
  62. protagonizados pelas celebridades
    preferidas do público.
  63. E hoje é possível achar
    no YouTube inúmeros tutoriais
  64. com instruções passo-a-passo
  65. para criar um "deepfake"
    num aplicativo do computador.
  66. Em breve, talvez seja possível
    criá-los nos nossos telemóveis.
  67. Mas é a interação das fraquezas
    humanas mais básicas
  68. com ferramentas na Internet
  69. que pode transformar
    os "deepfakes" em armas.
  70. Passo a explicar.
  71. Enquanto seres humanos, temos
    uma reação visceral aos áudios e vídeos.

  72. Acreditamos que são verdadeiros,
  73. baseando-nos na noção
    de que podemos acreditar
  74. no que os nossos olhos
    e ouvidos estão a dizer.
  75. É esse mecanismo
  76. que pode enfraquecer o nosso sentido
    de realidade comum.
  77. Embora acreditemos que os "deepfakes"
    sejam reais, não são.
  78. E somos atraídos por aquilo
    que é obsceno, provocador.
  79. Temos a tendência a acreditar
    e a partilhar informações
  80. que sejam negativas,
    que sejam novidade.
  81. Os investigadores descobriram
    que as aldrabices "online"
  82. propagam-se dez vezes mais depressa
  83. do que histórias verdadeiras.
  84. Também somos atraídos por informações
  85. alinhadas com o nosso ponto de vista.
  86. Os psicólogos chamam a essa tendência
    de "preconceito de confirmação".
  87. As plataformas das redes sociais
    superalimentam essa tendência,
  88. quando nos permitem partilhar,
    instantânea e amplamente,
  89. informações de acordo
    com os nossos pontos de vista.
  90. Os "deepfakes" podem causar
    graves danos pessoais e sociais.

  91. Imaginem um "deepfake"
  92. que mostre soldados americanos
    a incendiar um Alcorão no Afeganistão.
  93. É fácil imaginar que este
    "deepfake" provocaria violência
  94. contra esses soldados.
  95. E se, no dia seguinte,
  96. surgisse um outro "deepfake",
  97. a mostrar um conhecido imã de Londres
  98. a pregar o ataque a esses soldados?
  99. Poderíamos ver a violência
    e a desordem civil
  100. não só no Afeganistão e no Reino Unido,
  101. mas pelo mundo inteiro.
  102. Vocês poderiam dizer:

  103. "Por favor, Danielle, isso é rebuscado".
  104. Mas não é.
  105. Já vimos que a propagação de mentiras
  106. no WhatsApp e noutros mensageiros "online"
  107. resultou em violência
    contra minorias étnicas.
  108. E foi apenas texto,
  109. imaginem se fosse um vídeo.
  110. Os "deepfakes" têm a capacidade
    de destruir a confiança que temos

  111. nas instituições democráticas.
  112. Então, imaginem que,
    na noite antes dumas eleições,
  113. temos um "deepfake" que mostra
    um dos candidatos do principal partido
  114. gravemente doente.
  115. Esse "deepfake" pode decidir as eleições
  116. e abalar o nosso sentido
    de que as eleições são legítimas.
  117. Imaginem se, na noite anterior
    a uma oferta pública
  118. de um importante banco global,
  119. aparecesse um "deepfake"
    a mostrar o CEO do banco embriagado,
  120. a vomitar teorias da conspiração.
  121. O "deepfake" pode afundar
    a oferta pública,
  122. e pior, pode abalar a nossa noção
    de que o mercado financeiro é estável.
  123. Os "deepfakes" podem explorar e expandir

  124. a profunda desconfiança que já temos
  125. nos políticos, nos líderes de negócios
    e noutros líderes influentes.
  126. Eles encontram uma audiência
    pronta para acreditar neles.
  127. A procura da verdade também está em jogo.
  128. Tecnólogos esperam que, com o
    avanço da inteligência artificial,
  129. em breve será difícil, se não impossível,
  130. dizer a diferença entre
    um vídeo real e um vídeo falso.
  131. Então, como pode a verdade surgir

  132. num mercado de ideias
    movido a "deepfakes"?
  133. Será que vamos seguir
    pelo caminho de menor resistência,
  134. acreditar no que queremos acreditar,
  135. e a verdade que se dane?
  136. Não só acreditaríamos no falso,
  137. como podíamos começar
    a descrer da verdade.
  138. Já vimos pessoas invocar
    o fenómeno dos "deepfakes"
  139. para provocar dúvidas sobre indícios
    reais das suas más ações.
  140. Ouvimos políticos dizer sobre áudios
    com comentários seus perturbadores:
  141. "Por favor, isso são notícias falsas.
  142. "Vocês não podem acreditar no que
    os vossos olhos e ouvidos estão a dizer."
  143. É esse o risco
  144. a que o professor Robert Chesney e eu
    chamamos "dividendo do mentiroso":
  145. o risco de que os mentirosos
    venham a invocar os "deepfakes"
  146. para escapar à responsabilidade
    das suas más ações.
  147. Temos um trabalho difícil a fazer,
    não há dúvidas quanto a isso.

  148. E vamos precisar de uma solução proativa
  149. das empresas de tecnologia,
    dos legisladores,
  150. dos agentes da lei e dos "media".
  151. E vamos precisar de uma boa dose
    de resiliência da sociedade.
  152. Neste momento, estamos empenhados
    numa conversa pública
  153. sobre a responsabilidade
    das empresas de tecnologia.
  154. O meu conselho para as plataformas
    de redes sociais
  155. tem sido mudar os termos do serviço
    e as orientações para a comunidade
  156. para impedir "deepfakes" que causem danos.
  157. Esta determinação vai requerer
    a avaliação humana,
  158. e isso é caro.
  159. Mas precisamos que haja seres humanos
  160. que olhem para o conteúdo
    e o contexto de um "deepfake"
  161. para perceberem se é
    uma representação prejudicial
  162. ou se, pelo contrário, tem valor
    como sátira, arte ou educação.
  163. E quanto à lei?

  164. A lei é a nossa educadora.
  165. Ensina-nos o que é prejudicial
    e o que é errado.
  166. E configura o comportamento
    que inibe, punindo os criminosos,
  167. e que assegura indemnizações às vítimas.
  168. Neste momento, a lei não está
    apta a desafiar os "deepfakes".
  169. No mundo inteiro,
  170. temos falta de leis bem feitas
  171. com o objetivo de enfrentar
    falsificações digitais
  172. que invadam a privacidade sexual,
  173. que prejudiquem reputações
  174. e que causem sofrimento emocional.
  175. O que aconteceu a Rana Ayyub
    é um lugar comum cada vez mais frequente.
  176. Mesmo assim, quando
    recorreu à lei em Deli,
  177. disseram-lhe que não podiam fazer nada.
  178. A triste verdade é que
    o mesmo aconteceria
  179. nos EUA e na Europa.
  180. Temos um vácuo legal
    que precisa de ser preenchido.

  181. A Dra. Mary Anne Franks e eu estamos
    a trabalhar com legisladores americanos
  182. na elaboração de leis capazes de proibir
    falsificações digitais nocivas,
  183. comparáveis a roubo de identidade.
  184. Temos visto movimentos parecidos
  185. na Islândia, no Reino Unido
    e na Austrália.
  186. Claro, esta é apenas uma pequena peça
    no "puzzle" regulatório.
  187. Eu sei que a lei não resolve tudo.

  188. É um instrumento pouco preciso
  189. e temos de usá-lo com sabedoria.
  190. Também tem alguns inconvenientes práticos.
  191. Não podemos aplicar a lei contra pessoas
    sem as identificar e achar.
  192. Se um criminoso viver fora do país
    em que a vítima vive,
  193. pode ser difícil conseguir
  194. que ele compareça no tribunal local
  195. para responder à justiça.
  196. Assim, precisamos de uma resposta
    internacional coordenada.
  197. A educação também tem de fazer parte
    da nossa resposta.
  198. As autoridades legais não vão impor
    leis que desconhecem
  199. e aconselhar problemas que não entendem.
  200. Na minha pesquisa sobre
    perseguição cibernética
  201. descobri que os agentes da polícia
    não têm formação
  202. para entender as leis disponíveis
  203. e o problema da violência "online".
  204. Frequentemente diziam às vítimas:
  205. "Desligue o computador.
    Ignore. Isso passa".
  206. Vimos isso no caso de Rana Ayyub.
  207. Disseram-lhe: "Você está a fazer
    uma tempestade num copo de água."
  208. "Isso é coisa de rapaziada".
  209. Por isso, precisamos de combinar
    novas leis com ações de formação.
  210. Os "media" também têm de ser
    alvo de educação.

  211. Os jornalistas precisam de ter formação
    quanto ao fenómeno dos "deepfakes"
  212. para não os ampliarem e espalharem.
  213. E é aqui que estamos todos envolvidos.
  214. Cada um de nós precisa de se educar.
  215. Clicamos, partilhamos, gostamos,
    sem sequer pensar nisso.
  216. Temos de melhorar isso.
  217. Precisamos de ficar
    muito mais atentos às falsificações.
  218. Enquanto trabalhamos nestas soluções,

  219. ainda haverá muito sofrimento.
  220. Rana Ayyub ainda está a lidar
    com as consequências.
  221. Ela ainda não se sente à vontade para
    se exprimir "online" e "offline".
  222. E como me disse,
  223. ela ainda sente milhares de olhos
    sobre o seu corpo nu
  224. embora, intelectualmente, saiba
    que aquele não era o corpo dela.
  225. Ela tem ataques de pânico frequentes,
  226. especialmente quando algum desconhecido
    tenta tirar-lhe uma fotografia.
  227. "E se eles fizerem outro 'deepfake'?"
    pensa consigo mesma.
  228. Então, a bem de pessoas como Rana Ayyub
  229. e a bem da nossa democracia,
  230. precisamos de fazer algo já.
  231. Obrigada.

  232. (Aplausos)