YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Portuguese, Brazilian subtitles

← Como os "deepfakes" minam a verdade e ameaçam a democracia

Get Embed Code
18 Languages

Showing Revision 63 created 09/17/2019 by Maricene Crus.

  1. [Esta palestra apresenta conteúdo adulto]
  2. Rana Ayyub é uma jornalista na Índia
  3. cujo trabalho expôs a corrupção do governo
  4. e violações de direitos humanos.
  5. E ao longo dos anos,
  6. ela se acostumou com criticismo severo
    e controvérsia em torno de seu trabalho.
  7. Mas nada disso poderia tê-la preparado
    para o que enfrentou em abril de 2018.
  8. Ela estava num café com um amigo
    quando viu pela primeira vez

  9. um vídeo de dois minutos
    e vinte segundos dela num ato sexual.
  10. Não acreditou no que estava vendo.
  11. Ela nunca fez um vídeo de sexo.
  12. Mas, infelizmente, milhares de pessoas
  13. acreditaram que era ela.
  14. Entrevistei a Sra. Ayyub
    cerca de três meses atrás,

  15. em conexão com meu livro
    sobre privacidade sexual.
  16. Sou professora de direito, advogada
    e defensora dos direitos civis.
  17. É incrivelmente frustrante saber que agora
  18. a lei pode fazer muito pouco pra ajudá-la.
  19. E enquanto conversávamos,
  20. ela explicou que deveria ter
    previsto o vídeo de sexo falso.
  21. Ela disse: "Afinal, sexo costuma ser usado
    para humilhar e envergonhar as mulheres,
  22. especialmente mulheres de minorias,
  23. e especialmente as que ousam
    desafiar homens poderosos",
  24. como ela fazia em seu trabalho.
  25. O vídeo de sexo falso
    se tornou viral em 48 horas.
  26. Todas as suas contas on-line foram
    inundadas com capturas de tela do vídeo,
  27. ameaças explícitas de estupro e morte
  28. e com insultos à sua fé muçulmana.
  29. Postagens on-line sugeriam que ela
    estava "disponível" para o sexo.
  30. E ela tinha sido "doxed",
  31. ou seja, o número de celular
    e o endereço residencial dela
  32. foram espalhados pela internet.
  33. O vídeo foi compartilhado
    mais de 40 mil vezes.
  34. Quando alguém é alvo
    desse tipo de ataque cibernético,

  35. o dano é profundo.
  36. A vida de Rana Ayyub
    virou de cabeça para baixo.
  37. Por semanas, ela mal podia comer ou falar.
  38. Ela parou de escrever e cancelou
    todas as contas de rede social,
  39. algo difícil de fazer
    quando se é jornalista.
  40. Ela tinha medo de sair
    da casa de sua família.
  41. E se aquelas ameaças fossem cumpridas?
  42. O Conselho de Direitos Humanos da ONU
    confirmou que ela não estava exagerando.
  43. Emitiu uma declaração pública dizendo que
    estavam preocupados com a segurança dela.
  44. Rana Ayyub enfrentou um "deepfake":

  45. tecnologia de aprendizado de máquina
  46. que manipula ou fabrica
    gravações de áudio e vídeo
  47. mostrando pessoas fazendo e dizendo coisas
  48. que elas nunca fizeram ou disseram.
  49. Deepfakes parecem autênticos
    e realistas, mas não são,
  50. são falsidades totais.
  51. Embora a tecnologia ainda esteja
    se desenvolvendo em sofisticação,
  52. ela está amplamente disponível.
  53. O interesse mais recente
    aos deepfakes surgiu,

  54. como muitas coisas on-line,
  55. com a pornografia.
  56. No início de 2018,

  57. alguém postou uma ferramenta no Reddit
  58. permitindo que os usuários pusessem
    rostos em vídeos pornográficos.
  59. E o que se seguiu foi uma cascata
    de vídeos pornográficos falsos
  60. apresentando as celebridades
    femininas favoritas das pessoas.
  61. E hoje, podemos acessar o YouTube
    e assistir a inúmeros tutoriais
  62. com instruções passo a passo
  63. de como fazer um deepfake no computador.
  64. Em breve poderemos fazê-lo
    em nosso telefone celular.
  65. A interação de algumas de nossas
    fragilidades humanas mais básicas
  66. com ferramentas de rede
  67. podem transformar deepfakes em armas.
  68. Deixem-me explicar.
  69. Como seres humanos, temos
    uma reação visceral ao áudio e vídeo.

  70. Acreditamos que são verdadeiros,
  71. já que é claro que podemos acreditar
  72. no que nossos olhos e ouvidos
    estão nos dizendo.
  73. E é esse mecanismo
  74. que pode comprometer
    nosso senso comum de realidade.
  75. Embora acreditemos que deepfakes
    sejam verdadeiros, eles não são.
  76. E nós somos atraídos
    pelo obsceno e provocante.
  77. Tendemos a acreditar
    e compartilhar informações
  78. negativas e novas.
  79. Pesquisadores descobriram que os boatos
    on-line se espalham dez vezes mais rápido
  80. do que histórias verdadeiras.
  81. Também somos atraídos por informações
  82. alinhadas com nossos pontos de vista.
  83. Psicólogos chamam essa tendência
    de "viés de confirmação".
  84. E as plataformas de rede social
    sobrecarregam essa tendência,
  85. permitindo compartilhar informações,
    instantaneamente e amplamente,
  86. que estejam de acordo com nossa opinião.
  87. Deepfakes têm o potencial de causar
    graves danos individuais e sociais.

  88. Então, imaginem um deepfake
  89. que mostre soldados norte-americanos
    no Afeganistão queimando um Alcorão.
  90. Podem imaginar que esse deepfake
    provocaria violência contra eles.
  91. E se no dia seguinte
  92. há outro deepfake,
  93. mostrando um imame que mora em Londres
    enaltecendo o ataque a esses soldados?
  94. Poderíamos ver violência e agitação civil,
  95. não só no Afeganistão e no Reino Unido,
  96. mas em todo o mundo.
  97. E vocês podem me dizer:
    "Deixe disso, Danielle, é exagero".

  98. Mas não é.
  99. Vimos mentiras espalhadas
  100. no WhatsApp e outros serviços
    de mensagens on-line
  101. levarem à violência
    contra minorias étnicas.
  102. E isso era apenas um texto!
  103. imaginem se fosse um vídeo.
  104. Deepfakes têm o potencial
    de corroer a confiança que temos

  105. em instituições democráticas.
  106. Imaginem a véspera de uma eleição.
  107. Há um deepfake mostrando
    um dos principais candidatos do partido
  108. gravemente doente.
  109. O deepfake pode derrubar a eleição
  110. e abalar nossa noção
    de que as eleições são legítimas.
  111. Imaginem se na véspera
    de uma oferta pública inicial, ou OPI,
  112. de um grande banco global
  113. há um deepfake mostrando o CEO do banco
    dizendo embriagado teorias de conspiração.
  114. O deepfake pode detonar a OPI,
  115. e pior, abalar nossa noção de que
    os mercados financeiros são estáveis.
  116. Deepfakes podem explorar e ampliar
    a profunda desconfiança que já temos

  117. de políticos, líderes empresariais
    e outros líderes influentes.
  118. Eles encontram uma plateia
    preparada para acreditar neles.
  119. A busca pela verdade também está em jogo.
  120. Tecnólogos preveem
    que, com os avanços na IA,
  121. logo poderá ser difícil, senão impossível,
  122. distinguir um vídeo real de um falso.
  123. Então, como a verdade pode emergir
    num mercado repleto de deepfakes?

  124. Vamos então apenas pegar o caminho
    de menor resistência,
  125. acreditar no que quisermos acreditar,
  126. e dane-se a verdade?
  127. E podemos não apenas acreditar na mentira,
  128. mas começar a não acreditar na verdade.
  129. Já vimos pessoas recorrendo
    ao fenômeno dos deepfakes
  130. para lançar dúvidas em evidências reais
    de suas transgressões.
  131. Vimos políticos falarem sobre o áudio
    de seus comentários constrangedores:
  132. "Vamos lá, são notícias falsas.
  133. Não podem acreditar no que seus olhos
    e ouvidos estão dizendo a você".
  134. E é esse perigo
  135. que o professor Robert Chesney e eu
    chamamos de "dividendo do mentiroso":
  136. o risco de que os mentirosos
    recorram a deepfakes
  137. para escapar da responsabilização
    por seus erros.
  138. Nosso trabalho ficou mais difícil,
    não há dúvida sobre isso.

  139. E vamos precisar de uma solução proativa
  140. de empresas de tecnologia, legisladores,
  141. agentes da lei e da mídia.
  142. Também de uma dose saudável
    de resiliência social.
  143. Estamos agora envolvidos
    numa discussão muito pública
  144. sobre a responsabilidade
    das empresas de tecnologia.
  145. E meu conselho
    para plataformas de rede social
  146. tem sido alterar os termos de serviço
    e as diretrizes da comunidade
  147. para proibir deepfakes que causem danos.
  148. Essa determinação
    exigirá julgamento humano
  149. e ela é cara.
  150. Mas precisamos de seres humanos
  151. para examinar o conteúdo
    e o contexto de um deepfake
  152. e descobrir se é uma falsificação danosa
  153. ou uma sátira válida, arte ou educação.
  154. E quanto à lei?

  155. A lei é nosso educador.
  156. Nos ensina o que é prejudicial
    e o que está errado.
  157. Modela o comportamento, punindo os autores
    e garantindo soluções para as vítimas.
  158. No momento, a lei não está à altura
    do desafio dos deepfakes.
  159. Em todo o mundo,
  160. nos faltam leis adequadas
  161. para enfrentar falsificações digitais
  162. que invadem a privacidade sexual,
  163. prejudicam reputações
  164. e causam sofrimento emocional.
  165. O que aconteceu com Rana Ayyub
    é cada vez mais comum.
  166. Mas quando ela procurou
    as autoridades em Deli,
  167. lhe foi dito que nada poderia ser feito.
  168. E o triste é que aconteceria o mesmo
    nos Estados Unidos e na Europa.
  169. Portanto, temos um vácuo legal
    que precisa ser preenchido.

  170. A Dra. Mary Anne Franks e eu trabalhamos
    com legisladores norte-americanos
  171. para criar uma legislação que proíba
    falsificações digitais nocivas,
  172. equiparáveis a roubo de identidade.
  173. E temos visto movimentos semelhantes
  174. na Islândia, Reino Unido e Austrália.
  175. Mas é claro, é apenas uma pequena parte
    do quebra-cabeça regulatório.
  176. Sei que a lei não é uma panaceia, certo?

  177. É um instrumento contundente.
  178. E temos que usá-la com sabedoria.
  179. Ela também tem impedimentos práticos.
  180. Não podemos aplicar a lei contra pessoas
    que não podemos identificar e encontrar.
  181. E se um criminoso não mora
    no mesmo país que a vítima,
  182. talvez não consigamos fazer com que venha
    enfrentar a justiça num tribunal local.
  183. E assim vamos precisar
    de uma resposta internacional coordenada.
  184. A educação também deve
    fazer parte da nossa resposta.
  185. Agentes não aplicarão leis
  186. que eles não conhecem,
  187. nem resolverão problemas
    que eles não entendem.
  188. Na minha pesquisa
    sobre perseguição cibernética,
  189. descobri que os agentes
    não tinham treinamento
  190. para entender as leis disponíveis
  191. e o problema do abuso on-line.
  192. E tantas vezes eles disseram às vítimas:
  193. "Apenas desligue o computador.
    Ignore. Vai passar".
  194. E vimos isso no caso de Rana Ayyub.
  195. Foi-lhe dito: "Você está fazendo
    o maior drama sobre isso.
  196. São meninos sendo meninos".
  197. E então precisamos emparelhar a nova
    legislação com esforços no treinamento.
  198. E a educação também deve
    ser destinada para a mídia.

  199. Jornalistas precisam aprender
    sobre o fenômeno dos deepfakes
  200. para que não os amplifiquem e espalhem.
  201. Esta é a parte em que estamos
    todos envolvidos.
  202. Cada um de nós precisa de educação.
  203. Clicamos, compartilhamos,
    curtimos algo e nem pensamos nisso.
  204. Nós precisamos fazer melhor.
  205. Precisamos de um radar
    muito melhor para mentira.
  206. Enquanto trabalharmos nessas soluções,

  207. haverá muito sofrimento para superar.
  208. Rana Ayyub ainda está
    enfrentando as consequências.
  209. Ainda não se sente livre
    para se expressar on-line e off-line.
  210. E como me disse,
  211. ela ainda sente como se houvesse
    milhares de olhos observando seu corpo nu,
  212. embora, racionalmente,
    saiba que não era o corpo dela.
  213. E ela tem ataques de pânico frequentes,
  214. especialmente quando alguém que ela
    não conhece tenta tirar uma foto dela.
  215. "E se fizerem outro deepfake?", ela pensa.
  216. Então, pelo bem de pessoas como Rana Ayyub
  217. e pelo bem da nossa democracia,
  218. precisamos fazer algo agora.
  219. Obrigada.

  220. (Aplausos)