YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Spanish subtitles

← Deepkfakes: Cómo ponen en peligro la verdad y la democracia

Get Embed Code
16 Languages

Showing Revision 40 created 09/22/2019 by Sebastian Betti.

  1. [Esta charla tiene contenido adulto]
  2. Rana Ayyub es periodista en India

  3. y ha destapado casos
    de corrupción del gobierno
  4. y violaciones de los derechos humanos.
  5. Con los años
  6. se acostumbró a la fuerte crítica
    y a la polémica de su trabajo.
  7. Pero nada podría haberla preparado
    para lo que enfrentó en abril de 2018.
  8. Ella estaba en una cafetería con una amiga
    la primera vez que lo vio.

  9. Un vídeo de 2 minutos y 20 segundos
    de ella en un acto sexual.
  10. Y ella no se lo podía creer.
  11. Ella nunca había hecho un vídeo sexual.
  12. Pero por desgracia
    miles y miles de personas
  13. creerían que era ella.
  14. Entrevisté a Ayyub hace tres meses

  15. en relación con mi libro
    de privacidad sexual.
  16. Soy catedrática en Derecho, abogada
    y defensora de los derechos civiles,
  17. así que es frustra mucho
    saber que ahora mismo
  18. la ley podría hacer muy poco
    para ayudarla.
  19. Y mientras hablábamos
  20. me explicó que nunca vio venir
    el falso vídeo sexual.
  21. Dijo "el sexo se usa muchas veces para
    menospreciar y avergonzar a las mujeres
  22. en particular a las mujeres minoritarias
  23. y sobre todo a las que se atreven
    a desafiar a hombres poderosos",
  24. como los de su trabajo.
  25. El vídeo se hizo viral en 48 horas.
  26. Todas sus redes sociales
    se llenaron de capturas del vídeo
  27. con amenazas de violación
    y amenazas de muerte
  28. insultando su fe musulmana.
  29. Había publicaciones online que insinuaban
    que ella estaba "disponible" para sexo.
  30. Revelaron su información personal,
  31. es decir, su dirección
    y su número de teléfono
  32. se difundió por Internet.
  33. El vídeo se compartió más de 40 000 veces.
  34. Cuando alguien es el objetivo
    de este tipo de ataques de mafias online

  35. la herida es profunda.
  36. La vida de Rana Ayyub
    se puso patas arriba.
  37. Durante semanas, apenas podía
    comer y hablar.
  38. Dejó de escribir y cerró todas
    sus cuentas de las redes sociales,
  39. algo muy duro cuando eres periodista.
  40. Y tenía miedo de salir de su casa.
  41. ¿Y si cumplían con las amenazas?
  42. El Consejo de Derechos Humanos de la ONU
    afirmó que no estaba loca.
  43. Publicó una declaración que decía
    que estaban preocupados por su seguridad.
  44. Rana Ayyub se enfrentaba a un deepfake:

  45. Tecnología de aprendizaje automático
  46. que manipula o fabrica audio y vídeos
  47. que muestran personas
    diciendo o haciendo cosas
  48. que nunca han dicho o hecho.
  49. Los deepfakes parecen auténticos
    y realistas, pero no lo son;
  50. son mentiras absolutas.
  51. Si bien es una tecnología en desarrollo,
  52. es de fácil acceso.
  53. Y como tantas cosas en Internet,

  54. los deepfakes llaman ahora la atención
  55. por la pornografía.
  56. A principios del 2018

  57. alguien publicó una herramienta en Reddit
  58. que permitía a los usuarios
    insertar caras en vídeos porno.
  59. A esto le siguió una lluvia de
    falsos vídeos porno protagonizados
  60. por las celebridades
    favoritas de las personas.
  61. Y hoy en YouTube se pueden encontrar
    infinitos tutoriales
  62. con instrucciones que enseñan paso a paso
  63. a hacer un deepfake en tu computadora.
  64. Y quizás pronto podamos hacerlos
    en nuestros móviles.
  65. Ahora, la interacción de algunas de
    nuestras debilidades humanas más básicas
  66. con las herramientas de la red
  67. pueden convertir estos vídeos en armas.
  68. Les explicaré.
  69. Los seres humanos tenemos una respuesta
    instintiva a los audios y vídeos.

  70. Creemos que son verdad
  71. ya que pensamos que
    obviamente podemos creer
  72. lo que dicen los ojos y los oídos.
  73. Y este mecanismo
  74. puede debilitar
    nuestro sentido de la realidad.
  75. Aunque creamos que los deepfakes
    son verdad, no lo son.
  76. Nos atrae lo lascivo, lo provocativo.
  77. Tendemos a creer y compartir información
  78. negativa y novedosa.
  79. Los expertos dicen que online las falacias
    se difunden diez veces más rápido
  80. que las historias verídicas.
  81. Además, nos atrae la información
  82. más afín a nuestro punto de vista.
  83. Los psicólogos llaman a esta tendencia
    "sesgo de confirmación".
  84. Y las redes sociales
    sobrecargan esta tendencia
  85. al permitirnos compartir información
    afín a nuestra idea
  86. de una manera amplia e instantánea.
  87. Pero los deepfakes tienen la posibilidad
    de causar un gran daño individual y social.

  88. Imaginen uno que muestre
  89. a los soldados estadounidenses
    quemando un Corán en Afganistán.
  90. Podemos imaginar que este vídeo
    puede causar violencia
  91. contra esos soldados.
  92. ¿Y si justo al día siguiente
  93. aparece otro deepfake
  94. que muestra a un conocido imán de Londres
  95. instando a atacar a esos soldados?
  96. Veríamos violencia y disturbios civiles.
  97. no solo en Afganistán y en Reino Unido
  98. sino en todo el mundo.
  99. Podrán decirme

  100. "Ya, Danielle, qué rebuscado".
  101. Pero no lo es.
  102. Hemos visto difusiones de mentiras
  103. por WhatsApp y por otros
    servicios de mensajería online
  104. que han llevado a la violencia
    contra las minorías étnicas.
  105. Y solo era un texto.
  106. Imaginen si fuese un vídeo.
  107. Los deepfakes tienen el potencial
    de corroer la confianza

  108. que tenemos en
    las instituciones democráticas.
  109. Imaginen la noche de antes
    de unas elecciones.
  110. Un deepfake muestra a uno de
    los candidatos de un partido principal
  111. muy enfermo.
  112. El vídeo podría modificar las elecciones
  113. y cambiar nuestra opinión
    sobre la validez de las elecciones.
  114. Imaginen si la noche anterior
    a una oferta pública de venta
  115. de un gran banco mundial
  116. hubiese un deepfake
    mostrando al director ejecutivo
  117. hablando borracho
    sobre teorías conspirativas.
  118. El vídeo podría hundir la venta
  119. y peor, cambiar nuestra opinión sobre
    la estabilidad del mercado financiero.
  120. Los deepfakes pueden aprovecharse
    para aumentar la gran desconfianza

  121. que ya tenemos en los políticos,
    líderes de empresas y otros influyentes.
  122. Encuentran a un público
    listo para creérselos.
  123. La búsqueda de la verdad
    también está en peligro.
  124. Expertos en tecnología creen
  125. que con los avances
    de Inteligencia Artificial
  126. pronto será casi imposible diferenciar
    un vídeo real de uno falso.
  127. ¿Cómo podría emerger la verdad
    en un mercado lleno de deepfakes?

  128. Si seguimos por el camino
    de no poner resistencia
  129. creyendo lo que queramos creer
  130. ¿será el fin de la verdad?
  131. Quizás no solo creamos lo falso,
  132. quizás pongamos en duda la verdad.
  133. Ya hemos visto a personas
    que usan este fenómeno de deepfakes
  134. para cuestionar la evidencia
    tangible de sus acciones.
  135. Hemos oído a políticos decir
    sobre audios de comentarios alarmantes
  136. "Son noticias falsas.
  137. No podemos creer los que nos dicen
    nuestros ojos y oídos".
  138. El profesor Robert Chesney y yo
  139. llamamos a este peligro
    "recompensa del mentiroso"
  140. El temor de que los mentirosos
    usen deepfakes
  141. para escapar de la culpabilidad del delito.
  142. Tenemos mucho trabajo por delante,
    de eso no hay duda.

  143. Vamos a necesitar una solución proactiva
  144. de parte de empresas tecnológicas,
    legisladores,
  145. poder judicial y medios de comunicación.
  146. Necesitaremos una dosis saludable
    de resistencia social.
  147. Así que ahora estamos inmersos
    en una conversación muy pública
  148. sobre las responsabilidades
    de las empresas tecnológicas,
  149. mi consejo para las redes sociales
  150. es que cambien sus términos de uso
    y las normas comunitarias
  151. para prohibir deepfakes dañinos.
  152. Esta resolución requerirá el juicio humano
  153. y será costoso.
  154. Pero necesitamos supervisión humana
  155. del contenido y el contexto
    de un deepfake
  156. para ver si es una imitación perjudicial
  157. o si tiene un valor satírico,
    artístico o educativo.
  158. Y, ¿qué pasa con la ley?

  159. Debemos aprender de la ley.
  160. Nos enseña qué es perjudicial
    y qué es incorrecto.
  161. Reprime comportamientos prohibidos
    castigando a los responsables
  162. y cuidando a las víctimas.
  163. Ahora mismo la ley no está preparada
    para el desafío de los deepfakes.
  164. En todo el mundo
  165. necesitamos leyes hechas a medida
  166. diseñadas para destruir
    las suplantaciones digitales
  167. que invaden la privacidad sexual,
  168. que dañan reputaciones
  169. y causan perjuicio emocional.
  170. Lo que le ocurrió a Rana Ayyub
    cada vez es más común.
  171. Incluso cuando fue a la policía
    en Delhi
  172. le dijeron que no podía hacer nada.
  173. Y es triste pero verdad
    que ocurriría lo mismo
  174. en Estados Unidos y en Europa.
  175. Así que hay un vacío legal por llenar.

  176. Mi compañera la doctora Mary Anne Franks
    y yo trabajamos con legisladores de EE.UU.
  177. para crear leyes que prohíban
    las suplantaciones digitales dañinas
  178. equivalentes a la suplantación
    de identidad.
  179. Y hemos visto los mismos movimientos
  180. en Islandia, Reino Unido y Australia.
  181. Pero por supuesto, esto es solo
    una gota en el mar.
  182. Sé que la ley no es el remedio universal.

  183. Es un instrumento contundente.
  184. Y tenemos que usarlo con cabeza.
  185. También tiene algunos
    impedimentos prácticos.
  186. No se puede sancionar a alguien si no
    se lo puede identificar ni encontrar.
  187. Y si el infractor vive en otro país
  188. diferente al de la víctima
  189. quizás no se le pueda exigir
  190. al infractor que acceda a cumplir las leyes
  191. de su país.
  192. Así que necesitaremos una respuesta
    internacional coordinada.
  193. La educación tiene que ser también
    parte de nuestra respuesta.
  194. Las fuerzas del orden
    no van a imponer leyes
  195. que no conozcan
  196. y juzgar problemas que no entiendan.
  197. En mi investigación sobre el ciberacoso
  198. he descubierto que el poder judicial
    carece de experiencia
  199. para entender las leyes
  200. y el problema del acoso online.
  201. Y muy a menudo le dicen a las víctimas
  202. "Simplemente apaga la computadora.
    Ignóralo. Ya pasará".
  203. Y eso se ve en el caso de Rana Ayyub.
  204. Le dijeron "Estás haciendo
    una montaña de un grano de arena.
  205. Son solo niños siendo niños".
  206. Así que tenemos que unir la nueva
    legislación con la experiencia.
  207. Y los medios de comunicación
    tienen que animar a la educación.

  208. Los periodistas necesitan instruirse
    en el fenómeno de deepfakes
  209. para que no aumenten ni se difundan.
  210. Y aquí todos estamos involucrados.
  211. Cada uno de nosotros necesita educación.
  212. Hacemos clic, compartimos, damos me gusta
    sin pensar en ello.
  213. Necesitamos hacerlo mejor.
  214. Necesitamos un radar más rápido
    y mejor contra la falsificación.
  215. Así que mientras trabajamos
    en estas soluciones

  216. habrá bastante sufrimiento.
  217. Rana Ayyub sigue lidiando
    con los efectos secundarios.
  218. Aún no se siente libre
    de expresarse online y offline.
  219. Y ella me ha dicho
  220. que aún se siente como si miles de ojos
    mirasen su cuerpo desnudo
  221. sabiendo perfectamente
    que no es su cuerpo.
  222. Y sufre frecuentes ataques de pánico
  223. en concreto cuando alguien que no conoce
    intenta tomarle una foto.
  224. "¿Y si van a hacer otro deepfake?"
    es lo que piensa.
  225. Así que por personas como Rana Ayyub
  226. y por la democracia
  227. tenemos que hacer algo ahora mismo.
  228. Gracias.

  229. (Aplausos)