[Esta charla tiene contenido adulto] Rana Ayyub es periodista en India y ha destapado casos de corrupción del gobierno y violaciones de los derechos humanos. Con los años se acostumbró a la fuerte crítica y a la polémica de su trabajo. Pero nada podría haberla preparado para lo que enfrentó en abril de 2018. Ella estaba en una cafetería con una amiga la primera vez que lo vio. Un vídeo de 2 minutos y 20 segundos de ella en un acto sexual. Y ella no se lo podía creer. Ella nunca había hecho un vídeo sexual. Pero por desgracia miles y miles de personas creerían que era ella. Entrevisté a Ayyub hace tres meses en relación con mi libro de privacidad sexual. Soy catedrática en Derecho, abogada y defensora de los derechos civiles, así que es frustra mucho saber que ahora mismo la ley podría hacer muy poco para ayudarla. Y mientras hablábamos me explicó que nunca vio venir el falso vídeo sexual. Dijo "el sexo se usa muchas veces para menospreciar y avergonzar a las mujeres en particular a las mujeres minoritarias y sobre todo a las que se atreven a desafiar a hombres poderosos", como los de su trabajo. El vídeo se hizo viral en 48 horas. Todas sus redes sociales se llenaron de capturas del vídeo con amenazas de violación y amenazas de muerte insultando su fe musulmana. Había publicaciones online que insinuaban que ella estaba "disponible" para sexo. Revelaron su información personal, es decir, su dirección y su número de teléfono se difundió por Internet. El vídeo se compartió más de 40 000 veces. Cuando alguien es el objetivo de este tipo de ataques de mafias online la herida es profunda. La vida de Rana Ayyub se puso patas arriba. Durante semanas, apenas podía comer y hablar. Dejó de escribir y cerró todas sus cuentas de las redes sociales, algo muy duro cuando eres periodista. Y tenía miedo de salir de su casa. ¿Y si cumplían con las amenazas? El Consejo de Derechos Humanos de la ONU afirmó que no estaba loca. Publicó una declaración que decía que estaban preocupados por su seguridad. Rana Ayyub se enfrentaba a un deepfake: Tecnología de aprendizaje automático que manipula o fabrica audio y vídeos que muestran personas diciendo o haciendo cosas que nunca han dicho o hecho. Los deepfakes parecen auténticos y realistas, pero no lo son; son mentiras absolutas. Si bien es una tecnología en desarrollo, es de fácil acceso. Y como tantas cosas en Internet, los deepfakes llaman ahora la atención por la pornografía. A principios del 2018 alguien publicó una herramienta en Reddit que permitía a los usuarios insertar caras en vídeos porno. A esto le siguió una lluvia de falsos vídeos porno protagonizados por las celebridades favoritas de las personas. Y hoy en YouTube se pueden encontrar infinitos tutoriales con instrucciones que enseñan paso a paso a hacer un deepfake en tu computadora. Y quizás pronto podamos hacerlos en nuestros móviles. Ahora, la interacción de algunas de nuestras debilidades humanas más básicas con las herramientas de la red pueden convertir estos vídeos en armas. Les explicaré. Los seres humanos tenemos una respuesta instintiva a los audios y vídeos. Creemos que son verdad ya que pensamos que obviamente podemos creer lo que dicen los ojos y los oídos. Y este mecanismo puede debilitar nuestro sentido de la realidad. Aunque creamos que los deepfakes son verdad, no lo son. Nos atrae lo lascivo, lo provocativo. Tendemos a creer y compartir información negativa y novedosa. Los expertos dicen que online las falacias se difunden diez veces más rápido que las historias verídicas. Además, nos atrae la información más afín a nuestro punto de vista. Los psicólogos llaman a esta tendencia "sesgo de confirmación". Y las redes sociales sobrecargan esta tendencia al permitirnos compartir información afín a nuestra idea de una manera amplia e instantánea. Pero los deepfakes tienen la posibilidad de causar un gran daño individual y social. Imaginen uno que muestre a los soldados estadounidenses quemando un Corán en Afganistán. Podemos imaginar que este vídeo puede causar violencia contra esos soldados. ¿Y si justo al día siguiente aparece otro deepfake que muestra a un conocido imán de Londres instando a atacar a esos soldados? Veríamos violencia y disturbios civiles. no solo en Afganistán y en Reino Unido sino en todo el mundo. Podrán decirme "Ya, Danielle, qué rebuscado". Pero no lo es. Hemos visto difusiones de mentiras por WhatsApp y por otros servicios de mensajería online que han llevado a la violencia contra las minorías étnicas. Y solo era un texto. Imaginen si fuese un vídeo. Los deepfakes tienen el potencial de corroer la confianza que tenemos en las instituciones democráticas. Imaginen la noche de antes de unas elecciones. Un deepfake muestra a uno de los candidatos de un partido principal muy enfermo. El vídeo podría modificar las elecciones y cambiar nuestra opinión sobre la validez de las elecciones. Imaginen si la noche anterior a una oferta pública de venta de un gran banco mundial hubiese un deepfake mostrando al director ejecutivo hablando borracho sobre teorías conspirativas. El vídeo podría hundir la venta y peor, cambiar nuestra opinión sobre la estabilidad del mercado financiero. Los deepfakes pueden aprovecharse para aumentar la gran desconfianza que ya tenemos en los políticos, líderes de empresas y otros influyentes. Encuentran a un público listo para creérselos. La búsqueda de la verdad también está en peligro. Expertos en tecnología creen que con los avances de Inteligencia Artificial pronto será casi imposible diferenciar un vídeo real de uno falso. ¿Cómo podría emerger la verdad en un mercado lleno de deepfakes? Si seguimos por el camino de no poner resistencia creyendo lo que queramos creer ¿será el fin de la verdad? Quizás no solo creamos lo falso, quizás pongamos en duda la verdad. Ya hemos visto a personas que usan este fenómeno de deepfakes para cuestionar la evidencia tangible de sus acciones. Hemos oído a políticos decir sobre audios de comentarios alarmantes "Son noticias falsas. No podemos creer los que nos dicen nuestros ojos y oídos". El profesor Robert Chesney y yo llamamos a este peligro "recompensa del mentiroso" El temor de que los mentirosos usen deepfakes para escapar de la culpabilidad del delito. Tenemos mucho trabajo por delante, de eso no hay duda. Vamos a necesitar una solución proactiva de parte de empresas tecnológicas, legisladores, poder judicial y medios de comunicación. Necesitaremos una dosis saludable de resistencia social. Así que ahora estamos inmersos en una conversación muy pública sobre las responsabilidades de las empresas tecnológicas, mi consejo para las redes sociales es que cambien sus términos de uso y las normas comunitarias para prohibir deepfakes dañinos. Esta resolución requerirá el juicio humano y será costoso. Pero necesitamos supervisión humana del contenido y el contexto de un deepfake para ver si es una imitación perjudicial o si tiene un valor satírico, artístico o educativo. Y, ¿qué pasa con la ley? Debemos aprender de la ley. Nos enseña qué es perjudicial y qué es incorrecto. Reprime comportamientos prohibidos castigando a los responsables y cuidando a las víctimas. Ahora mismo la ley no está preparada para el desafío de los deepfakes. En todo el mundo necesitamos leyes hechas a medida diseñadas para destruir las suplantaciones digitales que invaden la privacidad sexual, que dañan reputaciones y causan perjuicio emocional. Lo que le ocurrió a Rana Ayyub cada vez es más común. Incluso cuando fue a la policía en Delhi le dijeron que no podía hacer nada. Y es triste pero verdad que ocurriría lo mismo en Estados Unidos y en Europa. Así que hay un vacío legal por llenar. Mi compañera la doctora Mary Anne Franks y yo trabajamos con legisladores de EE.UU. para crear leyes que prohíban las suplantaciones digitales dañinas equivalentes a la suplantación de identidad. Y hemos visto los mismos movimientos en Islandia, Reino Unido y Australia. Pero por supuesto, esto es solo una gota en el mar. Sé que la ley no es el remedio universal. Es un instrumento contundente. Y tenemos que usarlo con cabeza. También tiene algunos impedimentos prácticos. No se puede sancionar a alguien si no se lo puede identificar ni encontrar. Y si el infractor vive en otro país diferente al de la víctima quizás no se le pueda exigir al infractor que acceda a cumplir las leyes de su país. Así que necesitaremos una respuesta internacional coordinada. La educación tiene que ser también parte de nuestra respuesta. Las fuerzas del orden no van a imponer leyes que no conozcan y juzgar problemas que no entiendan. En mi investigación sobre el ciberacoso he descubierto que el poder judicial carece de experiencia para entender las leyes y el problema del acoso online. Y muy a menudo le dicen a las víctimas "Simplemente apaga la computadora. Ignóralo. Ya pasará". Y eso se ve en el caso de Rana Ayyub. Le dijeron "Estás haciendo una montaña de un grano de arena. Son solo niños siendo niños". Así que tenemos que unir la nueva legislación con la experiencia. Y los medios de comunicación tienen que animar a la educación. Los periodistas necesitan instruirse en el fenómeno de deepfakes para que no aumenten ni se difundan. Y aquí todos estamos involucrados. Cada uno de nosotros necesita educación. Hacemos clic, compartimos, damos me gusta sin pensar en ello. Necesitamos hacerlo mejor. Necesitamos un radar más rápido y mejor contra la falsificación. Así que mientras trabajamos en estas soluciones habrá bastante sufrimiento. Rana Ayyub sigue lidiando con los efectos secundarios. Aún no se siente libre de expresarse online y offline. Y ella me ha dicho que aún se siente como si miles de ojos mirasen su cuerpo desnudo sabiendo perfectamente que no es su cuerpo. Y sufre frecuentes ataques de pánico en concreto cuando alguien que no conoce intenta tomarle una foto. "¿Y si van a hacer otro deepfake?" es lo que piensa. Así que por personas como Rana Ayyub y por la democracia tenemos que hacer algo ahora mismo. Gracias. (Aplausos)