[Esta charla tiene contenido adulto]
Rana Ayyub es periodista en India
y ha destapado casos
de corrupción del gobierno
y violaciones de los derechos humanos.
Con los años
se acostumbró a la fuerte crítica
y a la polémica de su trabajo.
Pero nada podría haberla preparado
para lo que enfrentó en abril de 2018.
Ella estaba en una cafetería con una amiga
la primera vez que lo vio.
Un vídeo de 2 minutos y 20 segundos
de ella en un acto sexual.
Y ella no se lo podía creer.
Ella nunca había hecho un vídeo sexual.
Pero por desgracia
miles y miles de personas
creerían que era ella.
Entrevisté a Ayyub hace tres meses
en relación con mi libro
de privacidad sexual.
Soy catedrática en Derecho, abogada
y defensora de los derechos civiles,
así que es frustra mucho
saber que ahora mismo
la ley podría hacer muy poco
para ayudarla.
Y mientras hablábamos
me explicó que nunca vio venir
el falso vídeo sexual.
Dijo "el sexo se usa muchas veces para
menospreciar y avergonzar a las mujeres
en particular a las mujeres minoritarias
y sobre todo a las que se atreven
a desafiar a hombres poderosos",
como los de su trabajo.
El vídeo se hizo viral en 48 horas.
Todas sus redes sociales
se llenaron de capturas del vídeo
con amenazas de violación
y amenazas de muerte
insultando su fe musulmana.
Había publicaciones online que insinuaban
que ella estaba "disponible" para sexo.
Revelaron su información personal,
es decir, su dirección
y su número de teléfono
se difundió por Internet.
El vídeo se compartió más de 40 000 veces.
Cuando alguien es el objetivo
de este tipo de ataques de mafias online
la herida es profunda.
La vida de Rana Ayyub
se puso patas arriba.
Durante semanas, apenas podía
comer y hablar.
Dejó de escribir y cerró todas
sus cuentas de las redes sociales,
algo muy duro cuando eres periodista.
Y tenía miedo de salir de su casa.
¿Y si cumplían con las amenazas?
El Consejo de Derechos Humanos de la ONU
afirmó que no estaba loca.
Publicó una declaración que decía
que estaban preocupados por su seguridad.
Rana Ayyub se enfrentaba a un deepfake:
Tecnología de aprendizaje automático
que manipula o fabrica audio y vídeos
que muestran personas
diciendo o haciendo cosas
que nunca han dicho o hecho.
Los deepfakes parecen auténticos
y realistas, pero no lo son;
son mentiras absolutas.
Si bien es una tecnología en desarrollo,
es de fácil acceso.
Y como tantas cosas en Internet,
los deepfakes llaman ahora la atención
por la pornografía.
A principios del 2018
alguien publicó una herramienta en Reddit
que permitía a los usuarios
insertar caras en vídeos porno.
A esto le siguió una lluvia de
falsos vídeos porno protagonizados
por las celebridades
favoritas de las personas.
Y hoy en YouTube se pueden encontrar
infinitos tutoriales
con instrucciones que enseñan paso a paso
a hacer un deepfake en tu computadora.
Y quizás pronto podamos hacerlos
en nuestros móviles.
Ahora, la interacción de algunas de
nuestras debilidades humanas más básicas
con las herramientas de la red
pueden convertir estos vídeos en armas.
Les explicaré.
Los seres humanos tenemos una respuesta
instintiva a los audios y vídeos.
Creemos que son verdad
ya que pensamos que
obviamente podemos creer
lo que dicen los ojos y los oídos.
Y este mecanismo
puede debilitar
nuestro sentido de la realidad.
Aunque creamos que los deepfakes
son verdad, no lo son.
Nos atrae lo lascivo, lo provocativo.
Tendemos a creer y compartir información
negativa y novedosa.
Los expertos dicen que online las falacias
se difunden diez veces más rápido
que las historias verídicas.
Además, nos atrae la información
más afín a nuestro punto de vista.
Los psicólogos llaman a esta tendencia
"sesgo de confirmación".
Y las redes sociales
sobrecargan esta tendencia
al permitirnos compartir información
afín a nuestra idea
de una manera amplia e instantánea.
Pero los deepfakes tienen la posibilidad
de causar un gran daño individual y social.
Imaginen uno que muestre
a los soldados estadounidenses
quemando un Corán en Afganistán.
Podemos imaginar que este vídeo
puede causar violencia
contra esos soldados.
¿Y si justo al día siguiente
aparece otro deepfake
que muestra a un conocido imán de Londres
instando a atacar a esos soldados?
Veríamos violencia y disturbios civiles.
no solo en Afganistán y en Reino Unido
sino en todo el mundo.
Podrán decirme
"Ya, Danielle, qué rebuscado".
Pero no lo es.
Hemos visto difusiones de mentiras
por WhatsApp y por otros
servicios de mensajería online
que han llevado a la violencia
contra las minorías étnicas.
Y solo era un texto.
Imaginen si fuese un vídeo.
Los deepfakes tienen el potencial
de corroer la confianza
que tenemos en
las instituciones democráticas.
Imaginen la noche de antes
de unas elecciones.
Un deepfake muestra a uno de
los candidatos de un partido principal
muy enfermo.
El vídeo podría modificar las elecciones
y cambiar nuestra opinión
sobre la validez de las elecciones.
Imaginen si la noche anterior
a una oferta pública de venta
de un gran banco mundial
hubiese un deepfake
mostrando al director ejecutivo
hablando borracho
sobre teorías conspirativas.
El vídeo podría hundir la venta
y peor, cambiar nuestra opinión sobre
la estabilidad del mercado financiero.
Los deepfakes pueden aprovecharse
para aumentar la gran desconfianza
que ya tenemos en los políticos,
líderes de empresas y otros influyentes.
Encuentran a un público
listo para creérselos.
La búsqueda de la verdad
también está en peligro.
Expertos en tecnología creen
que con los avances
de Inteligencia Artificial
pronto será casi imposible diferenciar
un vídeo real de uno falso.
¿Cómo podría emerger la verdad
en un mercado lleno de deepfakes?
Si seguimos por el camino
de no poner resistencia
creyendo lo que queramos creer
¿será el fin de la verdad?
Quizás no solo creamos lo falso,
quizás pongamos en duda la verdad.
Ya hemos visto a personas
que usan este fenómeno de deepfakes
para cuestionar la evidencia
tangible de sus acciones.
Hemos oído a políticos decir
sobre audios de comentarios alarmantes
"Son noticias falsas.
No podemos creer los que nos dicen
nuestros ojos y oídos".
El profesor Robert Chesney y yo
llamamos a este peligro
"recompensa del mentiroso"
El temor de que los mentirosos
usen deepfakes
para escapar de la culpabilidad del delito.
Tenemos mucho trabajo por delante,
de eso no hay duda.
Vamos a necesitar una solución proactiva
de parte de empresas tecnológicas,
legisladores,
poder judicial y medios de comunicación.
Necesitaremos una dosis saludable
de resistencia social.
Así que ahora estamos inmersos
en una conversación muy pública
sobre las responsabilidades
de las empresas tecnológicas,
mi consejo para las redes sociales
es que cambien sus términos de uso
y las normas comunitarias
para prohibir deepfakes dañinos.
Esta resolución requerirá el juicio humano
y será costoso.
Pero necesitamos supervisión humana
del contenido y el contexto
de un deepfake
para ver si es una imitación perjudicial
o si tiene un valor satírico,
artístico o educativo.
Y, ¿qué pasa con la ley?
Debemos aprender de la ley.
Nos enseña qué es perjudicial
y qué es incorrecto.
Reprime comportamientos prohibidos
castigando a los responsables
y cuidando a las víctimas.
Ahora mismo la ley no está preparada
para el desafío de los deepfakes.
En todo el mundo
necesitamos leyes hechas a medida
diseñadas para destruir
las suplantaciones digitales
que invaden la privacidad sexual,
que dañan reputaciones
y causan perjuicio emocional.
Lo que le ocurrió a Rana Ayyub
cada vez es más común.
Incluso cuando fue a la policía
en Delhi
le dijeron que no podía hacer nada.
Y es triste pero verdad
que ocurriría lo mismo
en Estados Unidos y en Europa.
Así que hay un vacío legal por llenar.
Mi compañera la doctora Mary Anne Franks
y yo trabajamos con legisladores de EE.UU.
para crear leyes que prohíban
las suplantaciones digitales dañinas
equivalentes a la suplantación
de identidad.
Y hemos visto los mismos movimientos
en Islandia, Reino Unido y Australia.
Pero por supuesto, esto es solo
una gota en el mar.
Sé que la ley no es el remedio universal.
Es un instrumento contundente.
Y tenemos que usarlo con cabeza.
También tiene algunos
impedimentos prácticos.
No se puede sancionar a alguien si no
se lo puede identificar ni encontrar.
Y si el infractor vive en otro país
diferente al de la víctima
quizás no se le pueda exigir
al infractor que acceda a cumplir las leyes
de su país.
Así que necesitaremos una respuesta
internacional coordinada.
La educación tiene que ser también
parte de nuestra respuesta.
Las fuerzas del orden
no van a imponer leyes
que no conozcan
y juzgar problemas que no entiendan.
En mi investigación sobre el ciberacoso
he descubierto que el poder judicial
carece de experiencia
para entender las leyes
y el problema del acoso online.
Y muy a menudo le dicen a las víctimas
"Simplemente apaga la computadora.
Ignóralo. Ya pasará".
Y eso se ve en el caso de Rana Ayyub.
Le dijeron "Estás haciendo
una montaña de un grano de arena.
Son solo niños siendo niños".
Así que tenemos que unir la nueva
legislación con la experiencia.
Y los medios de comunicación
tienen que animar a la educación.
Los periodistas necesitan instruirse
en el fenómeno de deepfakes
para que no aumenten ni se difundan.
Y aquí todos estamos involucrados.
Cada uno de nosotros necesita educación.
Hacemos clic, compartimos, damos me gusta
sin pensar en ello.
Necesitamos hacerlo mejor.
Necesitamos un radar más rápido
y mejor contra la falsificación.
Así que mientras trabajamos
en estas soluciones
habrá bastante sufrimiento.
Rana Ayyub sigue lidiando
con los efectos secundarios.
Aún no se siente libre
de expresarse online y offline.
Y ella me ha dicho
que aún se siente como si miles de ojos
mirasen su cuerpo desnudo
sabiendo perfectamente
que no es su cuerpo.
Y sufre frecuentes ataques de pánico
en concreto cuando alguien que no conoce
intenta tomarle una foto.
"¿Y si van a hacer otro deepfake?"
es lo que piensa.
Así que por personas como Rana Ayyub
y por la democracia
tenemos que hacer algo ahora mismo.
Gracias.
(Aplausos)