Return to Video

Deepkfakes: Cómo ponen en peligro la verdad y la democracia

  • 0:01 - 0:03
    [Esta charla tiene contenido adulto]
  • 0:06 - 0:09
    Rana Ayyub es periodista en India
  • 0:09 - 0:11
    y ha destapado casos
    de corrupción del gobierno
  • 0:12 - 0:15
    y violaciones de los derechos humanos.
  • 0:15 - 0:16
    Con los años
  • 0:16 - 0:19
    se acostumbró a la fuerte crítica
    y a la polémica de su trabajo.
  • 0:20 - 0:25
    Pero nada podría haberla preparado
    para lo que enfrentó en abril de 2018.
  • 0:26 - 0:30
    Ella estaba en una cafetería con una amiga
    la primera vez que lo vio.
  • 0:30 - 0:35
    Un vídeo de 2 minutos y 20 segundos
    de ella en un acto sexual.
  • 0:35 - 0:38
    Y ella no se lo podía creer.
  • 0:38 - 0:40
    Ella nunca había hecho un vídeo sexual.
  • 0:41 - 0:44
    Pero por desgracia
    miles y miles de personas
  • 0:44 - 0:46
    creerían que era ella.
  • 0:47 - 0:50
    Entrevisté a Ayyub hace tres meses
  • 0:50 - 0:52
    en relación con mi libro
    de privacidad sexual.
  • 0:53 - 0:56
    Soy catedrática en Derecho, abogada
    y defensora de los derechos civiles,
  • 0:56 - 1:01
    así que es frustra mucho
    saber que ahora mismo
  • 1:01 - 1:03
    la ley podría hacer muy poco
    para ayudarla.
  • 1:03 - 1:05
    Y mientras hablábamos
  • 1:05 - 1:10
    me explicó que nunca vio venir
    el falso vídeo sexual.
  • 1:10 - 1:16
    Dijo "el sexo se usa muchas veces para
    menospreciar y avergonzar a las mujeres
  • 1:16 - 1:18
    en particular a las mujeres minoritarias
  • 1:18 - 1:22
    y sobre todo a las que se atreven
    a desafiar a hombres poderosos",
  • 1:22 - 1:24
    como los de su trabajo.
  • 1:25 - 1:29
    El vídeo se hizo viral en 48 horas.
  • 1:30 - 1:35
    Todas sus redes sociales
    se llenaron de capturas del vídeo
  • 1:35 - 1:38
    con amenazas de violación
    y amenazas de muerte
  • 1:38 - 1:41
    insultando su fe musulmana.
  • 1:41 - 1:46
    Había publicaciones online que insinuaban
    que ella estaba "disponible" para sexo.
  • 1:46 - 1:48
    Revelaron su información personal,
  • 1:48 - 1:50
    es decir, su dirección
    y su número de teléfono
  • 1:50 - 1:52
    se difundió por Internet.
  • 1:53 - 1:57
    El vídeo se compartió más de 40 000 veces.
  • 1:58 - 2:02
    Cuando alguien es el objetivo
    de este tipo de ataques de mafias online
  • 2:02 - 2:04
    la herida es profunda.
  • 2:04 - 2:08
    La vida de Rana Ayyub
    se puso patas arriba.
  • 2:08 - 2:12
    Durante semanas, apenas podía
    comer y hablar.
  • 2:12 - 2:16
    Dejó de escribir y cerró todas
    sus cuentas de las redes sociales,
  • 2:16 - 2:19
    algo muy duro cuando eres periodista.
  • 2:19 - 2:23
    Y tenía miedo de salir de su casa.
  • 2:23 - 2:26
    ¿Y si cumplían con las amenazas?
  • 2:26 - 2:31
    El Consejo de Derechos Humanos de la ONU
    afirmó que no estaba loca.
  • 2:31 - 2:35
    Publicó una declaración que decía
    que estaban preocupados por su seguridad.
  • 2:37 - 2:41
    Rana Ayyub se enfrentaba a un deepfake:
  • 2:41 - 2:44
    Tecnología de aprendizaje automático
  • 2:44 - 2:48
    que manipula o fabrica audio y vídeos
  • 2:48 - 2:50
    que muestran personas
    diciendo o haciendo cosas
  • 2:50 - 2:52
    que nunca han dicho o hecho.
  • 2:53 - 2:56
    Los deepfakes parecen auténticos
    y realistas, pero no lo son;
  • 2:56 - 2:58
    son mentiras absolutas.
  • 2:59 - 3:03
    Si bien es una tecnología en desarrollo,
  • 3:03 - 3:05
    es de fácil acceso.
  • 3:05 - 3:08
    Y como tantas cosas en Internet,
  • 3:08 - 3:11
    los deepfakes llaman ahora la atención
  • 3:11 - 3:12
    por la pornografía.
  • 3:12 - 3:15
    A principios del 2018
  • 3:15 - 3:17
    alguien publicó una herramienta en Reddit
  • 3:17 - 3:22
    que permitía a los usuarios
    insertar caras en vídeos porno.
  • 3:22 - 3:25
    A esto le siguió una lluvia de
    falsos vídeos porno protagonizados
  • 3:25 - 3:28
    por las celebridades
    favoritas de las personas.
  • 3:29 - 3:32
    Y hoy en YouTube se pueden encontrar
    infinitos tutoriales
  • 3:32 - 3:34
    con instrucciones que enseñan paso a paso
  • 3:35 - 3:38
    a hacer un deepfake en tu computadora.
  • 3:38 - 3:42
    Y quizás pronto podamos hacerlos
    en nuestros móviles.
  • 3:43 - 3:48
    Ahora, la interacción de algunas de
    nuestras debilidades humanas más básicas
  • 3:48 - 3:50
    con las herramientas de la red
  • 3:50 - 3:53
    pueden convertir estos vídeos en armas.
  • 3:53 - 3:54
    Les explicaré.
  • 3:55 - 3:59
    Los seres humanos tenemos una respuesta
    instintiva a los audios y vídeos.
  • 4:00 - 4:01
    Creemos que son verdad
  • 4:01 - 4:03
    ya que pensamos que
    obviamente podemos creer
  • 4:03 - 4:06
    lo que dicen los ojos y los oídos.
  • 4:06 - 4:08
    Y este mecanismo
  • 4:08 - 4:12
    puede debilitar
    nuestro sentido de la realidad.
  • 4:12 - 4:15
    Aunque creamos que los deepfakes
    son verdad, no lo son.
  • 4:16 - 4:20
    Nos atrae lo lascivo, lo provocativo.
  • 4:20 - 4:23
    Tendemos a creer y compartir información
  • 4:23 - 4:25
    negativa y novedosa.
  • 4:26 - 4:31
    Los expertos dicen que online las falacias
    se difunden diez veces más rápido
  • 4:31 - 4:32
    que las historias verídicas.
  • 4:34 - 4:38
    Además, nos atrae la información
  • 4:38 - 4:40
    más afín a nuestro punto de vista.
  • 4:41 - 4:45
    Los psicólogos llaman a esta tendencia
    "sesgo de confirmación".
  • 4:45 - 4:50
    Y las redes sociales
    sobrecargan esta tendencia
  • 4:50 - 4:54
    al permitirnos compartir información
    afín a nuestra idea
  • 4:54 - 4:55
    de una manera amplia e instantánea.
  • 4:57 - 5:02
    Pero los deepfakes tienen la posibilidad
    de causar un gran daño individual y social.
  • 5:03 - 5:05
    Imaginen uno que muestre
  • 5:05 - 5:09
    a los soldados estadounidenses
    quemando un Corán en Afganistán.
  • 5:11 - 5:14
    Podemos imaginar que este vídeo
    puede causar violencia
  • 5:14 - 5:15
    contra esos soldados.
  • 5:16 - 5:19
    ¿Y si justo al día siguiente
  • 5:19 - 5:21
    aparece otro deepfake
  • 5:21 - 5:24
    que muestra a un conocido imán de Londres
  • 5:24 - 5:27
    instando a atacar a esos soldados?
  • 5:28 - 5:31
    Veríamos violencia y disturbios civiles.
  • 5:31 - 5:34
    no solo en Afganistán y en Reino Unido
  • 5:34 - 5:36
    sino en todo el mundo.
  • 5:36 - 5:37
    Podrán decirme
  • 5:37 - 5:40
    "Ya, Danielle, qué rebuscado".
  • 5:40 - 5:41
    Pero no lo es.
  • 5:41 - 5:43
    Hemos visto difusiones de mentiras
  • 5:44 - 5:46
    por WhatsApp y por otros
    servicios de mensajería online
  • 5:46 - 5:49
    que han llevado a la violencia
    contra las minorías étnicas.
  • 5:49 - 5:51
    Y solo era un texto.
  • 5:51 - 5:53
    Imaginen si fuese un vídeo.
  • 5:55 - 5:59
    Los deepfakes tienen el potencial
    de corroer la confianza
  • 5:59 - 6:02
    que tenemos en
    las instituciones democráticas.
  • 6:03 - 6:06
    Imaginen la noche de antes
    de unas elecciones.
  • 6:06 - 6:09
    Un deepfake muestra a uno de
    los candidatos de un partido principal
  • 6:09 - 6:10
    muy enfermo.
  • 6:11 - 6:14
    El vídeo podría modificar las elecciones
  • 6:14 - 6:17
    y cambiar nuestra opinión
    sobre la validez de las elecciones.
  • 6:19 - 6:22
    Imaginen si la noche anterior
    a una oferta pública de venta
  • 6:22 - 6:24
    de un gran banco mundial
  • 6:24 - 6:27
    hubiese un deepfake
    mostrando al director ejecutivo
  • 6:27 - 6:30
    hablando borracho
    sobre teorías conspirativas.
  • 6:31 - 6:34
    El vídeo podría hundir la venta
  • 6:34 - 6:38
    y peor, cambiar nuestra opinión sobre
    la estabilidad del mercado financiero.
  • 6:39 - 6:45
    Los deepfakes pueden aprovecharse
    para aumentar la gran desconfianza
  • 6:45 - 6:51
    que ya tenemos en los políticos,
    líderes de empresas y otros influyentes.
  • 6:51 - 6:54
    Encuentran a un público
    listo para creérselos.
  • 6:55 - 6:58
    La búsqueda de la verdad
    también está en peligro.
  • 6:59 - 7:03
    Expertos en tecnología creen
  • 7:03 - 7:06
    que con los avances
    de Inteligencia Artificial
  • 7:06 - 7:10
    pronto será casi imposible diferenciar
    un vídeo real de uno falso.
  • 7:11 - 7:16
    ¿Cómo podría emerger la verdad
    en un mercado lleno de deepfakes?
  • 7:17 - 7:20
    Si seguimos por el camino
    de no poner resistencia
  • 7:20 - 7:23
    creyendo lo que queramos creer
  • 7:23 - 7:24
    ¿será el fin de la verdad?
  • 7:25 - 7:28
    Quizás no solo creamos lo falso,
  • 7:28 - 7:31
    quizás pongamos en duda la verdad.
  • 7:32 - 7:36
    Ya hemos visto a personas
    que usan este fenómeno de deepfakes
  • 7:36 - 7:40
    para cuestionar la evidencia
    tangible de sus acciones.
  • 7:40 - 7:46
    Hemos oído a políticos decir
    sobre audios de comentarios alarmantes
  • 7:46 - 7:48
    "Son noticias falsas.
  • 7:48 - 7:52
    No podemos creer los que nos dicen
    nuestros ojos y oídos".
  • 7:52 - 7:54
    El profesor Robert Chesney y yo
  • 7:54 - 8:00
    llamamos a este peligro
    "recompensa del mentiroso"
  • 8:00 - 8:03
    El temor de que los mentirosos
    usen deepfakes
  • 8:03 - 8:06
    para escapar de la culpabilidad del delito.
  • 8:07 - 8:10
    Tenemos mucho trabajo por delante,
    de eso no hay duda.
  • 8:11 - 8:14
    Vamos a necesitar una solución proactiva
  • 8:14 - 8:17
    de parte de empresas tecnológicas,
    legisladores,
  • 8:17 - 8:19
    poder judicial y medios de comunicación.
  • 8:20 - 8:24
    Necesitaremos una dosis saludable
    de resistencia social.
  • 8:26 - 8:29
    Así que ahora estamos inmersos
    en una conversación muy pública
  • 8:29 - 8:32
    sobre las responsabilidades
    de las empresas tecnológicas,
  • 8:33 - 8:36
    mi consejo para las redes sociales
  • 8:36 - 8:40
    es que cambien sus términos de uso
    y las normas comunitarias
  • 8:40 - 8:42
    para prohibir deepfakes dañinos.
  • 8:43 - 8:47
    Esta resolución requerirá el juicio humano
  • 8:47 - 8:48
    y será costoso.
  • 8:49 - 8:51
    Pero necesitamos supervisión humana
  • 8:51 - 8:55
    del contenido y el contexto
    de un deepfake
  • 8:55 - 8:59
    para ver si es una imitación perjudicial
  • 8:59 - 9:03
    o si tiene un valor satírico,
    artístico o educativo.
  • 9:04 - 9:06
    Y, ¿qué pasa con la ley?
  • 9:07 - 9:09
    Debemos aprender de la ley.
  • 9:10 - 9:14
    Nos enseña qué es perjudicial
    y qué es incorrecto.
  • 9:14 - 9:18
    Reprime comportamientos prohibidos
    castigando a los responsables
  • 9:18 - 9:20
    y cuidando a las víctimas.
  • 9:21 - 9:25
    Ahora mismo la ley no está preparada
    para el desafío de los deepfakes.
  • 9:26 - 9:28
    En todo el mundo
  • 9:28 - 9:30
    necesitamos leyes hechas a medida
  • 9:30 - 9:34
    diseñadas para destruir
    las suplantaciones digitales
  • 9:34 - 9:36
    que invaden la privacidad sexual,
  • 9:36 - 9:37
    que dañan reputaciones
  • 9:37 - 9:39
    y causan perjuicio emocional.
  • 9:40 - 9:44
    Lo que le ocurrió a Rana Ayyub
    cada vez es más común.
  • 9:44 - 9:46
    Incluso cuando fue a la policía
    en Delhi
  • 9:46 - 9:48
    le dijeron que no podía hacer nada.
  • 9:49 - 9:52
    Y es triste pero verdad
    que ocurriría lo mismo
  • 9:52 - 9:55
    en Estados Unidos y en Europa.
  • 9:55 - 10:00
    Así que hay un vacío legal por llenar.
  • 10:00 - 10:04
    Mi compañera la doctora Mary Anne Franks
    y yo trabajamos con legisladores de EE.UU.
  • 10:04 - 10:09
    para crear leyes que prohíban
    las suplantaciones digitales dañinas
  • 10:09 - 10:12
    equivalentes a la suplantación
    de identidad.
  • 10:12 - 10:14
    Y hemos visto los mismos movimientos
  • 10:14 - 10:18
    en Islandia, Reino Unido y Australia.
  • 10:18 - 10:21
    Pero por supuesto, esto es solo
    una gota en el mar.
  • 10:23 - 10:26
    Sé que la ley no es el remedio universal.
  • 10:26 - 10:28
    Es un instrumento contundente.
  • 10:28 - 10:30
    Y tenemos que usarlo con cabeza.
  • 10:30 - 10:33
    También tiene algunos
    impedimentos prácticos.
  • 10:34 - 10:39
    No se puede sancionar a alguien si no
    se lo puede identificar ni encontrar.
  • 10:39 - 10:43
    Y si el infractor vive en otro país
  • 10:43 - 10:45
    diferente al de la víctima
  • 10:45 - 10:46
    quizás no se le pueda exigir
  • 10:46 - 10:49
    al infractor que acceda a cumplir las leyes
  • 10:49 - 10:50
    de su país.
  • 10:50 - 10:54
    Así que necesitaremos una respuesta
    internacional coordinada.
  • 10:56 - 10:59
    La educación tiene que ser también
    parte de nuestra respuesta.
  • 11:00 - 11:04
    Las fuerzas del orden
    no van a imponer leyes
  • 11:04 - 11:05
    que no conozcan
  • 11:05 - 11:08
    y juzgar problemas que no entiendan.
  • 11:08 - 11:11
    En mi investigación sobre el ciberacoso
  • 11:11 - 11:14
    he descubierto que el poder judicial
    carece de experiencia
  • 11:14 - 11:17
    para entender las leyes
  • 11:17 - 11:19
    y el problema del acoso online.
  • 11:19 - 11:22
    Y muy a menudo le dicen a las víctimas
  • 11:22 - 11:26
    "Simplemente apaga la computadora.
    Ignóralo. Ya pasará".
  • 11:26 - 11:29
    Y eso se ve en el caso de Rana Ayyub.
  • 11:29 - 11:33
    Le dijeron "Estás haciendo
    una montaña de un grano de arena.
  • 11:33 - 11:34
    Son solo niños siendo niños".
  • 11:35 - 11:41
    Así que tenemos que unir la nueva
    legislación con la experiencia.
  • 11:42 - 11:45
    Y los medios de comunicación
    tienen que animar a la educación.
  • 11:46 - 11:50
    Los periodistas necesitan instruirse
    en el fenómeno de deepfakes
  • 11:50 - 11:54
    para que no aumenten ni se difundan.
  • 11:55 - 11:57
    Y aquí todos estamos involucrados.
  • 11:57 - 12:01
    Cada uno de nosotros necesita educación.
  • 12:01 - 12:05
    Hacemos clic, compartimos, damos me gusta
    sin pensar en ello.
  • 12:06 - 12:07
    Necesitamos hacerlo mejor.
  • 12:08 - 12:11
    Necesitamos un radar más rápido
    y mejor contra la falsificación.
  • 12:14 - 12:18
    Así que mientras trabajamos
    en estas soluciones
  • 12:18 - 12:20
    habrá bastante sufrimiento.
  • 12:21 - 12:24
    Rana Ayyub sigue lidiando
    con los efectos secundarios.
  • 12:25 - 12:29
    Aún no se siente libre
    de expresarse online y offline.
  • 12:30 - 12:31
    Y ella me ha dicho
  • 12:31 - 12:36
    que aún se siente como si miles de ojos
    mirasen su cuerpo desnudo
  • 12:36 - 12:40
    sabiendo perfectamente
    que no es su cuerpo.
  • 12:40 - 12:43
    Y sufre frecuentes ataques de pánico
  • 12:43 - 12:47
    en concreto cuando alguien que no conoce
    intenta tomarle una foto.
  • 12:47 - 12:50
    "¿Y si van a hacer otro deepfake?"
    es lo que piensa.
  • 12:51 - 12:55
    Así que por personas como Rana Ayyub
  • 12:55 - 12:57
    y por la democracia
  • 12:57 - 13:00
    tenemos que hacer algo ahora mismo.
  • 13:00 - 13:01
    Gracias.
  • 13:01 - 13:03
    (Aplausos)
Title:
Deepkfakes: Cómo ponen en peligro la verdad y la democracia
Speaker:
Danielle Citronp
Description:

El uso de la tecnología "deepfake" se está convirtiendo en una verdadera amenaza. Se manipulan vídeos y audios con propósitos dañinos: avivar la violencia o desprestigiar a políticos y periodistas. ¿Cómo limitarán estas herramientas cada vez más accesibles lo que creemos del mundo? En esta singular charla, la profesora y catedrática de derecho Danielle Citron desvela cómo los deepfakes aumentan nuestra desconfianza y sugiere estrategias para proteger la verdad.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Spanish subtitles

Revisions