Deepkfakes: Cómo ponen en peligro la verdad y la democracia
-
0:01 - 0:03[Esta charla tiene contenido adulto]
-
0:06 - 0:09Rana Ayyub es periodista en India
-
0:09 - 0:11y ha destapado casos
de corrupción del gobierno -
0:12 - 0:15y violaciones de los derechos humanos.
-
0:15 - 0:16Con los años
-
0:16 - 0:19se acostumbró a la fuerte crítica
y a la polémica de su trabajo. -
0:20 - 0:25Pero nada podría haberla preparado
para lo que enfrentó en abril de 2018. -
0:26 - 0:30Ella estaba en una cafetería con una amiga
la primera vez que lo vio. -
0:30 - 0:35Un vídeo de 2 minutos y 20 segundos
de ella en un acto sexual. -
0:35 - 0:38Y ella no se lo podía creer.
-
0:38 - 0:40Ella nunca había hecho un vídeo sexual.
-
0:41 - 0:44Pero por desgracia
miles y miles de personas -
0:44 - 0:46creerían que era ella.
-
0:47 - 0:50Entrevisté a Ayyub hace tres meses
-
0:50 - 0:52en relación con mi libro
de privacidad sexual. -
0:53 - 0:56Soy catedrática en Derecho, abogada
y defensora de los derechos civiles, -
0:56 - 1:01así que es frustra mucho
saber que ahora mismo -
1:01 - 1:03la ley podría hacer muy poco
para ayudarla. -
1:03 - 1:05Y mientras hablábamos
-
1:05 - 1:10me explicó que nunca vio venir
el falso vídeo sexual. -
1:10 - 1:16Dijo "el sexo se usa muchas veces para
menospreciar y avergonzar a las mujeres -
1:16 - 1:18en particular a las mujeres minoritarias
-
1:18 - 1:22y sobre todo a las que se atreven
a desafiar a hombres poderosos", -
1:22 - 1:24como los de su trabajo.
-
1:25 - 1:29El vídeo se hizo viral en 48 horas.
-
1:30 - 1:35Todas sus redes sociales
se llenaron de capturas del vídeo -
1:35 - 1:38con amenazas de violación
y amenazas de muerte -
1:38 - 1:41insultando su fe musulmana.
-
1:41 - 1:46Había publicaciones online que insinuaban
que ella estaba "disponible" para sexo. -
1:46 - 1:48Revelaron su información personal,
-
1:48 - 1:50es decir, su dirección
y su número de teléfono -
1:50 - 1:52se difundió por Internet.
-
1:53 - 1:57El vídeo se compartió más de 40 000 veces.
-
1:58 - 2:02Cuando alguien es el objetivo
de este tipo de ataques de mafias online -
2:02 - 2:04la herida es profunda.
-
2:04 - 2:08La vida de Rana Ayyub
se puso patas arriba. -
2:08 - 2:12Durante semanas, apenas podía
comer y hablar. -
2:12 - 2:16Dejó de escribir y cerró todas
sus cuentas de las redes sociales, -
2:16 - 2:19algo muy duro cuando eres periodista.
-
2:19 - 2:23Y tenía miedo de salir de su casa.
-
2:23 - 2:26¿Y si cumplían con las amenazas?
-
2:26 - 2:31El Consejo de Derechos Humanos de la ONU
afirmó que no estaba loca. -
2:31 - 2:35Publicó una declaración que decía
que estaban preocupados por su seguridad. -
2:37 - 2:41Rana Ayyub se enfrentaba a un deepfake:
-
2:41 - 2:44Tecnología de aprendizaje automático
-
2:44 - 2:48que manipula o fabrica audio y vídeos
-
2:48 - 2:50que muestran personas
diciendo o haciendo cosas -
2:50 - 2:52que nunca han dicho o hecho.
-
2:53 - 2:56Los deepfakes parecen auténticos
y realistas, pero no lo son; -
2:56 - 2:58son mentiras absolutas.
-
2:59 - 3:03Si bien es una tecnología en desarrollo,
-
3:03 - 3:05es de fácil acceso.
-
3:05 - 3:08Y como tantas cosas en Internet,
-
3:08 - 3:11los deepfakes llaman ahora la atención
-
3:11 - 3:12por la pornografía.
-
3:12 - 3:15A principios del 2018
-
3:15 - 3:17alguien publicó una herramienta en Reddit
-
3:17 - 3:22que permitía a los usuarios
insertar caras en vídeos porno. -
3:22 - 3:25A esto le siguió una lluvia de
falsos vídeos porno protagonizados -
3:25 - 3:28por las celebridades
favoritas de las personas. -
3:29 - 3:32Y hoy en YouTube se pueden encontrar
infinitos tutoriales -
3:32 - 3:34con instrucciones que enseñan paso a paso
-
3:35 - 3:38a hacer un deepfake en tu computadora.
-
3:38 - 3:42Y quizás pronto podamos hacerlos
en nuestros móviles. -
3:43 - 3:48Ahora, la interacción de algunas de
nuestras debilidades humanas más básicas -
3:48 - 3:50con las herramientas de la red
-
3:50 - 3:53pueden convertir estos vídeos en armas.
-
3:53 - 3:54Les explicaré.
-
3:55 - 3:59Los seres humanos tenemos una respuesta
instintiva a los audios y vídeos. -
4:00 - 4:01Creemos que son verdad
-
4:01 - 4:03ya que pensamos que
obviamente podemos creer -
4:03 - 4:06lo que dicen los ojos y los oídos.
-
4:06 - 4:08Y este mecanismo
-
4:08 - 4:12puede debilitar
nuestro sentido de la realidad. -
4:12 - 4:15Aunque creamos que los deepfakes
son verdad, no lo son. -
4:16 - 4:20Nos atrae lo lascivo, lo provocativo.
-
4:20 - 4:23Tendemos a creer y compartir información
-
4:23 - 4:25negativa y novedosa.
-
4:26 - 4:31Los expertos dicen que online las falacias
se difunden diez veces más rápido -
4:31 - 4:32que las historias verídicas.
-
4:34 - 4:38Además, nos atrae la información
-
4:38 - 4:40más afín a nuestro punto de vista.
-
4:41 - 4:45Los psicólogos llaman a esta tendencia
"sesgo de confirmación". -
4:45 - 4:50Y las redes sociales
sobrecargan esta tendencia -
4:50 - 4:54al permitirnos compartir información
afín a nuestra idea -
4:54 - 4:55de una manera amplia e instantánea.
-
4:57 - 5:02Pero los deepfakes tienen la posibilidad
de causar un gran daño individual y social. -
5:03 - 5:05Imaginen uno que muestre
-
5:05 - 5:09a los soldados estadounidenses
quemando un Corán en Afganistán. -
5:11 - 5:14Podemos imaginar que este vídeo
puede causar violencia -
5:14 - 5:15contra esos soldados.
-
5:16 - 5:19¿Y si justo al día siguiente
-
5:19 - 5:21aparece otro deepfake
-
5:21 - 5:24que muestra a un conocido imán de Londres
-
5:24 - 5:27instando a atacar a esos soldados?
-
5:28 - 5:31Veríamos violencia y disturbios civiles.
-
5:31 - 5:34no solo en Afganistán y en Reino Unido
-
5:34 - 5:36sino en todo el mundo.
-
5:36 - 5:37Podrán decirme
-
5:37 - 5:40"Ya, Danielle, qué rebuscado".
-
5:40 - 5:41Pero no lo es.
-
5:41 - 5:43Hemos visto difusiones de mentiras
-
5:44 - 5:46por WhatsApp y por otros
servicios de mensajería online -
5:46 - 5:49que han llevado a la violencia
contra las minorías étnicas. -
5:49 - 5:51Y solo era un texto.
-
5:51 - 5:53Imaginen si fuese un vídeo.
-
5:55 - 5:59Los deepfakes tienen el potencial
de corroer la confianza -
5:59 - 6:02que tenemos en
las instituciones democráticas. -
6:03 - 6:06Imaginen la noche de antes
de unas elecciones. -
6:06 - 6:09Un deepfake muestra a uno de
los candidatos de un partido principal -
6:09 - 6:10muy enfermo.
-
6:11 - 6:14El vídeo podría modificar las elecciones
-
6:14 - 6:17y cambiar nuestra opinión
sobre la validez de las elecciones. -
6:19 - 6:22Imaginen si la noche anterior
a una oferta pública de venta -
6:22 - 6:24de un gran banco mundial
-
6:24 - 6:27hubiese un deepfake
mostrando al director ejecutivo -
6:27 - 6:30hablando borracho
sobre teorías conspirativas. -
6:31 - 6:34El vídeo podría hundir la venta
-
6:34 - 6:38y peor, cambiar nuestra opinión sobre
la estabilidad del mercado financiero. -
6:39 - 6:45Los deepfakes pueden aprovecharse
para aumentar la gran desconfianza -
6:45 - 6:51que ya tenemos en los políticos,
líderes de empresas y otros influyentes. -
6:51 - 6:54Encuentran a un público
listo para creérselos. -
6:55 - 6:58La búsqueda de la verdad
también está en peligro. -
6:59 - 7:03Expertos en tecnología creen
-
7:03 - 7:06que con los avances
de Inteligencia Artificial -
7:06 - 7:10pronto será casi imposible diferenciar
un vídeo real de uno falso. -
7:11 - 7:16¿Cómo podría emerger la verdad
en un mercado lleno de deepfakes? -
7:17 - 7:20Si seguimos por el camino
de no poner resistencia -
7:20 - 7:23creyendo lo que queramos creer
-
7:23 - 7:24¿será el fin de la verdad?
-
7:25 - 7:28Quizás no solo creamos lo falso,
-
7:28 - 7:31quizás pongamos en duda la verdad.
-
7:32 - 7:36Ya hemos visto a personas
que usan este fenómeno de deepfakes -
7:36 - 7:40para cuestionar la evidencia
tangible de sus acciones. -
7:40 - 7:46Hemos oído a políticos decir
sobre audios de comentarios alarmantes -
7:46 - 7:48"Son noticias falsas.
-
7:48 - 7:52No podemos creer los que nos dicen
nuestros ojos y oídos". -
7:52 - 7:54El profesor Robert Chesney y yo
-
7:54 - 8:00llamamos a este peligro
"recompensa del mentiroso" -
8:00 - 8:03El temor de que los mentirosos
usen deepfakes -
8:03 - 8:06para escapar de la culpabilidad del delito.
-
8:07 - 8:10Tenemos mucho trabajo por delante,
de eso no hay duda. -
8:11 - 8:14Vamos a necesitar una solución proactiva
-
8:14 - 8:17de parte de empresas tecnológicas,
legisladores, -
8:17 - 8:19poder judicial y medios de comunicación.
-
8:20 - 8:24Necesitaremos una dosis saludable
de resistencia social. -
8:26 - 8:29Así que ahora estamos inmersos
en una conversación muy pública -
8:29 - 8:32sobre las responsabilidades
de las empresas tecnológicas, -
8:33 - 8:36mi consejo para las redes sociales
-
8:36 - 8:40es que cambien sus términos de uso
y las normas comunitarias -
8:40 - 8:42para prohibir deepfakes dañinos.
-
8:43 - 8:47Esta resolución requerirá el juicio humano
-
8:47 - 8:48y será costoso.
-
8:49 - 8:51Pero necesitamos supervisión humana
-
8:51 - 8:55del contenido y el contexto
de un deepfake -
8:55 - 8:59para ver si es una imitación perjudicial
-
8:59 - 9:03o si tiene un valor satírico,
artístico o educativo. -
9:04 - 9:06Y, ¿qué pasa con la ley?
-
9:07 - 9:09Debemos aprender de la ley.
-
9:10 - 9:14Nos enseña qué es perjudicial
y qué es incorrecto. -
9:14 - 9:18Reprime comportamientos prohibidos
castigando a los responsables -
9:18 - 9:20y cuidando a las víctimas.
-
9:21 - 9:25Ahora mismo la ley no está preparada
para el desafío de los deepfakes. -
9:26 - 9:28En todo el mundo
-
9:28 - 9:30necesitamos leyes hechas a medida
-
9:30 - 9:34diseñadas para destruir
las suplantaciones digitales -
9:34 - 9:36que invaden la privacidad sexual,
-
9:36 - 9:37que dañan reputaciones
-
9:37 - 9:39y causan perjuicio emocional.
-
9:40 - 9:44Lo que le ocurrió a Rana Ayyub
cada vez es más común. -
9:44 - 9:46Incluso cuando fue a la policía
en Delhi -
9:46 - 9:48le dijeron que no podía hacer nada.
-
9:49 - 9:52Y es triste pero verdad
que ocurriría lo mismo -
9:52 - 9:55en Estados Unidos y en Europa.
-
9:55 - 10:00Así que hay un vacío legal por llenar.
-
10:00 - 10:04Mi compañera la doctora Mary Anne Franks
y yo trabajamos con legisladores de EE.UU. -
10:04 - 10:09para crear leyes que prohíban
las suplantaciones digitales dañinas -
10:09 - 10:12equivalentes a la suplantación
de identidad. -
10:12 - 10:14Y hemos visto los mismos movimientos
-
10:14 - 10:18en Islandia, Reino Unido y Australia.
-
10:18 - 10:21Pero por supuesto, esto es solo
una gota en el mar. -
10:23 - 10:26Sé que la ley no es el remedio universal.
-
10:26 - 10:28Es un instrumento contundente.
-
10:28 - 10:30Y tenemos que usarlo con cabeza.
-
10:30 - 10:33También tiene algunos
impedimentos prácticos. -
10:34 - 10:39No se puede sancionar a alguien si no
se lo puede identificar ni encontrar. -
10:39 - 10:43Y si el infractor vive en otro país
-
10:43 - 10:45diferente al de la víctima
-
10:45 - 10:46quizás no se le pueda exigir
-
10:46 - 10:49al infractor que acceda a cumplir las leyes
-
10:49 - 10:50de su país.
-
10:50 - 10:54Así que necesitaremos una respuesta
internacional coordinada. -
10:56 - 10:59La educación tiene que ser también
parte de nuestra respuesta. -
11:00 - 11:04Las fuerzas del orden
no van a imponer leyes -
11:04 - 11:05que no conozcan
-
11:05 - 11:08y juzgar problemas que no entiendan.
-
11:08 - 11:11En mi investigación sobre el ciberacoso
-
11:11 - 11:14he descubierto que el poder judicial
carece de experiencia -
11:14 - 11:17para entender las leyes
-
11:17 - 11:19y el problema del acoso online.
-
11:19 - 11:22Y muy a menudo le dicen a las víctimas
-
11:22 - 11:26"Simplemente apaga la computadora.
Ignóralo. Ya pasará". -
11:26 - 11:29Y eso se ve en el caso de Rana Ayyub.
-
11:29 - 11:33Le dijeron "Estás haciendo
una montaña de un grano de arena. -
11:33 - 11:34Son solo niños siendo niños".
-
11:35 - 11:41Así que tenemos que unir la nueva
legislación con la experiencia. -
11:42 - 11:45Y los medios de comunicación
tienen que animar a la educación. -
11:46 - 11:50Los periodistas necesitan instruirse
en el fenómeno de deepfakes -
11:50 - 11:54para que no aumenten ni se difundan.
-
11:55 - 11:57Y aquí todos estamos involucrados.
-
11:57 - 12:01Cada uno de nosotros necesita educación.
-
12:01 - 12:05Hacemos clic, compartimos, damos me gusta
sin pensar en ello. -
12:06 - 12:07Necesitamos hacerlo mejor.
-
12:08 - 12:11Necesitamos un radar más rápido
y mejor contra la falsificación. -
12:14 - 12:18Así que mientras trabajamos
en estas soluciones -
12:18 - 12:20habrá bastante sufrimiento.
-
12:21 - 12:24Rana Ayyub sigue lidiando
con los efectos secundarios. -
12:25 - 12:29Aún no se siente libre
de expresarse online y offline. -
12:30 - 12:31Y ella me ha dicho
-
12:31 - 12:36que aún se siente como si miles de ojos
mirasen su cuerpo desnudo -
12:36 - 12:40sabiendo perfectamente
que no es su cuerpo. -
12:40 - 12:43Y sufre frecuentes ataques de pánico
-
12:43 - 12:47en concreto cuando alguien que no conoce
intenta tomarle una foto. -
12:47 - 12:50"¿Y si van a hacer otro deepfake?"
es lo que piensa. -
12:51 - 12:55Así que por personas como Rana Ayyub
-
12:55 - 12:57y por la democracia
-
12:57 - 13:00tenemos que hacer algo ahora mismo.
-
13:00 - 13:01Gracias.
-
13:01 - 13:03(Aplausos)
- Title:
- Deepkfakes: Cómo ponen en peligro la verdad y la democracia
- Speaker:
- Danielle Citronp
- Description:
-
El uso de la tecnología "deepfake" se está convirtiendo en una verdadera amenaza. Se manipulan vídeos y audios con propósitos dañinos: avivar la violencia o desprestigiar a políticos y periodistas. ¿Cómo limitarán estas herramientas cada vez más accesibles lo que creemos del mundo? En esta singular charla, la profesora y catedrática de derecho Danielle Citron desvela cómo los deepfakes aumentan nuestra desconfianza y sugiere estrategias para proteger la verdad.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Sebastian Betti approved Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy | ||
Sebastian Betti edited Spanish subtitles for How deepfakes undermine truth and threaten democracy |