WEBVTT 00:00:00.535 --> 00:00:03.302 [Esta charla tiene contenido adulto] NOTE Paragraph 00:00:05.762 --> 00:00:08.754 Rana Ayyub es periodista en India 00:00:08.778 --> 00:00:11.380 y ha destapado casos de corrupción del gobierno 00:00:12.411 --> 00:00:14.568 y violaciones de los derechos humanos. 00:00:14.990 --> 00:00:16.157 Con los años 00:00:16.181 --> 00:00:19.484 se acostumbró a la fuerte crítica y a la polémica de su trabajo. 00:00:20.149 --> 00:00:25.258 Pero nada podría haberla preparado para lo que enfrentó en abril de 2018. NOTE Paragraph 00:00:26.125 --> 00:00:29.776 Ella estaba en una cafetería con una amiga la primera vez que lo vio. 00:00:29.800 --> 00:00:34.743 Un vídeo de 2 minutos y 20 segundos de ella en un acto sexual. 00:00:35.188 --> 00:00:37.537 Y ella no se lo podía creer. 00:00:37.561 --> 00:00:39.834 Ella nunca había hecho un vídeo sexual. 00:00:40.506 --> 00:00:43.971 Pero por desgracia miles y miles de personas 00:00:43.995 --> 00:00:45.661 creerían que era ella. NOTE Paragraph 00:00:46.673 --> 00:00:49.617 Entrevisté a Ayyub hace tres meses 00:00:49.641 --> 00:00:52.145 en relación con mi libro de privacidad sexual. 00:00:52.681 --> 00:00:55.879 Soy catedrática en Derecho, abogada y defensora de los derechos civiles, 00:00:56.204 --> 00:01:00.815 así que es frustra mucho saber que ahora mismo 00:01:00.839 --> 00:01:03.077 la ley podría hacer muy poco para ayudarla. 00:01:03.458 --> 00:01:05.004 Y mientras hablábamos 00:01:05.029 --> 00:01:09.541 me explicó que nunca vio venir el falso vídeo sexual. 00:01:10.038 --> 00:01:15.634 Dijo "el sexo se usa muchas veces para menospreciar y avergonzar a las mujeres 00:01:15.658 --> 00:01:18.086 en particular a las mujeres minoritarias 00:01:18.110 --> 00:01:22.422 y sobre todo a las que se atreven a desafiar a hombres poderosos", 00:01:22.446 --> 00:01:23.979 como los de su trabajo. 00:01:25.191 --> 00:01:29.167 El vídeo se hizo viral en 48 horas. 00:01:30.064 --> 00:01:35.371 Todas sus redes sociales se llenaron de capturas del vídeo 00:01:35.395 --> 00:01:38.022 con amenazas de violación y amenazas de muerte 00:01:38.046 --> 00:01:40.579 insultando su fe musulmana. 00:01:41.426 --> 00:01:45.990 Había publicaciones online que insinuaban que ella estaba "disponible" para sexo. 00:01:46.014 --> 00:01:47.624 Revelaron su información personal, 00:01:47.648 --> 00:01:50.426 es decir, su dirección y su número de teléfono 00:01:50.450 --> 00:01:52.196 se difundió por Internet. 00:01:52.879 --> 00:01:56.963 El vídeo se compartió más de 40 000 veces. NOTE Paragraph 00:01:57.760 --> 00:02:01.696 Cuando alguien es el objetivo de este tipo de ataques de mafias online 00:02:01.720 --> 00:02:03.783 la herida es profunda. 00:02:04.482 --> 00:02:07.521 La vida de Rana Ayyub se puso patas arriba. 00:02:08.211 --> 00:02:11.545 Durante semanas, apenas podía comer y hablar. 00:02:11.919 --> 00:02:15.608 Dejó de escribir y cerró todas sus cuentas de las redes sociales, 00:02:15.632 --> 00:02:18.790 algo muy duro cuando eres periodista. 00:02:19.188 --> 00:02:22.672 Y tenía miedo de salir de su casa. 00:02:22.696 --> 00:02:25.718 ¿Y si cumplían con las amenazas? 00:02:26.395 --> 00:02:30.760 El Consejo de Derechos Humanos de la ONU afirmó que no estaba loca. 00:02:30.784 --> 00:02:35.421 Publicó una declaración que decía que estaban preocupados por su seguridad. NOTE Paragraph 00:02:36.776 --> 00:02:41.005 Rana Ayyub se enfrentaba a un deepfake: 00:02:41.029 --> 00:02:43.569 Tecnología de aprendizaje automático 00:02:43.593 --> 00:02:47.704 que manipula o fabrica audio y vídeos 00:02:47.728 --> 00:02:50.451 que muestran personas diciendo o haciendo cosas 00:02:50.475 --> 00:02:52.341 que nunca han dicho o hecho. 00:02:52.807 --> 00:02:56.168 Los deepfakes parecen auténticos y realistas, pero no lo son; 00:02:56.192 --> 00:02:57.964 son mentiras absolutas. 00:02:59.228 --> 00:03:03.022 Si bien es una tecnología en desarrollo, 00:03:03.046 --> 00:03:04.660 es de fácil acceso. NOTE Paragraph 00:03:05.371 --> 00:03:08.443 Y como tantas cosas en Internet, 00:03:08.467 --> 00:03:10.628 los deepfakes llaman ahora la atención 00:03:10.652 --> 00:03:11.907 por la pornografía. NOTE Paragraph 00:03:12.498 --> 00:03:14.609 A principios del 2018 00:03:14.633 --> 00:03:17.101 alguien publicó una herramienta en Reddit 00:03:17.125 --> 00:03:21.537 que permitía a los usuarios insertar caras en vídeos porno. 00:03:21.561 --> 00:03:25.001 A esto le siguió una lluvia de falsos vídeos porno protagonizados 00:03:25.025 --> 00:03:27.822 por las celebridades favoritas de las personas. 00:03:28.712 --> 00:03:32.189 Y hoy en YouTube se pueden encontrar infinitos tutoriales 00:03:32.213 --> 00:03:34.499 con instrucciones que enseñan paso a paso 00:03:34.523 --> 00:03:37.686 a hacer un deepfake en tu computadora. 00:03:38.260 --> 00:03:41.966 Y quizás pronto podamos hacerlos en nuestros móviles. 00:03:43.072 --> 00:03:48.454 Ahora, la interacción de algunas de nuestras debilidades humanas más básicas 00:03:48.478 --> 00:03:50.160 con las herramientas de la red 00:03:50.184 --> 00:03:52.850 pueden convertir estos vídeos en armas. 00:03:52.874 --> 00:03:54.074 Les explicaré. NOTE Paragraph 00:03:54.875 --> 00:03:59.441 Los seres humanos tenemos una respuesta instintiva a los audios y vídeos. 00:03:59.860 --> 00:04:01.348 Creemos que son verdad 00:04:01.372 --> 00:04:03.450 ya que pensamos que obviamente podemos creer 00:04:03.474 --> 00:04:05.952 lo que dicen los ojos y los oídos. 00:04:06.476 --> 00:04:08.175 Y este mecanismo 00:04:08.199 --> 00:04:11.897 puede debilitar nuestro sentido de la realidad. 00:04:11.921 --> 00:04:15.068 Aunque creamos que los deepfakes son verdad, no lo son. 00:04:15.604 --> 00:04:19.761 Nos atrae lo lascivo, lo provocativo. 00:04:20.365 --> 00:04:23.412 Tendemos a creer y compartir información 00:04:23.436 --> 00:04:25.459 negativa y novedosa. 00:04:25.809 --> 00:04:30.828 Los expertos dicen que online las falacias se difunden diez veces más rápido 00:04:30.852 --> 00:04:32.479 que las historias verídicas. 00:04:34.015 --> 00:04:38.395 Además, nos atrae la información 00:04:38.419 --> 00:04:40.311 más afín a nuestro punto de vista. 00:04:40.950 --> 00:04:44.511 Los psicólogos llaman a esta tendencia "sesgo de confirmación". 00:04:45.300 --> 00:04:49.687 Y las redes sociales sobrecargan esta tendencia 00:04:49.711 --> 00:04:53.592 al permitirnos compartir información afín a nuestra idea 00:04:53.616 --> 00:04:55.408 de una manera amplia e instantánea. NOTE Paragraph 00:04:56.735 --> 00:05:02.303 Pero los deepfakes tienen la posibilidad de causar un gran daño individual y social. 00:05:03.204 --> 00:05:05.228 Imaginen uno que muestre 00:05:05.252 --> 00:05:09.434 a los soldados estadounidenses quemando un Corán en Afganistán. 00:05:10.807 --> 00:05:13.831 Podemos imaginar que este vídeo puede causar violencia 00:05:13.855 --> 00:05:15.388 contra esos soldados. 00:05:15.847 --> 00:05:18.720 ¿Y si justo al día siguiente 00:05:18.744 --> 00:05:20.998 aparece otro deepfake 00:05:21.022 --> 00:05:24.339 que muestra a un conocido imán de Londres 00:05:24.363 --> 00:05:26.830 instando a atacar a esos soldados? 00:05:27.617 --> 00:05:30.780 Veríamos violencia y disturbios civiles. 00:05:30.804 --> 00:05:34.053 no solo en Afganistán y en Reino Unido 00:05:34.077 --> 00:05:35.592 sino en todo el mundo. NOTE Paragraph 00:05:36.251 --> 00:05:37.409 Podrán decirme 00:05:37.433 --> 00:05:39.680 "Ya, Danielle, qué rebuscado". 00:05:39.704 --> 00:05:40.854 Pero no lo es. 00:05:41.293 --> 00:05:43.484 Hemos visto difusiones de mentiras 00:05:43.508 --> 00:05:46.230 por WhatsApp y por otros servicios de mensajería online 00:05:46.254 --> 00:05:49.015 que han llevado a la violencia contra las minorías étnicas. 00:05:49.039 --> 00:05:50.926 Y solo era un texto. 00:05:50.950 --> 00:05:52.974 Imaginen si fuese un vídeo. NOTE Paragraph 00:05:54.593 --> 00:05:58.524 Los deepfakes tienen el potencial de corroer la confianza 00:05:58.524 --> 00:06:01.966 que tenemos en las instituciones democráticas. 00:06:03.006 --> 00:06:05.673 Imaginen la noche de antes de unas elecciones. 00:06:05.996 --> 00:06:09.234 Un deepfake muestra a uno de los candidatos de un partido principal 00:06:09.258 --> 00:06:10.408 muy enfermo. 00:06:11.202 --> 00:06:13.535 El vídeo podría modificar las elecciones 00:06:13.559 --> 00:06:16.934 y cambiar nuestra opinión sobre la validez de las elecciones. 00:06:18.515 --> 00:06:21.841 Imaginen si la noche anterior a una oferta pública de venta 00:06:21.865 --> 00:06:24.198 de un gran banco mundial 00:06:24.222 --> 00:06:27.371 hubiese un deepfake mostrando al director ejecutivo 00:06:27.395 --> 00:06:30.092 hablando borracho sobre teorías conspirativas. 00:06:30.887 --> 00:06:33.934 El vídeo podría hundir la venta 00:06:33.958 --> 00:06:38.073 y peor, cambiar nuestra opinión sobre la estabilidad del mercado financiero. NOTE Paragraph 00:06:39.385 --> 00:06:44.718 Los deepfakes pueden aprovecharse para aumentar la gran desconfianza 00:06:44.718 --> 00:06:50.612 que ya tenemos en los políticos, líderes de empresas y otros influyentes. 00:06:50.945 --> 00:06:54.229 Encuentran a un público listo para creérselos. 00:06:55.287 --> 00:06:58.052 La búsqueda de la verdad también está en peligro. 00:06:59.077 --> 00:07:02.641 Expertos en tecnología creen 00:07:02.665 --> 00:07:06.347 que con los avances de Inteligencia Artificial 00:07:06.371 --> 00:07:10.140 pronto será casi imposible diferenciar un vídeo real de uno falso. NOTE Paragraph 00:07:11.022 --> 00:07:16.363 ¿Cómo podría emerger la verdad en un mercado lleno de deepfakes? 00:07:16.752 --> 00:07:20.172 Si seguimos por el camino de no poner resistencia 00:07:20.196 --> 00:07:22.633 creyendo lo que queramos creer 00:07:22.657 --> 00:07:23.807 ¿será el fin de la verdad? 00:07:24.831 --> 00:07:28.006 Quizás no solo creamos lo falso, 00:07:28.030 --> 00:07:31.356 quizás pongamos en duda la verdad. 00:07:31.887 --> 00:07:35.966 Ya hemos visto a personas que usan este fenómeno de deepfakes 00:07:35.990 --> 00:07:39.910 para cuestionar la evidencia tangible de sus acciones. 00:07:39.934 --> 00:07:45.903 Hemos oído a políticos decir sobre audios de comentarios alarmantes 00:07:45.927 --> 00:07:47.673 "Son noticias falsas. 00:07:47.697 --> 00:07:51.617 No podemos creer los que nos dicen nuestros ojos y oídos". 00:07:52.402 --> 00:07:54.133 El profesor Robert Chesney y yo 00:07:54.157 --> 00:07:59.593 llamamos a este peligro "recompensa del mentiroso" 00:07:59.617 --> 00:08:02.974 El temor de que los mentirosos usen deepfakes 00:08:02.998 --> 00:08:05.903 para escapar de la culpabilidad del delito. NOTE Paragraph 00:08:06.963 --> 00:08:10.034 Tenemos mucho trabajo por delante, de eso no hay duda. 00:08:10.606 --> 00:08:13.931 Vamos a necesitar una solución proactiva 00:08:13.955 --> 00:08:17.466 de parte de empresas tecnológicas, legisladores, 00:08:17.490 --> 00:08:19.474 poder judicial y medios de comunicación. 00:08:20.093 --> 00:08:24.109 Necesitaremos una dosis saludable de resistencia social. 00:08:25.506 --> 00:08:29.402 Así que ahora estamos inmersos en una conversación muy pública 00:08:29.426 --> 00:08:32.339 sobre las responsabilidades de las empresas tecnológicas, 00:08:32.926 --> 00:08:35.957 mi consejo para las redes sociales 00:08:35.982 --> 00:08:39.855 es que cambien sus términos de uso y las normas comunitarias 00:08:39.879 --> 00:08:42.215 para prohibir deepfakes dañinos. 00:08:42.712 --> 00:08:46.672 Esta resolución requerirá el juicio humano 00:08:46.696 --> 00:08:48.267 y será costoso. 00:08:48.673 --> 00:08:50.958 Pero necesitamos supervisión humana 00:08:50.982 --> 00:08:54.855 del contenido y el contexto de un deepfake 00:08:54.879 --> 00:08:58.561 para ver si es una imitación perjudicial 00:08:58.585 --> 00:09:02.967 o si tiene un valor satírico, artístico o educativo. NOTE Paragraph 00:09:04.118 --> 00:09:05.613 Y, ¿qué pasa con la ley? 00:09:06.666 --> 00:09:09.015 Debemos aprender de la ley. 00:09:09.515 --> 00:09:13.553 Nos enseña qué es perjudicial y qué es incorrecto. 00:09:13.577 --> 00:09:18.132 Reprime comportamientos prohibidos castigando a los responsables 00:09:18.156 --> 00:09:20.423 y cuidando a las víctimas. 00:09:21.148 --> 00:09:25.428 Ahora mismo la ley no está preparada para el desafío de los deepfakes. 00:09:26.116 --> 00:09:27.506 En todo el mundo 00:09:27.530 --> 00:09:29.974 necesitamos leyes hechas a medida 00:09:29.998 --> 00:09:33.568 diseñadas para destruir las suplantaciones digitales 00:09:33.592 --> 00:09:35.823 que invaden la privacidad sexual, 00:09:35.847 --> 00:09:37.234 que dañan reputaciones 00:09:37.258 --> 00:09:39.209 y causan perjuicio emocional. 00:09:39.725 --> 00:09:43.598 Lo que le ocurrió a Rana Ayyub cada vez es más común. 00:09:44.074 --> 00:09:46.288 Incluso cuando fue a la policía en Delhi 00:09:46.312 --> 00:09:48.447 le dijeron que no podía hacer nada. 00:09:49.101 --> 00:09:52.284 Y es triste pero verdad que ocurriría lo mismo 00:09:52.308 --> 00:09:54.574 en Estados Unidos y en Europa. NOTE Paragraph 00:09:55.300 --> 00:09:59.656 Así que hay un vacío legal por llenar. 00:10:00.292 --> 00:10:04.384 Mi compañera la doctora Mary Anne Franks y yo trabajamos con legisladores de EE.UU. 00:10:04.408 --> 00:10:09.212 para crear leyes que prohíban las suplantaciones digitales dañinas 00:10:09.236 --> 00:10:11.769 equivalentes a la suplantación de identidad. 00:10:12.252 --> 00:10:14.378 Y hemos visto los mismos movimientos 00:10:14.402 --> 00:10:17.703 en Islandia, Reino Unido y Australia. 00:10:18.157 --> 00:10:21.416 Pero por supuesto, esto es solo una gota en el mar. NOTE Paragraph 00:10:22.911 --> 00:10:26.080 Sé que la ley no es el remedio universal. 00:10:26.104 --> 00:10:27.704 Es un instrumento contundente. 00:10:28.346 --> 00:10:29.885 Y tenemos que usarlo con cabeza. 00:10:30.411 --> 00:10:33.223 También tiene algunos impedimentos prácticos. 00:10:33.657 --> 00:10:38.701 No se puede sancionar a alguien si no se lo puede identificar ni encontrar. 00:10:39.463 --> 00:10:42.749 Y si el infractor vive en otro país 00:10:42.773 --> 00:10:44.527 diferente al de la víctima 00:10:44.551 --> 00:10:46.180 quizás no se le pueda exigir 00:10:46.204 --> 00:10:48.553 al infractor que acceda a cumplir las leyes 00:10:48.577 --> 00:10:49.727 de su país. 00:10:50.236 --> 00:10:54.299 Así que necesitaremos una respuesta internacional coordinada. 00:10:55.819 --> 00:10:59.152 La educación tiene que ser también parte de nuestra respuesta. 00:10:59.803 --> 00:11:03.534 Las fuerzas del orden no van a imponer leyes 00:11:03.558 --> 00:11:05.016 que no conozcan 00:11:05.040 --> 00:11:07.636 y juzgar problemas que no entiendan. 00:11:08.376 --> 00:11:10.567 En mi investigación sobre el ciberacoso 00:11:10.591 --> 00:11:14.090 he descubierto que el poder judicial carece de experiencia 00:11:14.114 --> 00:11:16.696 para entender las leyes 00:11:16.720 --> 00:11:19.069 y el problema del acoso online. 00:11:19.093 --> 00:11:21.775 Y muy a menudo le dicen a las víctimas 00:11:21.799 --> 00:11:25.770 "Simplemente apaga la computadora. Ignóralo. Ya pasará". 00:11:26.261 --> 00:11:28.727 Y eso se ve en el caso de Rana Ayyub. 00:11:29.102 --> 00:11:32.570 Le dijeron "Estás haciendo una montaña de un grano de arena. 00:11:32.594 --> 00:11:34.337 Son solo niños siendo niños". 00:11:35.268 --> 00:11:40.520 Así que tenemos que unir la nueva legislación con la experiencia. NOTE Paragraph 00:11:42.053 --> 00:11:45.482 Y los medios de comunicación tienen que animar a la educación. 00:11:46.180 --> 00:11:50.440 Los periodistas necesitan instruirse en el fenómeno de deepfakes 00:11:50.464 --> 00:11:53.503 para que no aumenten ni se difundan. 00:11:54.583 --> 00:11:56.751 Y aquí todos estamos involucrados. 00:11:56.775 --> 00:12:00.630 Cada uno de nosotros necesita educación. 00:12:01.375 --> 00:12:05.050 Hacemos clic, compartimos, damos me gusta sin pensar en ello. 00:12:05.551 --> 00:12:07.098 Necesitamos hacerlo mejor. 00:12:07.726 --> 00:12:10.885 Necesitamos un radar más rápido y mejor contra la falsificación. NOTE Paragraph 00:12:13.744 --> 00:12:17.585 Así que mientras trabajamos en estas soluciones 00:12:17.609 --> 00:12:20.172 habrá bastante sufrimiento. 00:12:21.093 --> 00:12:23.839 Rana Ayyub sigue lidiando con los efectos secundarios. 00:12:24.669 --> 00:12:28.858 Aún no se siente libre de expresarse online y offline. 00:12:29.566 --> 00:12:30.931 Y ella me ha dicho 00:12:30.955 --> 00:12:36.029 que aún se siente como si miles de ojos mirasen su cuerpo desnudo 00:12:36.053 --> 00:12:39.714 sabiendo perfectamente que no es su cuerpo. 00:12:40.371 --> 00:12:42.720 Y sufre frecuentes ataques de pánico 00:12:42.744 --> 00:12:46.844 en concreto cuando alguien que no conoce intenta tomarle una foto. 00:12:46.868 --> 00:12:50.379 "¿Y si van a hacer otro deepfake?" es lo que piensa. 00:12:51.082 --> 00:12:55.003 Así que por personas como Rana Ayyub 00:12:55.027 --> 00:12:57.333 y por la democracia 00:12:57.357 --> 00:12:59.539 tenemos que hacer algo ahora mismo. NOTE Paragraph 00:12:59.563 --> 00:13:00.714 Gracias. NOTE Paragraph 00:13:00.738 --> 00:13:03.246 (Aplausos)