1 00:00:00,535 --> 00:00:03,302 [Esta charla tiene contenido adulto] 2 00:00:05,762 --> 00:00:08,754 Rana Ayyub es periodista en India 3 00:00:08,778 --> 00:00:11,380 y ha destapado casos de corrupción del gobierno 4 00:00:12,411 --> 00:00:14,568 y violaciones de los derechos humanos. 5 00:00:14,990 --> 00:00:16,157 Con los años 6 00:00:16,181 --> 00:00:19,484 se acostumbró a la fuerte crítica y a la polémica de su trabajo. 7 00:00:20,149 --> 00:00:25,258 Pero nada podría haberla preparado para lo que enfrentó en abril de 2018. 8 00:00:26,125 --> 00:00:29,776 Ella estaba en una cafetería con una amiga la primera vez que lo vio. 9 00:00:29,800 --> 00:00:34,743 Un vídeo de 2 minutos y 20 segundos de ella en un acto sexual. 10 00:00:35,188 --> 00:00:37,537 Y ella no se lo podía creer. 11 00:00:37,561 --> 00:00:39,834 Ella nunca había hecho un vídeo sexual. 12 00:00:40,506 --> 00:00:43,971 Pero por desgracia miles y miles de personas 13 00:00:43,995 --> 00:00:45,661 creerían que era ella. 14 00:00:46,673 --> 00:00:49,617 Entrevisté a Ayyub hace tres meses 15 00:00:49,641 --> 00:00:52,145 en relación con mi libro de privacidad sexual. 16 00:00:52,681 --> 00:00:55,879 Soy catedrática en Derecho, abogada y defensora de los derechos civiles, 17 00:00:56,204 --> 00:01:00,815 así que es frustra mucho saber que ahora mismo 18 00:01:00,839 --> 00:01:03,077 la ley podría hacer muy poco para ayudarla. 19 00:01:03,458 --> 00:01:05,004 Y mientras hablábamos 20 00:01:05,029 --> 00:01:09,541 me explicó que nunca vio venir el falso vídeo sexual. 21 00:01:10,038 --> 00:01:15,634 Dijo "el sexo se usa muchas veces para menospreciar y avergonzar a las mujeres 22 00:01:15,658 --> 00:01:18,086 en particular a las mujeres minoritarias 23 00:01:18,110 --> 00:01:22,422 y sobre todo a las que se atreven a desafiar a hombres poderosos", 24 00:01:22,446 --> 00:01:23,979 como los de su trabajo. 25 00:01:25,191 --> 00:01:29,167 El vídeo se hizo viral en 48 horas. 26 00:01:30,064 --> 00:01:35,371 Todas sus redes sociales se llenaron de capturas del vídeo 27 00:01:35,395 --> 00:01:38,022 con amenazas de violación y amenazas de muerte 28 00:01:38,046 --> 00:01:40,579 insultando su fe musulmana. 29 00:01:41,426 --> 00:01:45,990 Había publicaciones online que insinuaban que ella estaba "disponible" para sexo. 30 00:01:46,014 --> 00:01:47,624 Revelaron su información personal, 31 00:01:47,648 --> 00:01:50,426 es decir, su dirección y su número de teléfono 32 00:01:50,450 --> 00:01:52,196 se difundió por Internet. 33 00:01:52,879 --> 00:01:56,963 El vídeo se compartió más de 40 000 veces. 34 00:01:57,760 --> 00:02:01,696 Cuando alguien es el objetivo de este tipo de ataques de mafias online 35 00:02:01,720 --> 00:02:03,783 la herida es profunda. 36 00:02:04,482 --> 00:02:07,521 La vida de Rana Ayyub se puso patas arriba. 37 00:02:08,211 --> 00:02:11,545 Durante semanas, apenas podía comer y hablar. 38 00:02:11,919 --> 00:02:15,608 Dejó de escribir y cerró todas sus cuentas de las redes sociales, 39 00:02:15,632 --> 00:02:18,790 algo muy duro cuando eres periodista. 40 00:02:19,188 --> 00:02:22,672 Y tenía miedo de salir de su casa. 41 00:02:22,696 --> 00:02:25,718 ¿Y si cumplían con las amenazas? 42 00:02:26,395 --> 00:02:30,760 El Consejo de Derechos Humanos de la ONU afirmó que no estaba loca. 43 00:02:30,784 --> 00:02:35,421 Publicó una declaración que decía que estaban preocupados por su seguridad. 44 00:02:36,776 --> 00:02:41,005 Rana Ayyub se enfrentaba a un deepfake: 45 00:02:41,029 --> 00:02:43,569 Tecnología de aprendizaje automático 46 00:02:43,593 --> 00:02:47,704 que manipula o fabrica audio y vídeos 47 00:02:47,728 --> 00:02:50,451 que muestran personas diciendo o haciendo cosas 48 00:02:50,475 --> 00:02:52,341 que nunca han dicho o hecho. 49 00:02:52,807 --> 00:02:56,168 Los deepfakes parecen auténticos y realistas, pero no lo son; 50 00:02:56,192 --> 00:02:57,964 son mentiras absolutas. 51 00:02:59,228 --> 00:03:03,022 Si bien es una tecnología en desarrollo, 52 00:03:03,046 --> 00:03:04,660 es de fácil acceso. 53 00:03:05,371 --> 00:03:08,443 Y como tantas cosas en Internet, 54 00:03:08,467 --> 00:03:10,628 los deepfakes llaman ahora la atención 55 00:03:10,652 --> 00:03:11,907 por la pornografía. 56 00:03:12,498 --> 00:03:14,609 A principios del 2018 57 00:03:14,633 --> 00:03:17,101 alguien publicó una herramienta en Reddit 58 00:03:17,125 --> 00:03:21,537 que permitía a los usuarios insertar caras en vídeos porno. 59 00:03:21,561 --> 00:03:25,001 A esto le siguió una lluvia de falsos vídeos porno protagonizados 60 00:03:25,025 --> 00:03:27,822 por las celebridades favoritas de las personas. 61 00:03:28,712 --> 00:03:32,189 Y hoy en YouTube se pueden encontrar infinitos tutoriales 62 00:03:32,213 --> 00:03:34,499 con instrucciones que enseñan paso a paso 63 00:03:34,523 --> 00:03:37,686 a hacer un deepfake en tu computadora. 64 00:03:38,260 --> 00:03:41,966 Y quizás pronto podamos hacerlos en nuestros móviles. 65 00:03:43,072 --> 00:03:48,454 Ahora, la interacción de algunas de nuestras debilidades humanas más básicas 66 00:03:48,478 --> 00:03:50,160 con las herramientas de la red 67 00:03:50,184 --> 00:03:52,850 pueden convertir estos vídeos en armas. 68 00:03:52,874 --> 00:03:54,074 Les explicaré. 69 00:03:54,875 --> 00:03:59,441 Los seres humanos tenemos una respuesta instintiva a los audios y vídeos. 70 00:03:59,860 --> 00:04:01,348 Creemos que son verdad 71 00:04:01,372 --> 00:04:03,450 ya que pensamos que obviamente podemos creer 72 00:04:03,474 --> 00:04:05,952 lo que dicen los ojos y los oídos. 73 00:04:06,476 --> 00:04:08,175 Y este mecanismo 74 00:04:08,199 --> 00:04:11,897 puede debilitar nuestro sentido de la realidad. 75 00:04:11,921 --> 00:04:15,068 Aunque creamos que los deepfakes son verdad, no lo son. 76 00:04:15,604 --> 00:04:19,761 Nos atrae lo lascivo, lo provocativo. 77 00:04:20,365 --> 00:04:23,412 Tendemos a creer y compartir información 78 00:04:23,436 --> 00:04:25,459 negativa y novedosa. 79 00:04:25,809 --> 00:04:30,828 Los expertos dicen que online las falacias se difunden diez veces más rápido 80 00:04:30,852 --> 00:04:32,479 que las historias verídicas. 81 00:04:34,015 --> 00:04:38,395 Además, nos atrae la información 82 00:04:38,419 --> 00:04:40,311 más afín a nuestro punto de vista. 83 00:04:40,950 --> 00:04:44,511 Los psicólogos llaman a esta tendencia "sesgo de confirmación". 84 00:04:45,300 --> 00:04:49,687 Y las redes sociales sobrecargan esta tendencia 85 00:04:49,711 --> 00:04:53,592 al permitirnos compartir información afín a nuestra idea 86 00:04:53,616 --> 00:04:55,408 de una manera amplia e instantánea. 87 00:04:56,735 --> 00:05:02,303 Pero los deepfakes tienen la posibilidad de causar un gran daño individual y social. 88 00:05:03,204 --> 00:05:05,228 Imaginen uno que muestre 89 00:05:05,252 --> 00:05:09,434 a los soldados estadounidenses quemando un Corán en Afganistán. 90 00:05:10,807 --> 00:05:13,831 Podemos imaginar que este vídeo puede causar violencia 91 00:05:13,855 --> 00:05:15,388 contra esos soldados. 92 00:05:15,847 --> 00:05:18,720 ¿Y si justo al día siguiente 93 00:05:18,744 --> 00:05:20,998 aparece otro deepfake 94 00:05:21,022 --> 00:05:24,339 que muestra a un conocido imán de Londres 95 00:05:24,363 --> 00:05:26,830 instando a atacar a esos soldados? 96 00:05:27,617 --> 00:05:30,780 Veríamos violencia y disturbios civiles. 97 00:05:30,804 --> 00:05:34,053 no solo en Afganistán y en Reino Unido 98 00:05:34,077 --> 00:05:35,592 sino en todo el mundo. 99 00:05:36,251 --> 00:05:37,409 Podrán decirme 100 00:05:37,433 --> 00:05:39,680 "Ya, Danielle, qué rebuscado". 101 00:05:39,704 --> 00:05:40,854 Pero no lo es. 102 00:05:41,293 --> 00:05:43,484 Hemos visto difusiones de mentiras 103 00:05:43,508 --> 00:05:46,230 por WhatsApp y por otros servicios de mensajería online 104 00:05:46,254 --> 00:05:49,015 que han llevado a la violencia contra las minorías étnicas. 105 00:05:49,039 --> 00:05:50,926 Y solo era un texto. 106 00:05:50,950 --> 00:05:52,974 Imaginen si fuese un vídeo. 107 00:05:54,593 --> 00:05:58,524 Los deepfakes tienen el potencial de corroer la confianza 108 00:05:58,524 --> 00:06:01,966 que tenemos en las instituciones democráticas. 109 00:06:03,006 --> 00:06:05,673 Imaginen la noche de antes de unas elecciones. 110 00:06:05,996 --> 00:06:09,234 Un deepfake muestra a uno de los candidatos de un partido principal 111 00:06:09,258 --> 00:06:10,408 muy enfermo. 112 00:06:11,202 --> 00:06:13,535 El vídeo podría modificar las elecciones 113 00:06:13,559 --> 00:06:16,934 y cambiar nuestra opinión sobre la validez de las elecciones. 114 00:06:18,515 --> 00:06:21,841 Imaginen si la noche anterior a una oferta pública de venta 115 00:06:21,865 --> 00:06:24,198 de un gran banco mundial 116 00:06:24,222 --> 00:06:27,371 hubiese un deepfake mostrando al director ejecutivo 117 00:06:27,395 --> 00:06:30,092 hablando borracho sobre teorías conspirativas. 118 00:06:30,887 --> 00:06:33,934 El vídeo podría hundir la venta 119 00:06:33,958 --> 00:06:38,073 y peor, cambiar nuestra opinión sobre la estabilidad del mercado financiero. 120 00:06:39,385 --> 00:06:44,718 Los deepfakes pueden aprovecharse para aumentar la gran desconfianza 121 00:06:44,718 --> 00:06:50,612 que ya tenemos en los políticos, líderes de empresas y otros influyentes. 122 00:06:50,945 --> 00:06:54,229 Encuentran a un público listo para creérselos. 123 00:06:55,287 --> 00:06:58,052 La búsqueda de la verdad también está en peligro. 124 00:06:59,077 --> 00:07:02,641 Expertos en tecnología creen 125 00:07:02,665 --> 00:07:06,347 que con los avances de Inteligencia Artificial 126 00:07:06,371 --> 00:07:10,140 pronto será casi imposible diferenciar un vídeo real de uno falso. 127 00:07:11,022 --> 00:07:16,363 ¿Cómo podría emerger la verdad en un mercado lleno de deepfakes? 128 00:07:16,752 --> 00:07:20,172 Si seguimos por el camino de no poner resistencia 129 00:07:20,196 --> 00:07:22,633 creyendo lo que queramos creer 130 00:07:22,657 --> 00:07:23,807 ¿será el fin de la verdad? 131 00:07:24,831 --> 00:07:28,006 Quizás no solo creamos lo falso, 132 00:07:28,030 --> 00:07:31,356 quizás pongamos en duda la verdad. 133 00:07:31,887 --> 00:07:35,966 Ya hemos visto a personas que usan este fenómeno de deepfakes 134 00:07:35,990 --> 00:07:39,910 para cuestionar la evidencia tangible de sus acciones. 135 00:07:39,934 --> 00:07:45,903 Hemos oído a políticos decir sobre audios de comentarios alarmantes 136 00:07:45,927 --> 00:07:47,673 "Son noticias falsas. 137 00:07:47,697 --> 00:07:51,617 No podemos creer los que nos dicen nuestros ojos y oídos". 138 00:07:52,402 --> 00:07:54,133 El profesor Robert Chesney y yo 139 00:07:54,157 --> 00:07:59,593 llamamos a este peligro "recompensa del mentiroso" 140 00:07:59,617 --> 00:08:02,974 El temor de que los mentirosos usen deepfakes 141 00:08:02,998 --> 00:08:05,903 para escapar de la culpabilidad del delito. 142 00:08:06,963 --> 00:08:10,034 Tenemos mucho trabajo por delante, de eso no hay duda. 143 00:08:10,606 --> 00:08:13,931 Vamos a necesitar una solución proactiva 144 00:08:13,955 --> 00:08:17,466 de parte de empresas tecnológicas, legisladores, 145 00:08:17,490 --> 00:08:19,474 poder judicial y medios de comunicación. 146 00:08:20,093 --> 00:08:24,109 Necesitaremos una dosis saludable de resistencia social. 147 00:08:25,506 --> 00:08:29,402 Así que ahora estamos inmersos en una conversación muy pública 148 00:08:29,426 --> 00:08:32,339 sobre las responsabilidades de las empresas tecnológicas, 149 00:08:32,926 --> 00:08:35,957 mi consejo para las redes sociales 150 00:08:35,982 --> 00:08:39,855 es que cambien sus términos de uso y las normas comunitarias 151 00:08:39,879 --> 00:08:42,215 para prohibir deepfakes dañinos. 152 00:08:42,712 --> 00:08:46,672 Esta resolución requerirá el juicio humano 153 00:08:46,696 --> 00:08:48,267 y será costoso. 154 00:08:48,673 --> 00:08:50,958 Pero necesitamos supervisión humana 155 00:08:50,982 --> 00:08:54,855 del contenido y el contexto de un deepfake 156 00:08:54,879 --> 00:08:58,561 para ver si es una imitación perjudicial 157 00:08:58,585 --> 00:09:02,967 o si tiene un valor satírico, artístico o educativo. 158 00:09:04,118 --> 00:09:05,613 Y, ¿qué pasa con la ley? 159 00:09:06,666 --> 00:09:09,015 Debemos aprender de la ley. 160 00:09:09,515 --> 00:09:13,553 Nos enseña qué es perjudicial y qué es incorrecto. 161 00:09:13,577 --> 00:09:18,132 Reprime comportamientos prohibidos castigando a los responsables 162 00:09:18,156 --> 00:09:20,423 y cuidando a las víctimas. 163 00:09:21,148 --> 00:09:25,428 Ahora mismo la ley no está preparada para el desafío de los deepfakes. 164 00:09:26,116 --> 00:09:27,506 En todo el mundo 165 00:09:27,530 --> 00:09:29,974 necesitamos leyes hechas a medida 166 00:09:29,998 --> 00:09:33,568 diseñadas para destruir las suplantaciones digitales 167 00:09:33,592 --> 00:09:35,823 que invaden la privacidad sexual, 168 00:09:35,847 --> 00:09:37,234 que dañan reputaciones 169 00:09:37,258 --> 00:09:39,209 y causan perjuicio emocional. 170 00:09:39,725 --> 00:09:43,598 Lo que le ocurrió a Rana Ayyub cada vez es más común. 171 00:09:44,074 --> 00:09:46,288 Incluso cuando fue a la policía en Delhi 172 00:09:46,312 --> 00:09:48,447 le dijeron que no podía hacer nada. 173 00:09:49,101 --> 00:09:52,284 Y es triste pero verdad que ocurriría lo mismo 174 00:09:52,308 --> 00:09:54,574 en Estados Unidos y en Europa. 175 00:09:55,300 --> 00:09:59,656 Así que hay un vacío legal por llenar. 176 00:10:00,292 --> 00:10:04,384 Mi compañera la doctora Mary Anne Franks y yo trabajamos con legisladores de EE.UU. 177 00:10:04,408 --> 00:10:09,212 para crear leyes que prohíban las suplantaciones digitales dañinas 178 00:10:09,236 --> 00:10:11,769 equivalentes a la suplantación de identidad. 179 00:10:12,252 --> 00:10:14,378 Y hemos visto los mismos movimientos 180 00:10:14,402 --> 00:10:17,703 en Islandia, Reino Unido y Australia. 181 00:10:18,157 --> 00:10:21,416 Pero por supuesto, esto es solo una gota en el mar. 182 00:10:22,911 --> 00:10:26,080 Sé que la ley no es el remedio universal. 183 00:10:26,104 --> 00:10:27,704 Es un instrumento contundente. 184 00:10:28,346 --> 00:10:29,885 Y tenemos que usarlo con cabeza. 185 00:10:30,411 --> 00:10:33,223 También tiene algunos impedimentos prácticos. 186 00:10:33,657 --> 00:10:38,701 No se puede sancionar a alguien si no se lo puede identificar ni encontrar. 187 00:10:39,463 --> 00:10:42,749 Y si el infractor vive en otro país 188 00:10:42,773 --> 00:10:44,527 diferente al de la víctima 189 00:10:44,551 --> 00:10:46,180 quizás no se le pueda exigir 190 00:10:46,204 --> 00:10:48,553 al infractor que acceda a cumplir las leyes 191 00:10:48,577 --> 00:10:49,727 de su país. 192 00:10:50,236 --> 00:10:54,299 Así que necesitaremos una respuesta internacional coordinada. 193 00:10:55,819 --> 00:10:59,152 La educación tiene que ser también parte de nuestra respuesta. 194 00:10:59,803 --> 00:11:03,534 Las fuerzas del orden no van a imponer leyes 195 00:11:03,558 --> 00:11:05,016 que no conozcan 196 00:11:05,040 --> 00:11:07,636 y juzgar problemas que no entiendan. 197 00:11:08,376 --> 00:11:10,567 En mi investigación sobre el ciberacoso 198 00:11:10,591 --> 00:11:14,090 he descubierto que el poder judicial carece de experiencia 199 00:11:14,114 --> 00:11:16,696 para entender las leyes 200 00:11:16,720 --> 00:11:19,069 y el problema del acoso online. 201 00:11:19,093 --> 00:11:21,775 Y muy a menudo le dicen a las víctimas 202 00:11:21,799 --> 00:11:25,770 "Simplemente apaga la computadora. Ignóralo. Ya pasará". 203 00:11:26,261 --> 00:11:28,727 Y eso se ve en el caso de Rana Ayyub. 204 00:11:29,102 --> 00:11:32,570 Le dijeron "Estás haciendo una montaña de un grano de arena. 205 00:11:32,594 --> 00:11:34,337 Son solo niños siendo niños". 206 00:11:35,268 --> 00:11:40,520 Así que tenemos que unir la nueva legislación con la experiencia. 207 00:11:42,053 --> 00:11:45,482 Y los medios de comunicación tienen que animar a la educación. 208 00:11:46,180 --> 00:11:50,440 Los periodistas necesitan instruirse en el fenómeno de deepfakes 209 00:11:50,464 --> 00:11:53,503 para que no aumenten ni se difundan. 210 00:11:54,583 --> 00:11:56,751 Y aquí todos estamos involucrados. 211 00:11:56,775 --> 00:12:00,630 Cada uno de nosotros necesita educación. 212 00:12:01,375 --> 00:12:05,050 Hacemos clic, compartimos, damos me gusta sin pensar en ello. 213 00:12:05,551 --> 00:12:07,098 Necesitamos hacerlo mejor. 214 00:12:07,726 --> 00:12:10,885 Necesitamos un radar más rápido y mejor contra la falsificación. 215 00:12:13,744 --> 00:12:17,585 Así que mientras trabajamos en estas soluciones 216 00:12:17,609 --> 00:12:20,172 habrá bastante sufrimiento. 217 00:12:21,093 --> 00:12:23,839 Rana Ayyub sigue lidiando con los efectos secundarios. 218 00:12:24,669 --> 00:12:28,858 Aún no se siente libre de expresarse online y offline. 219 00:12:29,566 --> 00:12:30,931 Y ella me ha dicho 220 00:12:30,955 --> 00:12:36,029 que aún se siente como si miles de ojos mirasen su cuerpo desnudo 221 00:12:36,053 --> 00:12:39,714 sabiendo perfectamente que no es su cuerpo. 222 00:12:40,371 --> 00:12:42,720 Y sufre frecuentes ataques de pánico 223 00:12:42,744 --> 00:12:46,844 en concreto cuando alguien que no conoce intenta tomarle una foto. 224 00:12:46,868 --> 00:12:50,379 "¿Y si van a hacer otro deepfake?" es lo que piensa. 225 00:12:51,082 --> 00:12:55,003 Así que por personas como Rana Ayyub 226 00:12:55,027 --> 00:12:57,333 y por la democracia 227 00:12:57,357 --> 00:12:59,539 tenemos que hacer algo ahora mismo. 228 00:12:59,563 --> 00:13:00,714 Gracias. 229 00:13:00,738 --> 00:13:03,246 (Aplausos)