0:00:01.548,0:00:04.064 No importa quiénes son o dónde viven, 0:00:04.088,0:00:06.444 supongo que tienen al menos un pariente 0:00:06.468,0:00:09.042 al que le gusta reenviar [br]esos correos electrónicos. 0:00:09.206,0:00:11.106 Ya saben de los que estoy hablando... 0:00:11.461,0:00:14.195 los que tienen reclamos dudosos [br]o videos de conspiración. 0:00:14.255,0:00:16.983 Y probablemente [br]ya los han silenciado en Facebook 0:00:17.007,0:00:19.355 por compartir publicaciones sociales [br]como esta. 0:00:19.389,0:00:20.783 Es una imagen de un plátano 0:00:20.807,0:00:23.474 con una extraña cruz roja [br]corriendo por el centro. 0:00:23.498,0:00:25.847 Y el texto a su alrededor [br]advierte a las personas 0:00:25.861,0:00:27.819 de no comer frutas que se vean así, 0:00:27.843,0:00:30.230 sugiriendo que han sido [br]inyectadas con sangre 0:00:30.250,0:00:32.025 contaminada con el virus del VIH. 0:00:32.049,0:00:34.652 Y el mensaje social compartido arriba[br]simplemente dice: 0:00:34.676,0:00:36.857 "Por favor, reenvíe para salvar vidas". 0:00:37.672,0:00:40.966 Los verificadores de hechos [br]han desacreditado esto durante años, 0:00:40.990,0:00:43.799 pero es uno de esos rumores [br]que simplemente no morirán. 0:00:43.823,0:00:45.094 Un rumor zombie. 0:00:45.513,0:00:47.606 Y, por supuesto, es completamente falso. 0:00:48.180,0:00:51.139 Puede ser tentador reírse [br]de un ejemplo como este, decir: 0:00:51.163,0:00:53.347 "Bueno, ¿quién creería esto,[br]de todos modos?". 0:00:53.419,0:00:54.669 Pero es un rumor zombie 0:00:54.709,0:00:58.958 porque aprovecha los temores más profundos[br]de las personas sobre su propia seguridad 0:00:58.982,0:01:01.157 y la de las personas que aman. 0:01:01.783,0:01:04.906 Y si pasan tanto tiempo como yo [br]mirando información engañosa, 0:01:04.906,0:01:07.850 saben que este es solo [br]un ejemplo de muchos que se aprovechan 0:01:07.874,0:01:10.911 de los temores y vulnerabilidades[br]más profundos de las personas. 0:01:11.214,0:01:15.583 Todos los días, en todo el mundo, [br]vemos decenas de nuevos memes en Instagram 0:01:15.607,0:01:18.646 alentando a los padres [br]a no vacunar a sus hijos. 0:01:18.670,0:01:23.202 Vemos nuevos videos en YouTube que dicen [br]que el cambio climático es un engaño. 0:01:23.226,0:01:24.637 Y en todas las plataformas, 0:01:24.661,0:01:27.982 vemos un sinfín de publicaciones diseñadas[br]para demonizar a los demás. 0:01:27.992,0:01:31.053 sobre la base de su raza, [br]religión o sexualidad. 0:01:32.314,0:01:35.344 Bienvenidos a uno de los desafíos [br]centrales de nuestro tiempo. 0:01:35.647,0:01:39.672 ¿Cómo mantener un Internet [br]con libertad de expresión en el núcleo, 0:01:39.696,0:01:42.999 a la vez de asegurar [br]de que el contenido que se difunde 0:01:43.023,0:01:46.909 no causa daños irreparables a [br]nuestras democracias, nuestras comunidades 0:01:46.933,0:01:49.171 y a nuestro bienestar físico y mental? 0:01:49.998,0:01:52.085 Porque vivimos [br]en la era de la información, 0:01:52.109,0:01:55.656 todavía la moneda central [br]de la que todos dependemos, información, 0:01:55.680,0:01:58.037 ya no se considera totalmente confiable 0:01:58.061,0:02:00.389 y, a veces, puede parecer [br]francamente peligrosa. 0:02:00.811,0:02:01.839 Esto se debe en parte 0:02:01.889,0:02:05.028 al crecimiento desbocado de [br]las plataformas de intercambio social. 0:02:05.052,0:02:06.414 que nos permiten ir allá 0:02:06.438,0:02:08.660 donde mentiras y hechos se sientan juntos, 0:02:08.684,0:02:11.755 pero sin ninguna de las señales [br]tradicionales de confiabilidad. 0:02:12.268,0:02:15.887 Y Dios, nuestro lenguaje en torno a esto [br]está terriblemente confuso. 0:02:15.911,0:02:18.994 La gente todavía está obsesionada [br]con la frase "noticias falsas" 0:02:19.028,0:02:21.679 a pesar del hecho de que [br]es extraordinariamente inútil 0:02:21.713,0:02:25.173 y solía describir una serie de cosas [br]que en realidad son muy diferentes: 0:02:25.207,0:02:28.463 mentiras, rumores, engaños, [br]conspiraciones, propaganda. 0:02:28.911,0:02:31.823 Realmente quiero que [br]podamos dejar de usar una frase 0:02:31.847,0:02:34.709 que ha sido cooptada [br]por políticos de todo el mundo, 0:02:34.733,0:02:36.204 de izquierda a derecha 0:02:36.228,0:02:39.450 utilizada como arma para atacar [br]a una prensa libre e independiente. 0:02:40.307,0:02:45.009 (Aplausos) 0:02:45.033,0:02:48.495 Porque necesitamos nuestros medios [br]profesionales ahora más que nunca. 0:02:48.792,0:02:52.355 Además, la mayor parte de este contenido[br]ni siquiera se disfraza de noticia. 0:02:52.369,0:02:54.921 Son memes, videos, publicaciones sociales. 0:02:54.945,0:02:58.398 Y la mayor parte no es falsa; es engañosa. 0:02:58.422,0:03:01.437 Tendemos a fijarnos [br]en lo que es verdadero o falso. 0:03:01.461,0:03:05.493 Pero la mayor preocupación es en realidad [br]la armamentización del contexto. 0:03:06.855,0:03:08.823 Porque la desinformación más efectiva 0:03:08.847,0:03:11.895 siempre ha sido la que tiene [br]un núcleo de verdad. 0:03:11.919,0:03:15.395 Tomemos este ejemplo de Londres, [br]de marzo de 2017, 0:03:15.419,0:03:16.959 un tuit que circuló ampliamente 0:03:16.983,0:03:20.570 tras un incidente terrorista [br]en el puente de Westminster. 0:03:20.594,0:03:23.022 Esta es una imagen genuina, no falsa. 0:03:23.046,0:03:26.215 La mujer que aparece en la fotografía [br]fue entrevistada después, 0:03:26.239,0:03:28.648 y explicó que estaba [br]completamente traumatizada. 0:03:28.672,0:03:30.670 Hablaba por teléfono con un ser querido, 0:03:30.724,0:03:33.052 y no miraba a la víctima por respeto. 0:03:33.076,0:03:37.036 Pero aún circulaba ampliamente [br]con este marco islamofóbico, 0:03:37.060,0:03:40.106 con múltiples etiquetas, [br]que incluyen: #BanIslam 0:03:40.425,0:03:42.823 Ahora, si trabajaran en Twitter, [br]¿qué harían? 0:03:42.847,0:03:45.409 ¿Lo quitarían o lo dejarían? 0:03:46.553,0:03:49.982 Mi reacción intestinal, [br]mi reacción emocional, es bajar esto. 0:03:50.006,0:03:52.148 Odio el encuadre de esta imagen. 0:03:52.585,0:03:54.973 Pero la libertad de expresión[br]es un derecho humano, 0:03:54.997,0:03:58.222 y si comenzamos a hablar mal [br]de lo que nos hace sentir incómodos, 0:03:58.246,0:03:59.476 tenemos un problema. 0:03:59.500,0:04:01.554 Y esto podría parecer un caso claro, 0:04:01.578,0:04:03.486 pero, en realidad, la mayoría no lo son. 0:04:03.530,0:04:05.966 Estas líneas son[br]increíblemente difíciles de trazar. 0:04:06.000,0:04:08.281 Lo qué es una decisión[br]bien intencionada para uno 0:04:08.305,0:04:10.382 es una censura absoluta para la siguiente. 0:04:10.759,0:04:13.688 Lo que ahora sabemos es que [br]esta cuenta, Texas Lone Star, 0:04:13.712,0:04:16.942 fue parte de una campaña de[br]desinformación rusa más amplia, 0:04:16.966,0:04:19.117 una que desde entonces ha sido eliminada. 0:04:19.141,0:04:20.874 ¿Eso cambiaría su punto de vista? 0:04:21.322,0:04:22.481 Cambiaría el mío, 0:04:22.505,0:04:24.806 porque ahora se trata [br]de una campaña coordinada 0:04:24.830,0:04:26.045 para sembrar discordia. 0:04:26.069,0:04:28.030 Y para quienes les gustaría pensar 0:04:28.054,0:04:30.645 que la IA resolverá [br]todos nuestros problemas, 0:04:30.679,0:04:33.134 creo que estaremos de acuerdo [br]que estamos muy lejos 0:04:33.158,0:04:36.205 de que la IA pueda dar sentido [br]a publicaciones como esta. 0:04:36.426,0:04:39.363 Así que me gustaría explicar[br]tres problemas entrelazados 0:04:39.387,0:04:41.760 que hacen que esto sea tan complejo 0:04:41.784,0:04:45.046 y que luego piensen en formas[br]para abordar estos desafíos. 0:04:45.348,0:04:49.238 Primero, simplemente no tenemos [br]una relación racional con la información, 0:04:49.262,0:04:50.730 Tenemos una emocional. 0:04:50.754,0:04:54.548 Simplemente, no es cierto que [br]más hechos harán que todo esté bien, 0:04:54.572,0:04:57.672 porque los algoritmos [br]que determinan qué contenido vemos 0:04:57.696,0:05:00.823 están diseñados para recompensar [br]nuestras respuestas emocionales. 0:05:00.847,0:05:02.228 Y cuando tenemos miedo, 0:05:02.252,0:05:05.426 narraciones demasiado simplificadas, [br]explicaciones conspirativas 0:05:05.450,0:05:08.868 y el lenguaje que demoniza a los demás [br]es mucho más efectivo. 0:05:09.538,0:05:11.412 Y además, muchas de estas empresas, 0:05:11.436,0:05:13.982 su modelo de negocio [br]está unido a la atención, 0:05:14.006,0:05:17.696 lo que significa que estos algoritmos[br]estarán sesgados hacia la emoción. 0:05:18.371,0:05:22.669 Segundo, la mayor parte del discurso [br]del que estoy hablando aquí es legal. 0:05:23.081,0:05:24.527 Seria un asunto diferente 0:05:24.551,0:05:26.892 si hablara de imágenes [br]de abuso sexual infantil 0:05:26.916,0:05:28.843 o contenido que incita a la violencia. 0:05:28.867,0:05:32.137 Puede ser perfectamente legal [br]publicar una mentira absoluta. 0:05:33.130,0:05:37.164 Pero la gente sigue hablando de eliminar [br]contenido "problemático" o "dañino", 0:05:37.188,0:05:39.797 pero sin una definición clara [br]de lo que quieren decir, 0:05:39.821,0:05:41.225 incluyendo a Mark Zuckerberg, 0:05:41.259,0:05:44.691 quien recientemente pidió una [br]regulación global para moderar el habla. 0:05:44.870,0:05:47.085 Y mi preocupación es que vemos gobiernos 0:05:47.109,0:05:48.401 en todo el mundo 0:05:48.425,0:05:51.101 implementar decisiones [br]políticas apresuradas 0:05:51.125,0:05:53.871 que podrían desencadenar [br]consecuencias mucho más graves 0:05:53.895,0:05:55.609 cuando se trata de nuestra charla. 0:05:56.006,0:05:59.712 E incluso si pudiéramos decidir [br]qué charla dejar o eliminar. 0:05:59.736,0:06:01.910 Nunca hemos tenido tantas charlas. 0:06:01.934,0:06:04.735 Cada segundo, se suben [br]millones de piezas de contenido 0:06:04.769,0:06:06.196 de personas de todo el mundo 0:06:06.220,0:06:07.388 en diferentes idiomas 0:06:07.412,0:06:10.180 aprovechando miles [br]de diferentes contextos culturales. 0:06:10.204,0:06:12.636 Simplemente nunca hemos tenido [br]mecanismos efectivos 0:06:12.636,0:06:14.852 para moderar la libre expresión[br]a esta escala, 0:06:14.852,0:06:17.323 ya sea impulsada por humanos [br]o por tecnología. 0:06:18.284,0:06:22.228 Y en tercer lugar, estas empresas [br](Google, Twitter, Facebook, WhatsApp) 0:06:22.252,0:06:25.093 son parte de un ecosistema [br]de información más amplio. 0:06:25.117,0:06:28.663 Nos gusta echarles toda la culpa a ellos, [br]pero la verdad es que los medios 0:06:28.713,0:06:32.323 y los funcionarios electos también [br]pueden desempeñar un papel igual 0:06:32.347,0:06:35.260 en amplificar rumores [br]y conspiraciones cuando quieren. 0:06:35.800,0:06:40.744 Como podemos nosotros, al reenviar sin [br]pensar contenido divisivorio o engañoso 0:06:40.768,0:06:42.053 sin estar seguros. 0:06:42.077,0:06:44.927 Estamos agregando más a esa contaminación. 0:06:45.236,0:06:47.854 Sé que todos estamos buscando [br]una solución fácil. 0:06:47.878,0:06:49.545 Pero simplemente no la hay. 0:06:49.950,0:06:52.172 Cualquier solución [br]tendrá que implementarse 0:06:52.172,0:06:54.395 a gran escala, escala de Internet, 0:06:54.419,0:06:57.680 y sí, las plataformas, están acostumbradas[br]a operar a ese nivel. 0:06:57.704,0:07:01.176 pero ¿podemos y debemos permitirles [br]que solucionen estos problemas? 0:07:01.448,0:07:02.980 Ciertamente lo están intentando. 0:07:03.004,0:07:05.510 Estamos de acuerdo en que[br]no queremos que sean 0:07:05.514,0:07:09.136 las corporaciones globales las guardianas[br]de la verdad y equidad en línea. 0:07:09.180,0:07:12.197 Y también creo que las plataformas [br]estarían de acuerdo con eso. 0:07:12.257,0:07:15.138 Y en este momento, [br]están marcando su propia tarea. 0:07:15.162,0:07:16.050 Les gusta decirnos 0:07:16.104,0:07:18.833 que las intervenciones que están[br]implementando funcionan, 0:07:18.877,0:07:21.527 pero como hacen sus propios informes [br]de transparencia, 0:07:21.551,0:07:25.169 no se puede verificar independientemente[br]lo que realmente está sucediendo. 0:07:26.431,0:07:29.773 (Aplausos) 0:07:29.797,0:07:32.379 Y seamos claros que la mayoría[br]de los cambios que vemos 0:07:32.423,0:07:35.831 solo suceden después de que [br]los periodistas inicien una investigación 0:07:35.881,0:07:37.372 y encuentren evidencia de sesgo 0:07:37.426,0:07:40.255 o contenido que rompe[br]las pautas de su comunidad. 0:07:40.815,0:07:45.410 Sí, estas compañías tienen que jugar de [br]verdad un papel importante en el proceso, 0:07:45.434,0:07:46.994 pero no pueden controlarlo. 0:07:47.855,0:07:49.373 ¿Y qué hay de los gobiernos? 0:07:49.863,0:07:52.959 Muchos creen que la regulación global[br]es nuestra última esperanza. 0:07:52.983,0:07:55.863 en términos de limpieza de[br]nuestro ecosistema de información. 0:07:55.887,0:07:59.053 Pero lo que veo son legisladores [br]que luchan por mantenerse al día 0:07:59.077,0:08:01.418 con los rápidos cambios en la tecnología. 0:08:01.442,0:08:03.346 Y peor, trabajan en la oscuridad, 0:08:03.370,0:08:05.191 porque no tienen acceso a los datos 0:08:05.215,0:08:08.025 para entender lo que está[br]sucediendo en estas plataformas. 0:08:08.260,0:08:11.331 Y de todos modos, ¿en qué gobiernos[br]confiaríamos para hacer esto? 0:08:11.355,0:08:14.125 Necesitamos una respuesta global, [br]no nacional. 0:08:15.419,0:08:17.696 Entonces el eslabón perdido [br]somos nosotros. 0:08:17.720,0:08:20.843 Son esas personas que usan [br]estas tecnologías todos los días. 0:08:21.260,0:08:25.851 ¿Podemos diseñar una nueva infraestructura[br]para soportar información de calidad? 0:08:26.371,0:08:27.601 Bueno, creo que podemos 0:08:27.625,0:08:30.982 y tengo algunas ideas sobre lo que [br]realmente podríamos hacer. 0:08:31.006,0:08:34.109 En primer lugar, si nos tomamos[br]en serio atraer al público a esto, 0:08:34.133,0:08:36.514 ¿podemos inspirarnos en Wikipedia? 0:08:36.538,0:08:38.362 Nos han mostrado lo que es posible. 0:08:38.386,0:08:39.537 Si, no es perfecto 0:08:39.561,0:08:42.195 pero han demostrado que [br]con las estructuras correctas, 0:08:42.219,0:08:44.834 con una perspectiva global[br]y mucha, mucha transparencia, 0:08:44.878,0:08:47.974 puedes construir algo que se ganará [br]la confianza de las personas. 0:08:47.998,0:08:51.290 Tenemos que encontrar una manera[br]de aprovechar la sabiduría colectiva 0:08:51.354,0:08:53.493 y la experiencia de todos los usuarios. 0:08:53.517,0:08:56.013 En particular las mujeres, [br]las personas de color 0:08:56.057,0:08:57.533 y los grupos subrepresentados. 0:08:57.557,0:08:58.723 ¿Porque adivinen qué? 0:08:58.747,0:09:01.482 Son expertos en odio y desinformación, 0:09:01.506,0:09:05.022 porque han sido los objetivos de estas [br]campañas durante mucho tiempo. 0:09:05.046,0:09:07.396 Y a lo largo de los años,[br]han levantando banderas, 0:09:07.420,0:09:09.085 y no han sido escuchados 0:09:09.109,0:09:10.389 Esto tiene que cambiar. 0:09:10.807,0:09:15.133 ¿Podríamos construir [br]una Wikipedia para la confianza? 0:09:15.157,0:09:19.346 ¿Podríamos encontrar una forma en que [br]los usuarios realmente proporcionen ideas? 0:09:19.370,0:09:23.067 Podrían ofrecer ideas sobre decisiones [br]difíciles de moderación de contenido. 0:09:23.091,0:09:24.554 Podrían comentar 0:09:24.578,0:09:27.619 cuando las plataformas decidan [br]implementar nuevos cambios. 0:09:28.241,0:09:32.403 Segundo, las experiencias de las personas [br]con la información son personalizadas. 0:09:32.427,0:09:35.360 Mi fuente de noticias de Facebook[br]es diferente de la de Uds. 0:09:35.384,0:09:37.739 Igual sus recomendaciones de YouTube. 0:09:37.863,0:09:40.355 Eso hace que sea imposible [br]para nosotros examinar 0:09:40.379,0:09:42.402 qué información está viendo la gente. 0:09:42.815,0:09:44.774 Entonces ¿podríamos imaginar desarrollar 0:09:44.838,0:09:49.006 algún tipo de repositorio abierto [br]centralizado para datos anonimos, 0:09:49.030,0:09:51.894 con privacidad y [br]preocupaciones éticas incorporadas? 0:09:52.220,0:09:53.998 Porque imaginen lo que aprenderíamos 0:09:54.022,0:09:57.283 si construyeramos una red global [br]de ciudadanos preocupados 0:09:57.307,0:10:00.601 que quisieran donar [br]sus datos sociales a la ciencia. 0:10:01.101,0:10:02.423 Porque sabemos muy poco 0:10:02.443,0:10:05.579 sobre las consecuencias a largo plazo[br]del odio y la desinformación 0:10:05.599,0:10:08.177 sobre las actitudes [br]y comportamientos de las personas. 0:10:08.236,0:10:09.403 Y lo que sabemos, 0:10:09.427,0:10:11.730 la mayoría se ha llevado a cabo en EE. UU. 0:10:11.754,0:10:14.025 a pesar del hecho de que [br]es un problema global. 0:10:14.049,0:10:15.894 Necesitamos trabajar en eso también. 0:10:16.192,0:10:17.172 Y tercero, 0:10:17.196,0:10:19.676 ¿podemos encontrar una manera[br]de conectar los puntos? 0:10:19.700,0:10:23.138 Ningún sector, y mucho menos [br]sin fines de lucro, start-up o gobierno, 0:10:23.162,0:10:24.584 va a resolver esto 0:10:24.608,0:10:27.172 Pero hay personas [br]muy inteligentes en todo el mundo. 0:10:27.196,0:10:28.577 trabajando en estos desafíos, 0:10:28.601,0:10:32.177 de redacciones, sociedad civil, [br]academia, grupos activistas. 0:10:32.201,0:10:34.099 Pueden ver algunos aquí. 0:10:34.123,0:10:36.980 Unos construyen [br]indicadores de credibilidad de contenido. 0:10:37.024,0:10:39.280 Otros verifican hechos,[br]para que las plataformas 0:10:39.324,0:10:41.884 puedan clasificar noticias falsas,[br]videos e imágenes 0:10:41.919,0:10:44.386 Una organización[br]sin fines de lucro, First Draft, 0:10:44.456,0:10:47.164 trabaja con redacciones normalmente[br]competitivas del mundo 0:10:47.188,0:10:50.691 para ayudarlos a desarrollar programas [br]de investigación y colaboración. 0:10:51.231,0:10:53.170 Danny Hillis, un arquitecto de software, 0:10:53.194,0:10:55.825 está diseñando un nuevo sistema [br]llamado The Underlay, 0:10:55.859,0:10:58.634 un registro de todas [br]las declaraciones públicas de hechos 0:10:58.668,0:10:59.997 conectado a sus fuentes, 0:11:00.051,0:11:03.775 para que las personas y los algoritmos [br]puedan juzgar mejor lo que es creíble. 0:11:04.800,0:11:08.156 Y los educadores de todo el mundo [br]están probando diferentes técnicas. 0:11:08.180,0:11:11.864 para encontrar formas de hacer que la[br]gente critique el contenido que consume. 0:11:12.633,0:11:16.024 Todos estos esfuerzos son maravillosos, [br]pero están trabajando en silos, 0:11:16.078,0:11:18.478 y muchos de ellos [br]no tienen fondos suficientes. 0:11:18.502,0:11:20.825 También hay cientos[br]de personas muy inteligentes. 0:11:20.859,0:11:22.231 trabajando en esas empresas, 0:11:22.255,0:11:25.200 pero de nuevo, esos esfuerzos [br]pueden sentirse desarticulados, 0:11:25.224,0:11:28.851 porque están desarrollando diferentes [br]soluciones a los mismos problemas. 0:11:29.205,0:11:31.624 ¿Cómo encontrar[br]una manera de unir a las personas 0:11:31.678,0:11:34.646 en una ubicación física [br]por días o semanas, 0:11:34.690,0:11:37.086 para que puedan abordar [br]estos problemas juntos, 0:11:37.130,0:11:39.038 pero desde sus diferentes perspectivas? 0:11:39.062,0:11:40.402 ¿Podemos hacer eso? 0:11:40.426,0:11:43.665 ¿Podemos construir [br]una respuesta coordinada y ambiciosa, 0:11:43.689,0:11:47.398 una que coincida con la escala [br]y la complejidad del problema? 0:11:47.819,0:11:49.192 Realmente creo que podemos. 0:11:49.216,0:11:52.175 Juntos, reconstruyamos nuestros [br]bienes comunes de información. 0:11:52.819,0:11:54.009 Gracias. 0:11:54.033,0:11:57.761 (Aplausos)