1 00:00:17,924 --> 00:00:21,239 El 28 de octubre de 2017 un grupo de ancianos 2 00:00:21,239 --> 00:00:25,346 visitaba el Parque de la Naturaleza de Cabárceno, en Cantabria. 3 00:00:25,346 --> 00:00:28,190 Cuando se encontraban en el recinto de los hipopótamos 4 00:00:28,190 --> 00:00:32,270 uno de los animales les sorprendió con una enorme ventosidad 5 00:00:32,270 --> 00:00:35,300 que provocó la caída de varios de los ancianos. 6 00:00:35,540 --> 00:00:38,549 Tres de ellos tuvieron que ser hospitalizados. 7 00:00:39,630 --> 00:00:41,130 Parece increíble, ¿no? 8 00:00:41,450 --> 00:00:43,050 Pues, este titular, 9 00:00:43,050 --> 00:00:44,320 "El pedo de un hipopótamo 10 00:00:44,320 --> 00:00:48,370 acaba con tres visitantes del zoo ingresados en el hospital", 11 00:00:48,370 --> 00:00:51,890 se publicó en varios medios que todos consideraríamos serios, 12 00:00:51,990 --> 00:00:55,070 que nos parece que tienen credibilidad, que nos parecen fiables. 13 00:00:55,900 --> 00:00:56,940 Y, sin embargo, 14 00:00:56,940 --> 00:00:59,240 este titular es falso, 15 00:00:59,590 --> 00:01:00,920 es un bulo. 16 00:01:01,910 --> 00:01:03,410 Hace unos meses mi vida cambió. 17 00:01:03,410 --> 00:01:05,480 Dejé mi trabajo en un programa de televisión 18 00:01:05,480 --> 00:01:07,300 para crear, junto con otro compañero, 19 00:01:07,300 --> 00:01:09,210 un proyecto periodístico independiente 20 00:01:09,210 --> 00:01:11,460 que luchara contra la desinformación, 21 00:01:11,460 --> 00:01:13,380 que apostara por el periodismo de datos, 22 00:01:13,380 --> 00:01:14,490 por la verificación, 23 00:01:14,490 --> 00:01:15,890 por la transparencia, 24 00:01:16,090 --> 00:01:17,860 y por la memoria, por la hemeroteca. 25 00:01:18,090 --> 00:01:21,120 Que ayudara a los ciudadanos a distinguir entre lo que es verdad 26 00:01:21,719 --> 00:01:23,159 y lo que es mentira. 27 00:01:23,439 --> 00:01:24,899 De eso os quiero hablar hoy. 28 00:01:24,899 --> 00:01:26,069 Arrancamos. 29 00:01:26,309 --> 00:01:31,519 (Pitidos) 30 00:01:31,720 --> 00:01:35,150 Cuando oímos esto, sabemos que vamos a escuchar un boletín informativo. 31 00:01:35,150 --> 00:01:40,230 Identificamos estos pitos con el consumo de información por la radio. 32 00:01:40,800 --> 00:01:41,930 Vemos esto: 33 00:01:41,930 --> 00:01:50,930 (Música) 34 00:01:50,930 --> 00:01:53,180 y sabemos que lo que empieza es el telediario. 35 00:01:53,180 --> 00:01:58,010 Asociamos esas imágenes y esa música con el consumo de información audiovisual. 36 00:01:58,010 --> 00:02:03,630 Tocamos este papel, lo tenemos en la mano y sabemos que esto, este papel, 37 00:02:03,630 --> 00:02:07,650 es un formato de consumo de información: un periódico. 38 00:02:07,650 --> 00:02:11,860 Nuestros sentidos asocian estos formatos con noticias. 39 00:02:11,860 --> 00:02:15,400 Aunque nos pueden mentir, ¿eh? Que veo alguna cara rara entre el público. 40 00:02:15,400 --> 00:02:18,190 Lo que tenemos interiorizado es que, en estos formatos, 41 00:02:18,190 --> 00:02:20,540 lo que recibimos es información. 42 00:02:20,900 --> 00:02:24,340 Esto es lo que en maldita.es llamamos "el ancla". 43 00:02:24,340 --> 00:02:27,050 Quedaros con esto, porque me lo vais a oír más de una vez. 44 00:02:27,050 --> 00:02:28,240 Y entonces me diréis: 45 00:02:28,240 --> 00:02:30,480 "¿Qué ha cambiado? ¿Qué es diferente?" 46 00:02:30,480 --> 00:02:32,095 (Audio de Donald Trump en inglés) 47 00:02:32,095 --> 00:02:34,830 "Estamos luchando contra las noticias falsas. 48 00:02:34,830 --> 00:02:37,570 Denomino a las noticias falsas 'el enemigo del pueblo'. 49 00:02:37,570 --> 00:02:39,690 Y lo son. Noticias falsas". 50 00:02:39,690 --> 00:02:40,610 (Termina el audio) 51 00:02:40,610 --> 00:02:42,340 Esto es lo que ha cambiado: 52 00:02:42,340 --> 00:02:44,490 llevar Internet todo el rato en el bolsillo 53 00:02:44,490 --> 00:02:48,450 y consumir cada vez más noticias a través de WhatsApp, de Twitter, 54 00:02:48,450 --> 00:02:50,500 de Facebook, de Instagram. 55 00:02:50,500 --> 00:02:52,090 Que está muy bien, ojo. 56 00:02:52,090 --> 00:02:56,330 Pero, aquí es donde la desinformación tiene más fácil imitar a la información, 57 00:02:56,330 --> 00:02:57,710 disfrazarse de ella. 58 00:02:57,810 --> 00:03:01,070 Y aquí es donde ese ancla de la que hablábamos al principio 59 00:03:01,070 --> 00:03:02,280 se difumina. 60 00:03:02,520 --> 00:03:04,100 ¿Cómo pasa esto? 61 00:03:04,730 --> 00:03:06,790 Esto es una noticia real. 62 00:03:06,970 --> 00:03:10,470 Y esto es una desinformación, lo que mucha gente llama, 63 00:03:10,470 --> 00:03:13,400 aunque a mí no me gusta mucho el término, una noticia falsa, 64 00:03:13,400 --> 00:03:14,430 un "fake news". 65 00:03:14,430 --> 00:03:17,130 Porque, cuando yo digo que algo es una noticia falsa, 66 00:03:17,130 --> 00:03:18,770 no estoy refiriéndome a lo mismo 67 00:03:18,770 --> 00:03:22,120 que cuando Donald Trump dice que la CNN son "fake news". 68 00:03:22,120 --> 00:03:26,550 Porque esto no es una noticia. Nunca ha pretendido serlo. 69 00:03:26,550 --> 00:03:29,390 Es solamente un disfraz para desinformar. 70 00:03:29,390 --> 00:03:32,130 Esto es muy importante que lo tengamos en la cabeza. 71 00:03:32,130 --> 00:03:34,180 Y, sin embargo, ¿a que se parecen un montón? 72 00:03:34,180 --> 00:03:37,320 Parece que son el mismo formato con su titular, su foto. 73 00:03:37,320 --> 00:03:41,450 No tenemos referencias que nos indiquen que una es verdadera y otra es falsa. 74 00:03:41,450 --> 00:03:43,810 A esto tenemos que sumarle otro problema: 75 00:03:43,810 --> 00:03:48,500 cada vez consumimos más las noticias individualmente, aisladas, sin contexto. 76 00:03:48,500 --> 00:03:51,550 Cada vez entramos menos en la página de un medio de comunicación, 77 00:03:51,550 --> 00:03:54,840 en su portada, para ver qué ha decidido la redacción que es importante 78 00:03:54,840 --> 00:03:58,310 y consumimos las noticias a través de lo que nos llega por redes sociales: 79 00:03:58,310 --> 00:04:00,230 por WhatsApp, por Facebook. 80 00:04:00,230 --> 00:04:03,850 Sin saber muy bien a qué tipo de página estamos entrando para consumir, 81 00:04:03,850 --> 00:04:06,440 o si es un medio fiable o no lo es. 82 00:04:06,440 --> 00:04:10,380 Por ejemplo: "Urdangarín tendrá una paga en Suiza para sus gastos". 83 00:04:10,380 --> 00:04:13,520 Este titular se viralizó muchísimo. 84 00:04:13,520 --> 00:04:17,339 Hay mucha gente que, a día de hoy, cree que, efectivamente, 85 00:04:17,339 --> 00:04:19,450 el cuñado del rey, condenado por corrupción, 86 00:04:19,450 --> 00:04:21,750 recibió una paga de la Casa Real para sus gastos. 87 00:04:21,750 --> 00:04:25,460 Igual alguno está sentado por aquí y está descubriendo ahora que es mentira. 88 00:04:25,460 --> 00:04:27,050 ¿Por qué pasó esto? 89 00:04:27,050 --> 00:04:30,660 Porque esta noticia se viralizó sin contexto, sin ancla. 90 00:04:30,660 --> 00:04:33,430 Os vamos a demostrar por qué esto es tan importante. 91 00:04:33,430 --> 00:04:37,040 Si vemos esta noticia en la portada de El País o de El Mundo, 92 00:04:37,040 --> 00:04:40,400 podríamos pensar por el contexto, por lo que le rodea, 93 00:04:40,400 --> 00:04:42,580 que esta noticia es verosímil, 94 00:04:42,580 --> 00:04:44,830 que podría ser que el cuñado del rey, condenado, 95 00:04:44,830 --> 00:04:46,385 hubiera tenido esos privilegios. 96 00:04:46,385 --> 00:04:50,800 Pero, ¿y si la vemos aquí, en su verdadero origen, 97 00:04:50,800 --> 00:04:52,860 de donde surge esta noticia? 98 00:04:52,860 --> 00:04:56,890 Precisamente por lo que le rodea, por el contexto que tiene alrededor, 99 00:04:56,890 --> 00:05:00,530 hay algo que nos hace pensar que podría no ser creíble. 100 00:05:02,330 --> 00:05:04,720 Pues esto tiene otra vuelta de tuerca. 101 00:05:04,720 --> 00:05:07,240 A veces ni siquiera consumimos la noticia. 102 00:05:07,240 --> 00:05:10,999 A veces solamente consumimos la foto y el titular. 103 00:05:11,899 --> 00:05:13,510 ¿Y si lo vemos así? 104 00:05:14,380 --> 00:05:17,300 No tenemos ninguna referencia. No sabemos de dónde sale. 105 00:05:17,300 --> 00:05:20,020 No sabemos cuál es la fuente. No sabemos cuál es la fecha. 106 00:05:20,020 --> 00:05:21,810 No sabemos si es fiable o no. 107 00:05:21,810 --> 00:05:23,600 Os voy a poner otro ejemplo: 108 00:05:23,600 --> 00:05:27,240 "Vuelve el servicio militar obligatorio para menores de 25 años". 109 00:05:27,240 --> 00:05:29,560 Recibimos esto en nuestro móvil. 110 00:05:29,560 --> 00:05:32,900 Es un titular, una foto, no hay link, casi no hay fecha, 111 00:05:32,900 --> 00:05:36,280 porque ni siquiera dice el año, y no tenemos ni idea de dónde ha salido. 112 00:05:36,280 --> 00:05:38,480 ¿Dónde ubica esto nuestro imaginario? 113 00:05:38,480 --> 00:05:41,680 ¿En una web creíble o en una no creíble? 114 00:05:42,070 --> 00:05:43,800 ¿Qué nos dicen nuestros sentidos? 115 00:05:44,110 --> 00:05:47,070 No tenemos contexto. No tenemos ancla. 116 00:05:47,250 --> 00:05:51,890 Y a esto se le suma otra clave: la desinformación se democratiza. 117 00:05:52,440 --> 00:05:54,170 ¿Sabéis de dónde sale este titular? 118 00:05:54,520 --> 00:05:57,900 De aquí, de una web creada solamente 119 00:05:57,900 --> 00:06:01,640 para que puedas convertir tus bulos en formato de noticia. 120 00:06:02,220 --> 00:06:06,140 Antes desinformaba el poder, quien tenía capacidad de hacerlo: 121 00:06:06,140 --> 00:06:08,600 las élites económicas, los gobiernos, 122 00:06:08,600 --> 00:06:11,240 los grandes medios de comunicación, la Iglesia. 123 00:06:11,620 --> 00:06:15,470 Ahora, con herramientas como esta, puede desinformar casi cualquier persona. 124 00:06:15,940 --> 00:06:20,380 Y eso cada vez es más fácil y cada vez es más peligroso. 125 00:06:20,860 --> 00:06:23,680 Vamos a por qué se fabrican este tipo de noticias falsas. 126 00:06:23,680 --> 00:06:26,490 Nosotros hemos identificado tres razones: 127 00:06:26,860 --> 00:06:31,220 la primera, por pura maldad, por puro divertimento. 128 00:06:31,220 --> 00:06:34,170 Por crear contenidos falsos para ver hasta dónde pueden llegar, 129 00:06:34,170 --> 00:06:36,180 a cuánta gente son capaces de convencer. 130 00:06:36,180 --> 00:06:39,170 Y hay situaciones en las que esto se vuelve muy peligroso. 131 00:06:39,560 --> 00:06:42,050 ¿Os acordáis de Frida Sofía, la niña de 12 años 132 00:06:42,050 --> 00:06:45,400 que se encontraba sepultada bajo los escombros de un colegio en México? 133 00:06:45,400 --> 00:06:47,000 Todo un país buscándola. 134 00:06:47,000 --> 00:06:50,269 Todos los medios de comunicación del mundo pendiente de ella. 135 00:06:50,269 --> 00:06:53,030 Y resultó que la niña no existía. 136 00:06:53,300 --> 00:06:55,270 Era una noticia falsa. 137 00:06:55,400 --> 00:06:57,360 Era una noticia creada solamente 138 00:06:57,360 --> 00:07:00,600 para generar el caos en una situación de emergencia. 139 00:07:00,850 --> 00:07:02,760 Esto en España lo hemos vivido, 140 00:07:02,760 --> 00:07:06,030 en los incendios de Galicia y de Asturias del año 2017, 141 00:07:06,030 --> 00:07:09,860 cuando las llamas estaban ya llegando casi a las casas en Vigo, 142 00:07:09,860 --> 00:07:12,250 de repente, surgió una alerta en redes: 143 00:07:12,780 --> 00:07:17,650 "No se puede beber agua del grifo. No es potable. Está contaminada". 144 00:07:18,390 --> 00:07:22,769 Esto corrió por WhatsApp como la pólvora y resultó ser una alerta falsa. 145 00:07:23,039 --> 00:07:25,140 Y, ojo, porque no fue la única. 146 00:07:25,140 --> 00:07:28,390 Este es un mapa de algunas de las desinformaciones que corrieron 147 00:07:28,390 --> 00:07:31,630 en una sola noche de incendios en la que los vecinos, 148 00:07:31,630 --> 00:07:33,760 mientras luchaban contra las llamas, 149 00:07:33,760 --> 00:07:36,450 tuvieron también que luchar contra el miedo que infundían 150 00:07:36,450 --> 00:07:38,650 estas desinformaciones que llegaban a su móvil. 151 00:07:38,650 --> 00:07:40,900 Esto es peligrosísimo y os aviso, 152 00:07:40,900 --> 00:07:44,740 si alguna vez se os ocurre hacer algo parecido, estamos vigilantes. 153 00:07:45,250 --> 00:07:48,880 Vamos por la segunda razón: la pasta; por hacer caja. 154 00:07:48,880 --> 00:07:53,930 Porque generar contenidos falsos, hay gente que gana dinero con ello. 155 00:07:54,350 --> 00:07:56,820 Durante las elecciones norteamericanas, 156 00:07:56,820 --> 00:08:01,260 en Macedonia, un grupo de jóvenes se puso a fabricar noticias falsas. 157 00:08:01,370 --> 00:08:04,130 Empezaron haciéndolas contra Trump y contra Hillary Clinton 158 00:08:04,130 --> 00:08:08,150 y, rápidamente, se dieron cuenta de que las noticias contra Trump no daban dinero, 159 00:08:08,150 --> 00:08:10,200 así que fueron a saco a por Hillary Clinton. 160 00:08:10,490 --> 00:08:11,650 Y dio resultado. 161 00:08:11,890 --> 00:08:13,850 Ganaron miles de euros. 162 00:08:14,120 --> 00:08:16,650 En España hay páginas que hacen una cosa parecida: 163 00:08:16,650 --> 00:08:20,520 generan contenidos falsos para que la gente haga clic y entre a su web 164 00:08:20,520 --> 00:08:22,480 y ellos puedan cobrar publicidad. 165 00:08:22,480 --> 00:08:25,780 Y nos dicen en el aviso legal que es que son satíricas, 166 00:08:25,780 --> 00:08:27,760 que solamente lo hacen por la broma. 167 00:08:27,760 --> 00:08:31,970 Aunque, claro, a veces no lo hacen para hacer risa, sino para ganar dinero. 168 00:08:32,730 --> 00:08:35,169 Y habrá algún escéptico en la sala que me diga: 169 00:08:35,169 --> 00:08:38,789 "¿Y quiénes sois vosotros para decidir lo que es satírico y lo que no lo es?" 170 00:08:39,150 --> 00:08:40,320 Pues nadie. 171 00:08:40,320 --> 00:08:44,028 Por eso, lo único que hacemos es deciros en los manuales sobre desinformación, 172 00:08:44,030 --> 00:08:47,560 que hay que mirar el aviso legal de las páginas en las que leemos las cosas 173 00:08:47,560 --> 00:08:48,610 antes de creérnoslas. 174 00:08:48,610 --> 00:08:51,230 Os avisamos con nuestras herramientas tecnológicas 175 00:08:51,230 --> 00:08:53,510 de que estáis entrando en una página satírica, 176 00:08:53,510 --> 00:08:55,000 como mediante nuestra extensión 177 00:08:55,000 --> 00:08:58,670 y procuramos que los ciudadanos estéis lo más informados posible 178 00:08:58,670 --> 00:09:00,460 para que no os cuelen las mentiras. 179 00:09:00,750 --> 00:09:05,560 Y hay una tercera razón, que a mí me parece la más peligrosa: 180 00:09:05,790 --> 00:09:08,420 los bulos que se fabrican por ideología. 181 00:09:08,620 --> 00:09:11,540 Los que se fabrican para distorsionar nuestra realidad, 182 00:09:11,540 --> 00:09:14,200 para crear un determinado estado de opinión 183 00:09:14,200 --> 00:09:16,240 que favorece unas ideas determinadas. 184 00:09:16,240 --> 00:09:19,120 Esto en Europa lo hemos vivido: con el Brexit, 185 00:09:19,120 --> 00:09:21,900 con Cataluña, con la crisis de refugiados. 186 00:09:22,480 --> 00:09:27,480 ¿Quién no ha recibido en su móvil un vídeo, un audio, una imagen, 187 00:09:27,480 --> 00:09:30,790 una cadena de WhatsApp contra la inmigración en los últimos meses? 188 00:09:31,030 --> 00:09:34,020 Estos mensajes reenviados entre miles y miles de personas, 189 00:09:34,020 --> 00:09:36,930 a veces, tienen apariencia de credibilidad, 190 00:09:36,930 --> 00:09:39,410 a veces son un titular y una foto, 191 00:09:39,410 --> 00:09:43,700 pero no tienen fuente, no tienen fecha, no tienen ancla. 192 00:09:44,610 --> 00:09:46,810 También hay titulares como este: 193 00:09:46,810 --> 00:09:51,340 "Una familia acoge a un refugiado y viola y deja embarazada a su hija de 12 años". 194 00:09:51,820 --> 00:09:54,240 Este titular es falso. 195 00:09:54,470 --> 00:09:58,390 El hombre no era refugiado y no vivía acogido en la familia. 196 00:09:58,970 --> 00:10:02,640 Y, sin embargo, a día de hoy, este titular sigue publicado 197 00:10:02,640 --> 00:10:08,950 y aquellas personas que lo hayan leído relacionan refugiado con violador. 198 00:10:09,990 --> 00:10:14,440 Este es el ecosistema en el que nos encontramos y es muy peligroso. 199 00:10:14,440 --> 00:10:15,850 Solamente os digo una cosa: 200 00:10:15,850 --> 00:10:19,470 si alguna vez no tenéis claro algo, no lo compartáis. 201 00:10:19,470 --> 00:10:21,820 Es el mejor consejo que os voy a poder dar hoy. 202 00:10:21,820 --> 00:10:26,000 Estamos en un punto en el que los bulos pueden pasar de ser simples mentiras 203 00:10:26,000 --> 00:10:28,519 a convertirse en creencias. 204 00:10:28,519 --> 00:10:30,340 La desinformación va calando 205 00:10:30,340 --> 00:10:35,879 y las personas dejan de creer en la evidencia científica, por ejemplo. 206 00:10:35,879 --> 00:10:38,830 Lo estamos viendo en Italia con los anti-vacunas 207 00:10:38,830 --> 00:10:41,830 que están ganando la batalla con el vicepresidente a la cabeza. 208 00:10:42,210 --> 00:10:44,420 Empezamos a creer que la Tierra es plana. 209 00:10:45,190 --> 00:10:48,060 Empezamos a defender que el hombre no ha llegado a la Luna. 210 00:10:48,980 --> 00:10:50,890 Empezamos a beber leche cruda. 211 00:10:52,240 --> 00:10:53,709 ¿Y cómo podemos combatir esto? 212 00:10:53,709 --> 00:10:56,320 Bueno, pues hay quien dice que con legislación. 213 00:10:56,600 --> 00:10:58,670 Hay quien dice que debería de ser un juez 214 00:10:58,670 --> 00:11:01,040 o incluso una institución dependiente del Estado 215 00:11:01,040 --> 00:11:04,820 la que decida entre lo que es verdad y lo que es mentira. 216 00:11:05,070 --> 00:11:07,330 Nosotros creemos que ese no es el camino, 217 00:11:07,330 --> 00:11:10,229 porque la línea entre una legislación anti-bulos 218 00:11:10,229 --> 00:11:13,539 y la censura es excesivamente delgada. 219 00:11:13,539 --> 00:11:15,610 Y no estamos solos en esto. 220 00:11:15,610 --> 00:11:17,330 Los expertos de la Comisión Europea, 221 00:11:17,330 --> 00:11:19,190 un grupo de expertos que se formó hace unos meses, 222 00:11:19,190 --> 00:11:20,740 del que nosotros formamos parte, 223 00:11:20,740 --> 00:11:23,199 también creen que todavía no estamos preparados 224 00:11:23,199 --> 00:11:25,890 para legislar en caliente contra la desinformación. 225 00:11:25,890 --> 00:11:29,689 No conocemos suficientemente el fenómeno y necesitamos seguir estudiándolo. 226 00:11:29,880 --> 00:11:32,670 Pero sí tenemos otras herramientas para luchar contra ella. 227 00:11:33,060 --> 00:11:37,000 Por ejemplo, con periodismo de datos y hechos, 228 00:11:37,000 --> 00:11:39,990 con tecnología de alerta temprana contra la desinformación, 229 00:11:40,500 --> 00:11:44,270 con la comunidad, con la educación y con vosotros. 230 00:11:44,270 --> 00:11:48,089 Porque os necesitamos para que nos alertéis de esa posible desinformación 231 00:11:48,089 --> 00:11:49,980 que se está moviendo en vuestras redes. 232 00:11:49,980 --> 00:11:52,280 Porque nosotros no podemos estar en todas partes, 233 00:11:52,280 --> 00:11:55,629 y mucho menos en ese chat de familia en el que, más de una vez, 234 00:11:55,629 --> 00:11:57,290 ha caído una desinformación, 235 00:11:57,290 --> 00:12:01,570 o en esos grupos cerrados de Facebook en los que un día sí y otro también 236 00:12:01,570 --> 00:12:04,220 se está publicando un 'meme' de un político de derechas, 237 00:12:04,220 --> 00:12:06,440 o un 'meme' de un político de izquierdas, 238 00:12:06,440 --> 00:12:08,590 o de un actor o de un personaje histórico, 239 00:12:08,590 --> 00:12:12,490 que son tremendamente polémicos, pero que no tienen ni fuente ni fecha. 240 00:12:12,780 --> 00:12:15,150 Cuando nos hacéis llegar esa desinformación, 241 00:12:15,150 --> 00:12:18,870 nuestro equipo se pone a trabajar con una metodología muy estricta. 242 00:12:18,870 --> 00:12:21,080 ¿Qué es lo que más se está viralizando? 243 00:12:21,080 --> 00:12:24,150 Eso es lo primero que vamos a intentar desmentir. 244 00:12:24,150 --> 00:12:26,150 A partir de ahí, trabajo periodístico: 245 00:12:26,150 --> 00:12:28,520 levantar el teléfono, hablar con las fuentes, 246 00:12:28,520 --> 00:12:32,090 verificar las imágenes y rastrear el origen de los vídeos. 247 00:12:32,200 --> 00:12:35,500 Y cuando ese trabajo está hecho y ya sabemos si es o no es un bulo, 248 00:12:35,630 --> 00:12:38,290 todo el equipo tiene que auditar al verificador 249 00:12:38,300 --> 00:12:42,390 y plantearle preguntas para saber si ha hecho o no ha hecho bien su trabajo. 250 00:12:42,830 --> 00:12:44,590 Y después votamos. 251 00:12:44,590 --> 00:12:47,760 Tiene que haber una mayoría de votos a favor de ese desmentido 252 00:12:47,760 --> 00:12:52,310 y ninguno en contra para que nosotros podamos estar seguros y listos 253 00:12:52,310 --> 00:12:55,590 para salir y deciros que algo es falso. 254 00:12:56,000 --> 00:12:59,310 Y ahí os volvemos a necesitar, porque tenéis que ser vosotros 255 00:12:59,310 --> 00:13:02,340 los que volváis a vuestros grupos de WhatsApp y de Facebook 256 00:13:02,340 --> 00:13:05,120 y le digáis a vuestros contactos que no, 257 00:13:05,610 --> 00:13:09,400 que eso no es verdad, que es un bulo. 258 00:13:09,400 --> 00:13:13,540 Periodismo, tecnología, comunidad y educación 259 00:13:13,540 --> 00:13:15,700 son las claves para salir de esta. 260 00:13:15,700 --> 00:13:17,580 No todo está perdido. 261 00:13:17,580 --> 00:13:21,470 Los periodistas que queremos hacer nuestro trabajo bien, existimos. 262 00:13:21,740 --> 00:13:23,160 Y somos mayoría. 263 00:13:23,370 --> 00:13:25,660 Sabemos que habéis dejado de confiar en nosotros, 264 00:13:25,660 --> 00:13:30,590 porque alguna vez hemos fallado, y os pedimos perdón, mil veces. 265 00:13:30,810 --> 00:13:35,250 Pero de esta, de la desinformación, de que no nos la cuelen ni los bulos, 266 00:13:35,250 --> 00:13:37,580 ni los poderes públicos, 267 00:13:37,580 --> 00:13:41,380 solamente salimos juntos, ciudadanos y periodistas. 268 00:13:41,380 --> 00:13:45,630 Porque el periodismo es la mejor herramienta para que no te la cuelen. 269 00:13:45,970 --> 00:13:47,240 Gracias por escuchar. 270 00:13:47,240 --> 00:13:50,989 (Aplausos)