0:00:17.924,0:00:21.239 El 28 de octubre de 2017[br]un grupo de ancianos 0:00:21.239,0:00:25.346 visitaba el Parque de la Naturaleza[br]de Cabárceno, en Cantabria. 0:00:25.346,0:00:28.190 Cuando se encontraban[br]en el recinto de los hipopótamos 0:00:28.190,0:00:32.270 uno de los animales les sorprendió[br]con una enorme ventosidad 0:00:32.270,0:00:35.300 que provocó la caída[br]de varios de los ancianos. 0:00:35.540,0:00:38.549 Tres de ellos tuvieron[br]que ser hospitalizados. 0:00:39.630,0:00:41.130 Parece increíble, ¿no? 0:00:41.450,0:00:43.050 Pues, este titular, 0:00:43.050,0:00:44.320 "El pedo de un hipopótamo 0:00:44.320,0:00:48.370 acaba con tres visitantes del zoo[br]ingresados en el hospital", 0:00:48.370,0:00:51.890 se publicó en varios medios[br]que todos consideraríamos serios, 0:00:51.990,0:00:55.070 que nos parece que tienen credibilidad,[br]que nos parecen fiables. 0:00:55.900,0:00:56.940 Y, sin embargo, 0:00:56.940,0:00:59.240 este titular es falso, 0:00:59.590,0:01:00.920 es un bulo. 0:01:01.910,0:01:03.410 Hace unos meses mi vida cambió. 0:01:03.410,0:01:05.480 Dejé mi trabajo[br]en un programa de televisión 0:01:05.480,0:01:07.300 para crear, junto con otro compañero, 0:01:07.300,0:01:09.210 un proyecto periodístico independiente 0:01:09.210,0:01:11.460 que luchara contra la desinformación, 0:01:11.460,0:01:13.380 que apostara por el periodismo de datos, 0:01:13.380,0:01:14.490 por la verificación, 0:01:14.490,0:01:15.890 por la transparencia, 0:01:16.090,0:01:17.860 y por la memoria, por la hemeroteca. 0:01:18.090,0:01:21.120 Que ayudara a los ciudadanos[br]a distinguir entre lo que es verdad 0:01:21.719,0:01:23.159 y lo que es mentira. 0:01:23.439,0:01:24.899 De eso os quiero hablar hoy. 0:01:24.899,0:01:26.069 Arrancamos. 0:01:26.309,0:01:31.519 (Pitidos) 0:01:31.720,0:01:35.150 Cuando oímos esto, sabemos que vamos [br]a escuchar un boletín informativo. 0:01:35.150,0:01:40.230 Identificamos estos pitos con [br]el consumo de información por la radio. 0:01:40.800,0:01:41.930 Vemos esto: 0:01:41.930,0:01:50.930 (Música) 0:01:50.930,0:01:53.180 y sabemos que lo que empieza[br]es el telediario. 0:01:53.180,0:01:58.010 Asociamos esas imágenes y esa música[br]con el consumo de información audiovisual. 0:01:58.010,0:02:03.630 Tocamos este papel, lo tenemos en la mano[br]y sabemos que esto, este papel, 0:02:03.630,0:02:07.650 es un formato de consumo[br]de información: un periódico. 0:02:07.650,0:02:11.860 Nuestros sentidos asocian[br]estos formatos con noticias. 0:02:11.860,0:02:15.400 Aunque nos pueden mentir, ¿eh?[br]Que veo alguna cara rara entre el público. 0:02:15.400,0:02:18.190 Lo que tenemos interiorizado [br]es que, en estos formatos, 0:02:18.190,0:02:20.540 lo que recibimos es información. 0:02:20.900,0:02:24.340 Esto es lo que en maldita.es[br]llamamos "el ancla". 0:02:24.340,0:02:27.050 Quedaros con esto, porque[br]me lo vais a oír más de una vez. 0:02:27.050,0:02:28.240 Y entonces me diréis: 0:02:28.240,0:02:30.480 "¿Qué ha cambiado? ¿Qué es diferente?" 0:02:30.480,0:02:32.095 (Audio de Donald Trump en inglés) 0:02:32.095,0:02:34.830 "Estamos luchando[br]contra las noticias falsas. 0:02:34.830,0:02:37.570 Denomino a las noticias falsas[br]'el enemigo del pueblo'. 0:02:37.570,0:02:39.690 Y lo son. Noticias falsas". 0:02:39.690,0:02:40.610 (Termina el audio) 0:02:40.610,0:02:42.340 Esto es lo que ha cambiado: 0:02:42.340,0:02:44.490 llevar Internet[br]todo el rato en el bolsillo 0:02:44.490,0:02:48.450 y consumir cada vez más noticias[br]a través de WhatsApp, de Twitter, 0:02:48.450,0:02:50.500 de Facebook, de Instagram. 0:02:50.500,0:02:52.090 Que está muy bien, ojo. 0:02:52.090,0:02:56.330 Pero, aquí es donde la desinformación[br]tiene más fácil imitar a la información, 0:02:56.330,0:02:57.710 disfrazarse de ella. 0:02:57.810,0:03:01.070 Y aquí es donde ese ancla[br]de la que hablábamos al principio 0:03:01.070,0:03:02.280 se difumina. 0:03:02.520,0:03:04.100 ¿Cómo pasa esto? 0:03:04.730,0:03:06.790 Esto es una noticia real. 0:03:06.970,0:03:10.470 Y esto es una desinformación,[br]lo que mucha gente llama, 0:03:10.470,0:03:13.400 aunque a mí no me gusta mucho[br]el término, una noticia falsa, 0:03:13.400,0:03:14.430 un "fake news". 0:03:14.430,0:03:17.130 Porque, cuando yo digo[br]que algo es una noticia falsa, 0:03:17.130,0:03:18.770 no estoy refiriéndome a lo mismo 0:03:18.770,0:03:22.120 que cuando Donald Trump[br]dice que la CNN son "fake news". 0:03:22.120,0:03:26.550 Porque esto no es una noticia.[br]Nunca ha pretendido serlo. 0:03:26.550,0:03:29.390 Es solamente un disfraz para desinformar. 0:03:29.390,0:03:32.130 Esto es muy importante que [br]lo tengamos en la cabeza. 0:03:32.130,0:03:34.180 Y, sin embargo,[br]¿a que se parecen un montón? 0:03:34.180,0:03:37.320 Parece que son el mismo formato[br]con su titular, su foto. 0:03:37.320,0:03:41.450 No tenemos referencias que nos indiquen[br]que una es verdadera y otra es falsa. 0:03:41.450,0:03:43.810 A esto tenemos que sumarle otro problema: 0:03:43.810,0:03:48.500 cada vez consumimos más las noticias[br]individualmente, aisladas, sin contexto. 0:03:48.500,0:03:51.550 Cada vez entramos menos en la página[br]de un medio de comunicación, 0:03:51.550,0:03:54.840 en su portada, para ver qué ha decidido[br]la redacción que es importante 0:03:54.840,0:03:58.310 y consumimos las noticias a través[br]de lo que nos llega por redes sociales: 0:03:58.310,0:04:00.230 por WhatsApp, por Facebook. 0:04:00.230,0:04:03.850 Sin saber muy bien a qué tipo de página[br]estamos entrando para consumir, 0:04:03.850,0:04:06.440 o si es un medio fiable o no lo es. 0:04:06.440,0:04:10.380 Por ejemplo: "Urdangarín tendrá una paga[br]en Suiza para sus gastos". 0:04:10.380,0:04:13.520 Este titular se viralizó muchísimo. 0:04:13.520,0:04:17.339 Hay mucha gente que, a día de hoy, [br]cree que, efectivamente, 0:04:17.339,0:04:19.450 el cuñado del rey, [br]condenado por corrupción, 0:04:19.450,0:04:21.750 recibió una paga de la Casa Real[br]para sus gastos. 0:04:21.750,0:04:25.460 Igual alguno está sentado por aquí[br]y está descubriendo ahora que es mentira. 0:04:25.460,0:04:27.050 ¿Por qué pasó esto? 0:04:27.050,0:04:30.660 Porque esta noticia se viralizó[br]sin contexto, sin ancla. 0:04:30.660,0:04:33.430 Os vamos a demostrar por qué[br]esto es tan importante. 0:04:33.430,0:04:37.040 Si vemos esta noticia en la portada[br]de El País o de El Mundo, 0:04:37.040,0:04:40.400 podríamos pensar por el contexto,[br]por lo que le rodea, 0:04:40.400,0:04:42.580 que esta noticia es verosímil, 0:04:42.580,0:04:44.830 que podría ser que[br]el cuñado del rey, condenado, 0:04:44.830,0:04:46.385 hubiera tenido esos privilegios. 0:04:46.385,0:04:50.800 Pero, ¿y si la vemos aquí,[br]en su verdadero origen, 0:04:50.800,0:04:52.860 de donde surge esta noticia? 0:04:52.860,0:04:56.890 Precisamente por lo que le rodea,[br]por el contexto que tiene alrededor, 0:04:56.890,0:05:00.530 hay algo que nos hace pensar[br]que podría no ser creíble. 0:05:02.330,0:05:04.720 Pues esto tiene otra vuelta de tuerca. 0:05:04.720,0:05:07.240 A veces ni siquiera consumimos la noticia. 0:05:07.240,0:05:10.999 A veces solamente consumimos[br]la foto y el titular. 0:05:11.899,0:05:13.510 ¿Y si lo vemos así? 0:05:14.380,0:05:17.300 No tenemos ninguna referencia.[br]No sabemos de dónde sale. 0:05:17.300,0:05:20.020 No sabemos cuál es la fuente.[br]No sabemos cuál es la fecha. 0:05:20.020,0:05:21.810 No sabemos si es fiable o no. 0:05:21.810,0:05:23.600 Os voy a poner otro ejemplo: 0:05:23.600,0:05:27.240 "Vuelve el servicio militar obligatorio[br]para menores de 25 años". 0:05:27.240,0:05:29.560 Recibimos esto en nuestro móvil. 0:05:29.560,0:05:32.900 Es un titular, una foto,[br]no hay link, casi no hay fecha, 0:05:32.900,0:05:36.280 porque ni siquiera dice el año,[br]y no tenemos ni idea de dónde ha salido. 0:05:36.280,0:05:38.480 ¿Dónde ubica esto nuestro imaginario? 0:05:38.480,0:05:41.680 ¿En una web creíble o en una no creíble? 0:05:42.070,0:05:43.800 ¿Qué nos dicen nuestros sentidos? 0:05:44.110,0:05:47.070 No tenemos contexto. No tenemos ancla. 0:05:47.250,0:05:51.890 Y a esto se le suma otra clave:[br]la desinformación se democratiza. 0:05:52.440,0:05:54.170 ¿Sabéis de dónde sale este titular? 0:05:54.520,0:05:57.900 De aquí, de una web creada solamente 0:05:57.900,0:06:01.640 para que puedas convertir tus bulos[br]en formato de noticia. 0:06:02.220,0:06:06.140 Antes desinformaba el poder,[br]quien tenía capacidad de hacerlo: 0:06:06.140,0:06:08.600 las élites económicas, los gobiernos, 0:06:08.600,0:06:11.240 los grandes medios[br]de comunicación, la Iglesia. 0:06:11.620,0:06:15.470 Ahora, con herramientas como esta,[br]puede desinformar casi cualquier persona. 0:06:15.940,0:06:20.380 Y eso cada vez es más fácil[br]y cada vez es más peligroso. 0:06:20.860,0:06:23.680 Vamos a por qué se fabrican[br]este tipo de noticias falsas. 0:06:23.680,0:06:26.490 Nosotros hemos identificado tres razones: 0:06:26.860,0:06:31.220 la primera, por pura maldad,[br]por puro divertimento. 0:06:31.220,0:06:34.170 Por crear contenidos falsos[br]para ver hasta dónde pueden llegar, 0:06:34.170,0:06:36.180 a cuánta gente son capaces de convencer. 0:06:36.180,0:06:39.170 Y hay situaciones en las que[br]esto se vuelve muy peligroso. 0:06:39.560,0:06:42.050 ¿Os acordáis de Frida Sofía,[br]la niña de 12 años 0:06:42.050,0:06:45.400 que se encontraba sepultada bajo[br]los escombros de un colegio en México? 0:06:45.400,0:06:47.000 Todo un país buscándola. 0:06:47.000,0:06:50.269 Todos los medios de comunicación[br]del mundo pendiente de ella. 0:06:50.269,0:06:53.030 Y resultó que la niña no existía. 0:06:53.300,0:06:55.270 Era una noticia falsa. 0:06:55.400,0:06:57.360 Era una noticia creada solamente 0:06:57.360,0:07:00.600 para generar el caos[br]en una situación de emergencia. 0:07:00.850,0:07:02.760 Esto en España lo hemos vivido, 0:07:02.760,0:07:06.030 en los incendios de Galicia[br]y de Asturias del año 2017, 0:07:06.030,0:07:09.860 cuando las llamas estaban ya llegando[br]casi a las casas en Vigo, 0:07:09.860,0:07:12.250 de repente, surgió una alerta en redes: 0:07:12.780,0:07:17.650 "No se puede beber agua del grifo.[br]No es potable. Está contaminada". 0:07:18.390,0:07:22.769 Esto corrió por WhatsApp como la pólvora[br]y resultó ser una alerta falsa. 0:07:23.039,0:07:25.140 Y, ojo, porque no fue la única. 0:07:25.140,0:07:28.390 Este es un mapa de algunas de [br]las desinformaciones que corrieron 0:07:28.390,0:07:31.630 en una sola noche de incendios[br]en la que los vecinos, 0:07:31.630,0:07:33.760 mientras luchaban contra las llamas, 0:07:33.760,0:07:36.450 tuvieron también que luchar[br]contra el miedo que infundían 0:07:36.450,0:07:38.650 estas desinformaciones[br]que llegaban a su móvil. 0:07:38.650,0:07:40.900 Esto es peligrosísimo y os aviso, 0:07:40.900,0:07:44.740 si alguna vez se os ocurre hacer [br]algo parecido, estamos vigilantes. 0:07:45.250,0:07:48.880 Vamos por la segunda razón: [br]la pasta; por hacer caja. 0:07:48.880,0:07:53.930 Porque generar contenidos falsos,[br]hay gente que gana dinero con ello. 0:07:54.350,0:07:56.820 Durante las elecciones norteamericanas, 0:07:56.820,0:08:01.260 en Macedonia, un grupo de jóvenes[br]se puso a fabricar noticias falsas. 0:08:01.370,0:08:04.130 Empezaron haciéndolas contra[br]Trump y contra Hillary Clinton 0:08:04.130,0:08:08.150 y, rápidamente, se dieron cuenta de que[br]las noticias contra Trump no daban dinero, 0:08:08.150,0:08:10.200 así que fueron a saco[br]a por Hillary Clinton. 0:08:10.490,0:08:11.650 Y dio resultado. 0:08:11.890,0:08:13.850 Ganaron miles de euros. 0:08:14.120,0:08:16.650 En España hay páginas[br]que hacen una cosa parecida: 0:08:16.650,0:08:20.520 generan contenidos falsos para que[br]la gente haga clic y entre a su web 0:08:20.520,0:08:22.480 y ellos puedan cobrar publicidad. 0:08:22.480,0:08:25.780 Y nos dicen en el aviso legal[br]que es que son satíricas, 0:08:25.780,0:08:27.760 que solamente lo hacen por la broma. 0:08:27.760,0:08:31.970 Aunque, claro, a veces no lo hacen[br]para hacer risa, sino para ganar dinero. 0:08:32.730,0:08:35.169 Y habrá algún escéptico[br]en la sala que me diga: 0:08:35.169,0:08:38.789 "¿Y quiénes sois vosotros para decidir[br]lo que es satírico y lo que no lo es?" 0:08:39.150,0:08:40.320 Pues nadie. 0:08:40.320,0:08:44.028 Por eso, lo único que hacemos es deciros[br]en los manuales sobre desinformación, 0:08:44.030,0:08:47.560 que hay que mirar el aviso legal de[br]las páginas en las que leemos las cosas 0:08:47.560,0:08:48.610 antes de creérnoslas. 0:08:48.610,0:08:51.230 Os avisamos con nuestras[br]herramientas tecnológicas 0:08:51.230,0:08:53.510 de que estáis entrando[br]en una página satírica, 0:08:53.510,0:08:55.000 como mediante nuestra extensión 0:08:55.000,0:08:58.670 y procuramos que los ciudadanos[br]estéis lo más informados posible 0:08:58.670,0:09:00.460 para que no os cuelen las mentiras. 0:09:00.750,0:09:05.560 Y hay una tercera razón, que [br]a mí me parece la más peligrosa: 0:09:05.790,0:09:08.420 los bulos que se fabrican por ideología. 0:09:08.620,0:09:11.540 Los que se fabrican para[br]distorsionar nuestra realidad, 0:09:11.540,0:09:14.200 para crear un determinado[br]estado de opinión 0:09:14.200,0:09:16.240 que favorece unas ideas determinadas. 0:09:16.240,0:09:19.120 Esto en Europa lo hemos vivido:[br]con el Brexit, 0:09:19.120,0:09:21.900 con Cataluña, con la crisis de refugiados. 0:09:22.480,0:09:27.480 ¿Quién no ha recibido en su móvil[br]un vídeo, un audio, una imagen, 0:09:27.480,0:09:30.790 una cadena de WhatsApp contra[br]la inmigración en los últimos meses? 0:09:31.030,0:09:34.020 Estos mensajes reenviados[br]entre miles y miles de personas, 0:09:34.020,0:09:36.930 a veces, tienen apariencia[br]de credibilidad, 0:09:36.930,0:09:39.410 a veces son un titular y una foto, 0:09:39.410,0:09:43.700 pero no tienen fuente,[br]no tienen fecha, no tienen ancla. 0:09:44.610,0:09:46.810 También hay titulares como este: 0:09:46.810,0:09:51.340 "Una familia acoge a un refugiado y viola[br]y deja embarazada a su hija de 12 años". 0:09:51.820,0:09:54.240 Este titular es falso. 0:09:54.470,0:09:58.390 El hombre no era refugiado[br]y no vivía acogido en la familia. 0:09:58.970,0:10:02.640 Y, sin embargo, a día de hoy,[br]este titular sigue publicado 0:10:02.640,0:10:08.950 y aquellas personas que lo hayan leído[br]relacionan refugiado con violador. 0:10:09.990,0:10:14.440 Este es el ecosistema en el que[br]nos encontramos y es muy peligroso. 0:10:14.440,0:10:15.850 Solamente os digo una cosa: 0:10:15.850,0:10:19.470 si alguna vez no tenéis claro algo,[br]no lo compartáis. 0:10:19.470,0:10:21.820 Es el mejor consejo[br]que os voy a poder dar hoy. 0:10:21.820,0:10:26.000 Estamos en un punto en el que los bulos[br]pueden pasar de ser simples mentiras 0:10:26.000,0:10:28.519 a convertirse en creencias. 0:10:28.519,0:10:30.340 La desinformación va calando 0:10:30.340,0:10:35.879 y las personas dejan de creer[br]en la evidencia científica, por ejemplo. 0:10:35.879,0:10:38.830 Lo estamos viendo en Italia[br]con los anti-vacunas 0:10:38.830,0:10:41.830 que están ganando la batalla[br]con el vicepresidente a la cabeza. 0:10:42.210,0:10:44.420 Empezamos a creer que la Tierra es plana. 0:10:45.190,0:10:48.060 Empezamos a defender[br]que el hombre no ha llegado a la Luna. 0:10:48.980,0:10:50.890 Empezamos a beber leche cruda. 0:10:52.240,0:10:53.709 ¿Y cómo podemos combatir esto? 0:10:53.709,0:10:56.320 Bueno, pues hay quien dice[br]que con legislación. 0:10:56.600,0:10:58.670 Hay quien dice que debería de ser un juez 0:10:58.670,0:11:01.040 o incluso una institución[br]dependiente del Estado 0:11:01.040,0:11:04.820 la que decida entre[br]lo que es verdad y lo que es mentira. 0:11:05.070,0:11:07.330 Nosotros creemos que ese no es el camino, 0:11:07.330,0:11:10.229 porque la línea entre[br]una legislación anti-bulos 0:11:10.229,0:11:13.539 y la censura es excesivamente delgada. 0:11:13.539,0:11:15.610 Y no estamos solos en esto. 0:11:15.610,0:11:17.330 Los expertos de la Comisión Europea, 0:11:17.330,0:11:19.190 un grupo de expertos que [br]se formó hace unos meses, 0:11:19.190,0:11:20.740 del que nosotros formamos parte, 0:11:20.740,0:11:23.199 también creen que todavía[br]no estamos preparados 0:11:23.199,0:11:25.890 para legislar en caliente[br]contra la desinformación. 0:11:25.890,0:11:29.689 No conocemos suficientemente el fenómeno[br]y necesitamos seguir estudiándolo. 0:11:29.880,0:11:32.670 Pero sí tenemos otras herramientas[br]para luchar contra ella. 0:11:33.060,0:11:37.000 Por ejemplo, con periodismo[br]de datos y hechos, 0:11:37.000,0:11:39.990 con tecnología de alerta temprana[br]contra la desinformación, 0:11:40.500,0:11:44.270 con la comunidad,[br]con la educación y con vosotros. 0:11:44.270,0:11:48.089 Porque os necesitamos para que[br]nos alertéis de esa posible desinformación 0:11:48.089,0:11:49.980 que se está moviendo en vuestras redes. 0:11:49.980,0:11:52.280 Porque nosotros no podemos[br]estar en todas partes, 0:11:52.280,0:11:55.629 y mucho menos en ese chat de familia[br]en el que, más de una vez, 0:11:55.629,0:11:57.290 ha caído una desinformación, 0:11:57.290,0:12:01.570 o en esos grupos cerrados de Facebook[br]en los que un día sí y otro también 0:12:01.570,0:12:04.220 se está publicando un 'meme'[br]de un político de derechas, 0:12:04.220,0:12:06.440 o un 'meme' de un político de izquierdas, 0:12:06.440,0:12:08.590 o de un actor o de un personaje histórico, 0:12:08.590,0:12:12.490 que son tremendamente polémicos,[br]pero que no tienen ni fuente ni fecha. 0:12:12.780,0:12:15.150 Cuando nos hacéis llegar[br]esa desinformación, 0:12:15.150,0:12:18.870 nuestro equipo se pone a trabajar[br]con una metodología muy estricta. 0:12:18.870,0:12:21.080 ¿Qué es lo que más se está viralizando? 0:12:21.080,0:12:24.150 Eso es lo primero que vamos[br]a intentar desmentir. 0:12:24.150,0:12:26.150 A partir de ahí, trabajo periodístico: 0:12:26.150,0:12:28.520 levantar el teléfono,[br]hablar con las fuentes, 0:12:28.520,0:12:32.090 verificar las imágenes y[br]rastrear el origen de los vídeos. 0:12:32.200,0:12:35.500 Y cuando ese trabajo está hecho[br]y ya sabemos si es o no es un bulo, 0:12:35.630,0:12:38.290 todo el equipo tiene que auditar[br]al verificador 0:12:38.300,0:12:42.390 y plantearle preguntas para saber[br]si ha hecho o no ha hecho bien su trabajo. 0:12:42.830,0:12:44.590 Y después votamos. 0:12:44.590,0:12:47.760 Tiene que haber una mayoría de votos[br]a favor de ese desmentido 0:12:47.760,0:12:52.310 y ninguno en contra para que nosotros[br]podamos estar seguros y listos 0:12:52.310,0:12:55.590 para salir y deciros que algo es falso. 0:12:56.000,0:12:59.310 Y ahí os volvemos a necesitar,[br]porque tenéis que ser vosotros 0:12:59.310,0:13:02.340 los que volváis a vuestros[br]grupos de WhatsApp y de Facebook 0:13:02.340,0:13:05.120 y le digáis a vuestros contactos que no, 0:13:05.610,0:13:09.400 que eso no es verdad, que es un bulo. 0:13:09.400,0:13:13.540 Periodismo, tecnología,[br]comunidad y educación 0:13:13.540,0:13:15.700 son las claves para salir de esta. 0:13:15.700,0:13:17.580 No todo está perdido. 0:13:17.580,0:13:21.470 Los periodistas que queremos[br]hacer nuestro trabajo bien, existimos. 0:13:21.740,0:13:23.160 Y somos mayoría. 0:13:23.370,0:13:25.660 Sabemos que habéis dejado[br]de confiar en nosotros, 0:13:25.660,0:13:30.590 porque alguna vez hemos fallado,[br]y os pedimos perdón, mil veces. 0:13:30.810,0:13:35.250 Pero de esta, de la desinformación,[br]de que no nos la cuelen ni los bulos, 0:13:35.250,0:13:37.580 ni los poderes públicos, 0:13:37.580,0:13:41.380 solamente salimos juntos,[br]ciudadanos y periodistas. 0:13:41.380,0:13:45.630 Porque el periodismo es la mejor[br]herramienta para que no te la cuelen. 0:13:45.970,0:13:47.240 Gracias por escuchar. 0:13:47.240,0:13:50.989 (Aplausos)