Cómo proteger la verdad en la era de la desinformación
-
0:01 - 0:07El 23 de abril de 2013,
-
0:07 - 0:12Associated Press
puso el siguiente tuit en Twitter. -
0:12 - 0:15Decía: "Noticia de última hora:
-
0:15 - 0:17dos explosiones en la Casa Blanca.
-
0:17 - 0:20Barack Obama ha resultado herido".
-
0:20 - 0:26Este tuit fue retuiteado 4000 veces
en menos de cinco minutos, -
0:26 - 0:28y se hizo viral a partir de ese instante.
-
0:29 - 0:31Ahora bien, este tuit
no fue una noticia verdadera -
0:31 - 0:33difundida por la agencia Associated Press.
-
0:33 - 0:36En realidad, fue una noticia falsa,
-
0:36 - 0:39propagada por 'hackers' sirios
-
0:39 - 0:44que se habían hecho con el control
del Twitter de Associated Press. -
0:44 - 0:48Su objetivo era alterar a la sociedad,
pero alteraron mucho más, -
0:48 - 0:51porque los algoritmos
automatizados de negociación -
0:51 - 0:54inmediatamente interpretaron
la sensibilidad de este tuit, -
0:54 - 0:57y comenzaron a operar
en base a la posibilidad -
0:57 - 1:01de que el presidente de los EE. UU.
hubiese sido herido o asesinado -
1:01 - 1:02en esa explosión.
-
1:02 - 1:04Y cuando empezaron a tuitear,
-
1:04 - 1:08hicieron que el mercado de valores
se desplomara al instante, -
1:08 - 1:13y se perdieron 140 mil millones de dólares
en valor bursátil en un solo día. -
1:13 - 1:18Robert Mueller, consejero
y fiscal especial de los Estados Unidos, -
1:18 - 1:21acusó penalmente a tres compañías rusas
-
1:21 - 1:24y a 13 individuos rusos
-
1:24 - 1:27de conspirar para cometer fraude
contra los Estados Unidos -
1:27 - 1:31al entrometerse en las elecciones
presidenciales de 2016. -
1:32 - 1:35Lo que esta acusación deja al descubierto
-
1:35 - 1:39es la historia de la Agencia
de Investigación de Internet, -
1:39 - 1:42el oscuro brazo del Kremlin
en las redes sociales. -
1:43 - 1:46Solo en las elecciones presidenciales,
-
1:46 - 1:48los intentos de la Agencia de Internet
-
1:48 - 1:53llegaron a 126 millones de personas
en Facebook en los Estados Unidos, -
1:53 - 1:56emitieron tres millones
de tuits individuales -
1:56 - 2:00y 43 horas de contenido de YouTube.
-
2:00 - 2:02Todo lo cual era falso,
-
2:02 - 2:08desinformación diseñada para meter cizaña
en la elección presidencial de EE. UU. -
2:09 - 2:12Un estudio reciente
realizado por la Universidad de Oxford -
2:12 - 2:15mostró que en las últimas
elecciones suecas, -
2:15 - 2:19un tercio de toda la información
que se difundió en las redes sociales -
2:19 - 2:21sobre las elecciones
-
2:21 - 2:23era falsa o incorrecta.
-
2:23 - 2:28Además, este tipo de campañas
de desinformación en redes sociales -
2:28 - 2:32pueden difundir lo que se ha llamado
"propaganda genocida", -
2:32 - 2:35por ejemplo contra los rohingya en Burma,
-
2:35 - 2:38que desencadenó linchamientos en la India.
-
2:38 - 2:39Estudiamos las noticias falsas
-
2:39 - 2:43y comenzamos a hacerlo
antes de que fuera un término popular. -
2:43 - 2:48Y hemos publicado recientemente el estudio
longitudinal más grande jamás realizado -
2:48 - 2:50sobre la difusión
de noticias falsas en línea -
2:50 - 2:54en la portada de la revista "Science"
en marzo de este año. -
2:55 - 2:59Estudiamos todas las noticias
verificadas como verdaderas y falsas -
2:59 - 3:00que se propagaron por Twitter,
-
3:00 - 3:04desde su creación en 2006 hasta 2017.
-
3:05 - 3:07Y cuando estudiamos esta información,
-
3:07 - 3:10tomamos las noticias
verificadas y revisadas -
3:10 - 3:14por seis organizaciones
independientes de comprobación de datos. -
3:14 - 3:17Así que sabíamos cuáles eran ciertas
-
3:17 - 3:18y cuáles falsas.
-
3:19 - 3:21Podemos medir su difusión,
-
3:21 - 3:22la velocidad de su difusión,
-
3:22 - 3:24el alcance de su difusión,
-
3:24 - 3:29cuántas personas se enredan
en esta cascada de información, etc. -
3:29 - 3:31Y lo que hicimos en esta investigación
-
3:31 - 3:34fue comparar la propagación
de noticias verdaderas con las falsas. -
3:34 - 3:36Y estos son los resultados.
-
3:36 - 3:40Hallamos que una noticia falsa
llega más lejos, más rápido -
3:40 - 3:42y tiene más alcance que la verdadera
-
3:42 - 3:45en todas las categorías de información
que hemos estudiado, -
3:45 - 3:47a veces en un orden de magnitud.
-
3:48 - 3:51Y las noticias falsas en el ámbito
de la política fueron las más virales. -
3:51 - 3:55Se difunden más lejos, más rápido,
y tienen mayor alcance -
3:55 - 3:57que cualquier otro tipo
de noticias falsas. -
3:57 - 3:59Cuando vimos esto,
-
3:59 - 4:02sentimos a la vez
preocupación y curiosidad. -
4:02 - 4:03¿Por qué?
-
4:03 - 4:06¿Por qué las noticias falsas llegan
más lejos, más rápido, -
4:06 - 4:08y tienen mayor alcance que la verdad?
-
4:08 - 4:11La primera hipótesis
que se nos ocurrió fue: -
4:11 - 4:14"Bueno, tal vez quienes
difunden noticias falsas -
4:14 - 4:16tienen más seguidores
o siguen a más gente, -
4:16 - 4:18o tuitean con más frecuencia,
-
4:18 - 4:22o tal vez son más usuarios 'verificados'
de Twitter, con más credibilidad, -
4:22 - 4:24o tal vez han estado
en Twitter más tiempo". -
4:24 - 4:27Así que inspeccionamos
cada uno de estos casos. -
4:27 - 4:30Y lo que encontramos
fue exactamente lo contrario. -
4:30 - 4:32Quienes difundían noticias falsas
tenían menos seguidores, -
4:32 - 4:36seguían a menos gente, eran menos activos,
eran usuarios poco "verificados" -
4:36 - 4:39y habían estado en Twitter
por un período de tiempo más corto. -
4:39 - 4:40Y sin embargo,
-
4:40 - 4:45las noticias falsas eran un 70 %
más propensas a ser retuiteadas, -
4:45 - 4:48teniendo en cuenta estos
y muchos otros factores. -
4:48 - 4:51Así que tuvimos que buscar
otras explicaciones. -
4:51 - 4:55E ideamos lo que llamamos
"hipótesis de la novedad". -
4:55 - 4:57Si leemos documentaciones sobre el tema,
-
4:57 - 5:01es bien sabido que la atención humana
se siente atraída por la novedad, -
5:01 - 5:03cosas que son nuevas en el entorno.
-
5:03 - 5:05Y si leemos la literatura sociológica,
-
5:05 - 5:10veremos que nos gusta compartir
información novedosa. -
5:10 - 5:14Sentimos que tenemos acceso
a información privilegiada, -
5:14 - 5:17y ganamos estatus mediante la difusión
de este tipo de información. -
5:18 - 5:24Decidimos entonces medir
la novedad de un tuit verdadero o falso, -
5:24 - 5:28en comparación con el corpus
de lo que esa persona había visto -
5:28 - 5:31en Twitter los 60 días anteriores.
-
5:31 - 5:34Pero no fue suficiente, porque pensamos:
-
5:34 - 5:38"Bueno, quizá las noticias falsas
son más novedosas en un sentido teórico, -
5:38 - 5:42pero tal vez la gente
no las percibe como más novedosas". -
5:42 - 5:46Así que para entender cómo
la gente percibe las noticias falsas, -
5:46 - 5:49nos fijamos en la información
y el componente afectivo -
5:50 - 5:54de las respuestas
a los tuits verdaderos y falsos. -
5:54 - 5:55Y lo que detectamos
-
5:55 - 5:59fue que, teniendo en cuenta
un montón de sentimientos diferentes, -
5:59 - 6:03como sorpresa, disgusto, miedo, tristeza,
-
6:03 - 6:05expectativa, alegría y confianza,
-
6:05 - 6:11las noticias falsas generaron
significativamente más sorpresa y disgusto -
6:11 - 6:14en las respuestas a los falsos tuits.
-
6:14 - 6:18Y las noticias verdaderas mostraron
significativamente más expectativas, -
6:18 - 6:20alegría y confianza
-
6:20 - 6:22en respuesta a los tuits verdaderos.
-
6:22 - 6:26La sorpresa corrobora
nuestra hipótesis de la novedad. -
6:26 - 6:31Esto es nuevo y sorprendente,
por lo que es más fácil que se comparta. -
6:31 - 6:34Al mismo tiempo,
hubo testimonios ante el Congreso -
6:34 - 6:37en las dos cámaras parlamentarias
de los Estados Unidos -
6:37 - 6:41sobre el papel de los robots
en la propagación de información errónea. -
6:41 - 6:42Así que consideramos esto también.
-
6:42 - 6:46Utilizamos múltiples algoritmos
complejos de rastreo -
6:46 - 6:49para encontrar los robots
en nuestros datos y sacarlos. -
6:49 - 6:52Los sacamos, los volvimos a poner
-
6:52 - 6:55y comparamos lo que sucede
con nuestras mediciones. -
6:55 - 6:57Descubrimos que, efectivamente,
-
6:57 - 7:01los robots aceleraban la propagación
de noticias falsas en línea, -
7:01 - 7:04pero aceleraban
la propagación de las verdaderas -
7:04 - 7:06aproximadamente a la misma velocidad.
-
7:06 - 7:09Lo que significa que los robots
no son los responsables -
7:09 - 7:14de la difusión diferencial
de la verdad y la mentira en línea. -
7:14 - 7:17No podemos renunciar
a esa responsabilidad, -
7:17 - 7:21porque nosotros, los seres humanos,
somos responsables de esa propagación. -
7:22 - 7:26Ahora bien, todo lo que
les he dicho hasta el momento, -
7:26 - 7:28por desgracia para todos nosotros,
-
7:28 - 7:29es la buena noticia.
-
7:31 - 7:35La razón es que está
a punto de ponerse mucho peor. -
7:36 - 7:40Y dos tecnologías específicas
van a empeorar la situación. -
7:40 - 7:45Vamos a presenciar el aumento
de una tremenda ola de medios sintéticos. -
7:45 - 7:51Video falso, audio falso,
muy convincentes para el ojo humano. -
7:51 - 7:54Y esto será impulsado por dos tecnologías.
-
7:54 - 7:58La primera es conocida como
"redes de confrontación generativas". -
7:58 - 8:01Es un modelo de aprendizaje
automático con dos redes: -
8:01 - 8:02un discriminador,
-
8:02 - 8:06cuyo trabajo es determinar
si algo es verdadero o falso, -
8:06 - 8:08y un generador,
-
8:08 - 8:11cuyo trabajo es generar medios sintéticos.
-
8:11 - 8:16El generador sintético
genera un video o audio sintético, -
8:16 - 8:21y el discriminador trata de distinguir
si es verdadero o falso. -
8:21 - 8:24Y, de hecho, el trabajo del generador
-
8:24 - 8:28es maximizar la probabilidad
de engañar al discriminador -
8:28 - 8:32para que crea que el video
y el audio sintéticos que está creando -
8:32 - 8:33son realmente ciertos.
-
8:33 - 8:36Imaginen una máquina en un Hyperloop,
-
8:36 - 8:39que se perfecciona más y más
con el fin de engañarnos. -
8:39 - 8:42Esto, combinado con la segunda tecnología,
-
8:42 - 8:47que es esencialmente la democratización
de la inteligencia artificial, -
8:47 - 8:50la capacidad de cualquier persona,
-
8:50 - 8:52sin ningún tipo de experiencia
en inteligencia artificial -
8:52 - 8:54o aprendizaje automático,
-
8:54 - 8:58de implementar este tipo de algoritmos
para generar los medios sintéticos -
8:58 - 9:02hace que, en última instancia,
sea mucho más fácil crear videos. -
9:02 - 9:07La Casa Blanca emitió
el video falso y adulterado -
9:07 - 9:11de una pasante que intentaba
sacarle el micrófono a un periodista. -
9:11 - 9:13Eliminaron fotogramas de este video
-
9:13 - 9:17para que las acciones del periodista
pareciesen más violentas. -
9:17 - 9:21Y cuando camarógrafos y dobles
-
9:21 - 9:23fueron consultados
acerca de este tipo de técnica, -
9:23 - 9:27dijeron: "Sí, siempre
lo hacemos en las películas -
9:27 - 9:32para que nuestros puñetazos y patadas
parezcan más rápidos y agresivos". -
9:32 - 9:34Entonces mostraron este video
-
9:34 - 9:37y lo utilizaron parcialmente como excusa
-
9:37 - 9:42para denegar el acceso de Jim Acosta
como periodista a la Casa Blanca. -
9:42 - 9:47Y la CNN tuvo que demandarlos
para regresarle su pase de prensa. -
9:49 - 9:54Hay unos cinco modos diferentes
que se me ocurren -
9:54 - 9:58para tratar de abordar algunos
de estos problemas difíciles hoy en día. -
9:58 - 10:00Cada uno es prometedor,
-
10:00 - 10:03pero tiene sus propios desafíos.
-
10:03 - 10:05El primero es el etiquetado.
-
10:05 - 10:07Piénsenlo de esta manera:
-
10:07 - 10:10cuando van a la tienda
para comprar alimentos, -
10:10 - 10:12está todo etiquetado.
-
10:12 - 10:14Saben la cantidad de calorías que tiene,
-
10:14 - 10:16la cantidad de grasa que contiene,
-
10:16 - 10:20pero, cuando consumimos información,
no tenemos etiquetas de ningún tipo. -
10:20 - 10:22¿Qué contiene esta información?
-
10:22 - 10:24¿Es creíble la fuente?
-
10:24 - 10:26¿De dónde se obtuvo esta información?
-
10:26 - 10:30No tenemos ninguno de esos datos
cuando consumimos información. -
10:30 - 10:33Esa es una vía potencial,
pero viene con sus desafíos. -
10:33 - 10:40Por ejemplo, ¿quién decide en la sociedad
lo que es cierto y lo que es falso? -
10:40 - 10:42¿Son los gobiernos?
-
10:42 - 10:43¿Es Facebook?
-
10:44 - 10:47¿Es un consorcio independiente
de verificadores? -
10:47 - 10:50¿Y quién controla a los verificadores?
-
10:50 - 10:54Otra vía potencial son los incentivos.
-
10:54 - 10:56Sabemos que durante
la elección presidencial de EE. UU. -
10:56 - 11:00se produjo una oleada de información falsa
que procedía de Macedonia. -
11:00 - 11:02No tenía ningún fin político
-
11:02 - 11:04pero sí un fin económico.
-
11:05 - 11:07Y este fin económico existió
-
11:07 - 11:10porque las noticias falsas viajan
mucho más lejos, más rápido, -
11:10 - 11:12y tienen mayor alcance que la verdad,
-
11:13 - 11:17y se puede ganar dinero con la publicidad
mientras se atrae la atención -
11:17 - 11:19con este tipo de información.
-
11:19 - 11:23Pero si podemos reducir la difusión
de esta información, -
11:23 - 11:26tal vez se reduciría
el incentivo económico -
11:26 - 11:29para producirla.
-
11:29 - 11:31En tercer lugar, pensemos en la regulación
-
11:31 - 11:34y, desde luego, debemos
pensar en esta opción. -
11:34 - 11:35En EE. UU., en la actualidad,
-
11:35 - 11:40estamos explorando lo que podría suceder
si Facebook y otros medios se regularan. -
11:40 - 11:44Aunque debemos tener en cuenta cosas
como la regulación del discurso político, -
11:44 - 11:47es decir, etiquetarlo
como discurso político, -
11:47 - 11:51asegurarse de que los actores extranjeros
no puedan financiar el discurso político, -
11:51 - 11:53también tiene sus propios peligros.
-
11:54 - 11:58Por ejemplo, Malasia acaba de instituir
una condena de seis años de prisión -
11:58 - 12:02para cualquier persona que sea sorprendida
difundiendo datos falsos. -
12:02 - 12:04Y en los regímenes autoritarios,
-
12:04 - 12:08este tipo de políticas se pueden utilizar
para suprimir las opiniones minoritarias -
12:08 - 12:12y para seguir ampliando la represión.
-
12:13 - 12:16La cuarta opción posible
es la transparencia. -
12:17 - 12:21Queremos saber cómo funcionan
los algoritmos de Facebook. -
12:21 - 12:23¿De qué manera los datos
se combinan con los algoritmos -
12:23 - 12:26para producir los resultados que vemos?
-
12:26 - 12:29Queremos que abran el kimono
-
12:29 - 12:33y nos muestren exactamente
el funcionamiento interno de Facebook. -
12:33 - 12:36Y si queremos conocer el efecto
de las redes sociales en la sociedad, -
12:36 - 12:39necesitamos que científicos,
investigadores y otras personas -
12:39 - 12:41tengan acceso a este tipo de información.
-
12:41 - 12:43Pero al mismo tiempo,
-
12:43 - 12:46estamos pidiendo a Facebook
poner todo bajo llave -
12:46 - 12:49para mantener los datos seguros.
-
12:49 - 12:52Así, Facebook y las otras
plataformas de medios sociales -
12:52 - 12:55se enfrentan a lo que llamo
"la paradoja de la transparencia". -
12:55 - 12:58Les estamos pidiendo
-
12:58 - 13:02que sean abiertas, transparentes
y, al mismo tiempo, seguras. -
13:03 - 13:05Esta es una aguja muy difícil enhebrar,
-
13:06 - 13:07pero deberán enhebrar esta aguja
-
13:07 - 13:11si queremos alcanzar la promesa
de las tecnologías sociales -
13:11 - 13:13y, a la vez, evitar sus riesgos.
-
13:13 - 13:15La última opción posible
-
13:15 - 13:18son los algoritmos
y el aprendizaje automático, -
13:18 - 13:22tecnología ideada para erradicar
y entender las noticias falsas, -
13:22 - 13:26cómo se transmiten,
y tratar de reducir su difusión. -
13:26 - 13:29La humanidad tiene que estar
en el bucle de esta tecnología, -
13:29 - 13:31porque nunca podremos negar
-
13:31 - 13:35que detrás de cualquier
solución o enfoque tecnológico -
13:35 - 13:39hay una pregunta ética
y filosófica fundamental -
13:39 - 13:42acerca de cómo definimos
la verdad y la falsedad, -
13:42 - 13:46a quién le damos el poder
de definir la verdad y la mentira, -
13:46 - 13:48y qué opiniones son legítimas,
-
13:48 - 13:52qué tipo de discurso
debe permitirse y así sucesivamente. -
13:52 - 13:54La tecnología no es
una solución en este caso. -
13:54 - 13:58La ética y la filosofía son la solución.
-
13:59 - 14:02Casi todas las teorías
de la toma de decisiones humanas, -
14:02 - 14:05la cooperación humana
y la coordinación humana -
14:05 - 14:09tienen un cierto sentido
de la verdad en su esencia. -
14:09 - 14:11Pero con el aumento de noticias falsas,
-
14:11 - 14:13de videos falsos,
-
14:13 - 14:15de audios falsos,
-
14:15 - 14:19estamos al borde del precipicio
del fin de la realidad, -
14:19 - 14:23donde no podemos diferenciar
lo que es real de lo que es falso. -
14:23 - 14:26Y eso es potencialmente
muy peligroso. -
14:27 - 14:31Tenemos que estar vigilantes
en la defensa de la verdad -
14:31 - 14:33contra la información errónea,
-
14:33 - 14:36con nuestras tecnologías,
con nuestras políticas -
14:36 - 14:38y, quizás lo más importante,
-
14:38 - 14:42con nuestras propias responsabilidades,
-
14:42 - 14:45decisiones, comportamientos
y acciones individuales. -
14:46 - 14:47Muchas gracias.
-
14:47 - 14:50(Aplausos)
- Title:
- Cómo proteger la verdad en la era de la desinformación
- Speaker:
- Sinan Aral
- Description:
-
Las noticias falsas pueden influir en las elecciones, arruinar las economías y sembrar la discordia en la vida cotidiana. El experto en datos Sinan Aral desmitifica cómo y por qué se difunden tan rápidamente, para lo cual cita uno de los mayores estudios sobre desinformación, e identifica cinco estrategias para ayudarnos a desentrañar la enredada red entre lo verdadero y lo falso.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Paula Motter edited Spanish subtitles for How we can protect truth in the age of misinformation | ||
Paula Motter approved Spanish subtitles for How we can protect truth in the age of misinformation | ||
Paula Motter accepted Spanish subtitles for How we can protect truth in the age of misinformation | ||
Paula Motter edited Spanish subtitles for How we can protect truth in the age of misinformation | ||
Paula Motter edited Spanish subtitles for How we can protect truth in the age of misinformation | ||
Paula Motter edited Spanish subtitles for How we can protect truth in the age of misinformation | ||
Jose Manuel Miana Borau edited Spanish subtitles for How we can protect truth in the age of misinformation | ||
Jose Manuel Miana Borau edited Spanish subtitles for How we can protect truth in the age of misinformation |