Return to Video

Cómo proteger la verdad en la era de la desinformación

  • 0:01 - 0:07
    El 23 de abril de 2013,
  • 0:07 - 0:12
    Associated Press
    puso el siguiente tuit en Twitter.
  • 0:12 - 0:15
    Decía: "Noticia de última hora:
  • 0:15 - 0:17
    dos explosiones en la Casa Blanca.
  • 0:17 - 0:20
    Barack Obama ha resultado herido".
  • 0:20 - 0:26
    Este tuit fue retuiteado 4000 veces
    en menos de cinco minutos,
  • 0:26 - 0:28
    y se hizo viral a partir de ese instante.
  • 0:29 - 0:31
    Ahora bien, este tuit
    no fue una noticia verdadera
  • 0:31 - 0:33
    difundida por la agencia Associated Press.
  • 0:33 - 0:36
    En realidad, fue una noticia falsa,
  • 0:36 - 0:39
    propagada por 'hackers' sirios
  • 0:39 - 0:44
    que se habían hecho con el control
    del Twitter de Associated Press.
  • 0:44 - 0:48
    Su objetivo era alterar a la sociedad,
    pero alteraron mucho más,
  • 0:48 - 0:51
    porque los algoritmos
    automatizados de negociación
  • 0:51 - 0:54
    inmediatamente interpretaron
    la sensibilidad de este tuit,
  • 0:54 - 0:57
    y comenzaron a operar
    en base a la posibilidad
  • 0:57 - 1:01
    de que el presidente de los EE. UU.
    hubiese sido herido o asesinado
  • 1:01 - 1:02
    en esa explosión.
  • 1:02 - 1:04
    Y cuando empezaron a tuitear,
  • 1:04 - 1:08
    hicieron que el mercado de valores
    se desplomara al instante,
  • 1:08 - 1:13
    y se perdieron 140 mil millones de dólares
    en valor bursátil en un solo día.
  • 1:13 - 1:18
    Robert Mueller, consejero
    y fiscal especial de los Estados Unidos,
  • 1:18 - 1:21
    acusó penalmente a tres compañías rusas
  • 1:21 - 1:24
    y a 13 individuos rusos
  • 1:24 - 1:27
    de conspirar para cometer fraude
    contra los Estados Unidos
  • 1:27 - 1:31
    al entrometerse en las elecciones
    presidenciales de 2016.
  • 1:32 - 1:35
    Lo que esta acusación deja al descubierto
  • 1:35 - 1:39
    es la historia de la Agencia
    de Investigación de Internet,
  • 1:39 - 1:42
    el oscuro brazo del Kremlin
    en las redes sociales.
  • 1:43 - 1:46
    Solo en las elecciones presidenciales,
  • 1:46 - 1:48
    los intentos de la Agencia de Internet
  • 1:48 - 1:53
    llegaron a 126 millones de personas
    en Facebook en los Estados Unidos,
  • 1:53 - 1:56
    emitieron tres millones
    de tuits individuales
  • 1:56 - 2:00
    y 43 horas de contenido de YouTube.
  • 2:00 - 2:02
    Todo lo cual era falso,
  • 2:02 - 2:08
    desinformación diseñada para meter cizaña
    en la elección presidencial de EE. UU.
  • 2:09 - 2:12
    Un estudio reciente
    realizado por la Universidad de Oxford
  • 2:12 - 2:15
    mostró que en las últimas
    elecciones suecas,
  • 2:15 - 2:19
    un tercio de toda la información
    que se difundió en las redes sociales
  • 2:19 - 2:21
    sobre las elecciones
  • 2:21 - 2:23
    era falsa o incorrecta.
  • 2:23 - 2:28
    Además, este tipo de campañas
    de desinformación en redes sociales
  • 2:28 - 2:32
    pueden difundir lo que se ha llamado
    "propaganda genocida",
  • 2:32 - 2:35
    por ejemplo contra los rohingya en Burma,
  • 2:35 - 2:38
    que desencadenó linchamientos en la India.
  • 2:38 - 2:39
    Estudiamos las noticias falsas
  • 2:39 - 2:43
    y comenzamos a hacerlo
    antes de que fuera un término popular.
  • 2:43 - 2:48
    Y hemos publicado recientemente el estudio
    longitudinal más grande jamás realizado
  • 2:48 - 2:50
    sobre la difusión
    de noticias falsas en línea
  • 2:50 - 2:54
    en la portada de la revista "Science"
    en marzo de este año.
  • 2:55 - 2:59
    Estudiamos todas las noticias
    verificadas como verdaderas y falsas
  • 2:59 - 3:00
    que se propagaron por Twitter,
  • 3:00 - 3:04
    desde su creación en 2006 hasta 2017.
  • 3:05 - 3:07
    Y cuando estudiamos esta información,
  • 3:07 - 3:10
    tomamos las noticias
    verificadas y revisadas
  • 3:10 - 3:14
    por seis organizaciones
    independientes de comprobación de datos.
  • 3:14 - 3:17
    Así que sabíamos cuáles eran ciertas
  • 3:17 - 3:18
    y cuáles falsas.
  • 3:19 - 3:21
    Podemos medir su difusión,
  • 3:21 - 3:22
    la velocidad de su difusión,
  • 3:22 - 3:24
    el alcance de su difusión,
  • 3:24 - 3:29
    cuántas personas se enredan
    en esta cascada de información, etc.
  • 3:29 - 3:31
    Y lo que hicimos en esta investigación
  • 3:31 - 3:34
    fue comparar la propagación
    de noticias verdaderas con las falsas.
  • 3:34 - 3:36
    Y estos son los resultados.
  • 3:36 - 3:40
    Hallamos que una noticia falsa
    llega más lejos, más rápido
  • 3:40 - 3:42
    y tiene más alcance que la verdadera
  • 3:42 - 3:45
    en todas las categorías de información
    que hemos estudiado,
  • 3:45 - 3:47
    a veces en un orden de magnitud.
  • 3:48 - 3:51
    Y las noticias falsas en el ámbito
    de la política fueron las más virales.
  • 3:51 - 3:55
    Se difunden más lejos, más rápido,
    y tienen mayor alcance
  • 3:55 - 3:57
    que cualquier otro tipo
    de noticias falsas.
  • 3:57 - 3:59
    Cuando vimos esto,
  • 3:59 - 4:02
    sentimos a la vez
    preocupación y curiosidad.
  • 4:02 - 4:03
    ¿Por qué?
  • 4:03 - 4:06
    ¿Por qué las noticias falsas llegan
    más lejos, más rápido,
  • 4:06 - 4:08
    y tienen mayor alcance que la verdad?
  • 4:08 - 4:11
    La primera hipótesis
    que se nos ocurrió fue:
  • 4:11 - 4:14
    "Bueno, tal vez quienes
    difunden noticias falsas
  • 4:14 - 4:16
    tienen más seguidores
    o siguen a más gente,
  • 4:16 - 4:18
    o tuitean con más frecuencia,
  • 4:18 - 4:22
    o tal vez son más usuarios 'verificados'
    de Twitter, con más credibilidad,
  • 4:22 - 4:24
    o tal vez han estado
    en Twitter más tiempo".
  • 4:24 - 4:27
    Así que inspeccionamos
    cada uno de estos casos.
  • 4:27 - 4:30
    Y lo que encontramos
    fue exactamente lo contrario.
  • 4:30 - 4:32
    Quienes difundían noticias falsas
    tenían menos seguidores,
  • 4:32 - 4:36
    seguían a menos gente, eran menos activos,
    eran usuarios poco "verificados"
  • 4:36 - 4:39
    y habían estado en Twitter
    por un período de tiempo más corto.
  • 4:39 - 4:40
    Y sin embargo,
  • 4:40 - 4:45
    las noticias falsas eran un 70 %
    más propensas a ser retuiteadas,
  • 4:45 - 4:48
    teniendo en cuenta estos
    y muchos otros factores.
  • 4:48 - 4:51
    Así que tuvimos que buscar
    otras explicaciones.
  • 4:51 - 4:55
    E ideamos lo que llamamos
    "hipótesis de la novedad".
  • 4:55 - 4:57
    Si leemos documentaciones sobre el tema,
  • 4:57 - 5:01
    es bien sabido que la atención humana
    se siente atraída por la novedad,
  • 5:01 - 5:03
    cosas que son nuevas en el entorno.
  • 5:03 - 5:05
    Y si leemos la literatura sociológica,
  • 5:05 - 5:10
    veremos que nos gusta compartir
    información novedosa.
  • 5:10 - 5:14
    Sentimos que tenemos acceso
    a información privilegiada,
  • 5:14 - 5:17
    y ganamos estatus mediante la difusión
    de este tipo de información.
  • 5:18 - 5:24
    Decidimos entonces medir
    la novedad de un tuit verdadero o falso,
  • 5:24 - 5:28
    en comparación con el corpus
    de lo que esa persona había visto
  • 5:28 - 5:31
    en Twitter los 60 días anteriores.
  • 5:31 - 5:34
    Pero no fue suficiente, porque pensamos:
  • 5:34 - 5:38
    "Bueno, quizá las noticias falsas
    son más novedosas en un sentido teórico,
  • 5:38 - 5:42
    pero tal vez la gente
    no las percibe como más novedosas".
  • 5:42 - 5:46
    Así que para entender cómo
    la gente percibe las noticias falsas,
  • 5:46 - 5:49
    nos fijamos en la información
    y el componente afectivo
  • 5:50 - 5:54
    de las respuestas
    a los tuits verdaderos y falsos.
  • 5:54 - 5:55
    Y lo que detectamos
  • 5:55 - 5:59
    fue que, teniendo en cuenta
    un montón de sentimientos diferentes,
  • 5:59 - 6:03
    como sorpresa, disgusto, miedo, tristeza,
  • 6:03 - 6:05
    expectativa, alegría y confianza,
  • 6:05 - 6:11
    las noticias falsas generaron
    significativamente más sorpresa y disgusto
  • 6:11 - 6:14
    en las respuestas a los falsos tuits.
  • 6:14 - 6:18
    Y las noticias verdaderas mostraron
    significativamente más expectativas,
  • 6:18 - 6:20
    alegría y confianza
  • 6:20 - 6:22
    en respuesta a los tuits verdaderos.
  • 6:22 - 6:26
    La sorpresa corrobora
    nuestra hipótesis de la novedad.
  • 6:26 - 6:31
    Esto es nuevo y sorprendente,
    por lo que es más fácil que se comparta.
  • 6:31 - 6:34
    Al mismo tiempo,
    hubo testimonios ante el Congreso
  • 6:34 - 6:37
    en las dos cámaras parlamentarias
    de los Estados Unidos
  • 6:37 - 6:41
    sobre el papel de los robots
    en la propagación de información errónea.
  • 6:41 - 6:42
    Así que consideramos esto también.
  • 6:42 - 6:46
    Utilizamos múltiples algoritmos
    complejos de rastreo
  • 6:46 - 6:49
    para encontrar los robots
    en nuestros datos y sacarlos.
  • 6:49 - 6:52
    Los sacamos, los volvimos a poner
  • 6:52 - 6:55
    y comparamos lo que sucede
    con nuestras mediciones.
  • 6:55 - 6:57
    Descubrimos que, efectivamente,
  • 6:57 - 7:01
    los robots aceleraban la propagación
    de noticias falsas en línea,
  • 7:01 - 7:04
    pero aceleraban
    la propagación de las verdaderas
  • 7:04 - 7:06
    aproximadamente a la misma velocidad.
  • 7:06 - 7:09
    Lo que significa que los robots
    no son los responsables
  • 7:09 - 7:14
    de la difusión diferencial
    de la verdad y la mentira en línea.
  • 7:14 - 7:17
    No podemos renunciar
    a esa responsabilidad,
  • 7:17 - 7:21
    porque nosotros, los seres humanos,
    somos responsables de esa propagación.
  • 7:22 - 7:26
    Ahora bien, todo lo que
    les he dicho hasta el momento,
  • 7:26 - 7:28
    por desgracia para todos nosotros,
  • 7:28 - 7:29
    es la buena noticia.
  • 7:31 - 7:35
    La razón es que está
    a punto de ponerse mucho peor.
  • 7:36 - 7:40
    Y dos tecnologías específicas
    van a empeorar la situación.
  • 7:40 - 7:45
    Vamos a presenciar el aumento
    de una tremenda ola de medios sintéticos.
  • 7:45 - 7:51
    Video falso, audio falso,
    muy convincentes para el ojo humano.
  • 7:51 - 7:54
    Y esto será impulsado por dos tecnologías.
  • 7:54 - 7:58
    La primera es conocida como
    "redes de confrontación generativas".
  • 7:58 - 8:01
    Es un modelo de aprendizaje
    automático con dos redes:
  • 8:01 - 8:02
    un discriminador,
  • 8:02 - 8:06
    cuyo trabajo es determinar
    si algo es verdadero o falso,
  • 8:06 - 8:08
    y un generador,
  • 8:08 - 8:11
    cuyo trabajo es generar medios sintéticos.
  • 8:11 - 8:16
    El generador sintético
    genera un video o audio sintético,
  • 8:16 - 8:21
    y el discriminador trata de distinguir
    si es verdadero o falso.
  • 8:21 - 8:24
    Y, de hecho, el trabajo del generador
  • 8:24 - 8:28
    es maximizar la probabilidad
    de engañar al discriminador
  • 8:28 - 8:32
    para que crea que el video
    y el audio sintéticos que está creando
  • 8:32 - 8:33
    son realmente ciertos.
  • 8:33 - 8:36
    Imaginen una máquina en un Hyperloop,
  • 8:36 - 8:39
    que se perfecciona más y más
    con el fin de engañarnos.
  • 8:39 - 8:42
    Esto, combinado con la segunda tecnología,
  • 8:42 - 8:47
    que es esencialmente la democratización
    de la inteligencia artificial,
  • 8:47 - 8:50
    la capacidad de cualquier persona,
  • 8:50 - 8:52
    sin ningún tipo de experiencia
    en inteligencia artificial
  • 8:52 - 8:54
    o aprendizaje automático,
  • 8:54 - 8:58
    de implementar este tipo de algoritmos
    para generar los medios sintéticos
  • 8:58 - 9:02
    hace que, en última instancia,
    sea mucho más fácil crear videos.
  • 9:02 - 9:07
    La Casa Blanca emitió
    el video falso y adulterado
  • 9:07 - 9:11
    de una pasante que intentaba
    sacarle el micrófono a un periodista.
  • 9:11 - 9:13
    Eliminaron fotogramas de este video
  • 9:13 - 9:17
    para que las acciones del periodista
    pareciesen más violentas.
  • 9:17 - 9:21
    Y cuando camarógrafos y dobles
  • 9:21 - 9:23
    fueron consultados
    acerca de este tipo de técnica,
  • 9:23 - 9:27
    dijeron: "Sí, siempre
    lo hacemos en las películas
  • 9:27 - 9:32
    para que nuestros puñetazos y patadas
    parezcan más rápidos y agresivos".
  • 9:32 - 9:34
    Entonces mostraron este video
  • 9:34 - 9:37
    y lo utilizaron parcialmente como excusa
  • 9:37 - 9:42
    para denegar el acceso de Jim Acosta
    como periodista a la Casa Blanca.
  • 9:42 - 9:47
    Y la CNN tuvo que demandarlos
    para regresarle su pase de prensa.
  • 9:49 - 9:54
    Hay unos cinco modos diferentes
    que se me ocurren
  • 9:54 - 9:58
    para tratar de abordar algunos
    de estos problemas difíciles hoy en día.
  • 9:58 - 10:00
    Cada uno es prometedor,
  • 10:00 - 10:03
    pero tiene sus propios desafíos.
  • 10:03 - 10:05
    El primero es el etiquetado.
  • 10:05 - 10:07
    Piénsenlo de esta manera:
  • 10:07 - 10:10
    cuando van a la tienda
    para comprar alimentos,
  • 10:10 - 10:12
    está todo etiquetado.
  • 10:12 - 10:14
    Saben la cantidad de calorías que tiene,
  • 10:14 - 10:16
    la cantidad de grasa que contiene,
  • 10:16 - 10:20
    pero, cuando consumimos información,
    no tenemos etiquetas de ningún tipo.
  • 10:20 - 10:22
    ¿Qué contiene esta información?
  • 10:22 - 10:24
    ¿Es creíble la fuente?
  • 10:24 - 10:26
    ¿De dónde se obtuvo esta información?
  • 10:26 - 10:30
    No tenemos ninguno de esos datos
    cuando consumimos información.
  • 10:30 - 10:33
    Esa es una vía potencial,
    pero viene con sus desafíos.
  • 10:33 - 10:40
    Por ejemplo, ¿quién decide en la sociedad
    lo que es cierto y lo que es falso?
  • 10:40 - 10:42
    ¿Son los gobiernos?
  • 10:42 - 10:43
    ¿Es Facebook?
  • 10:44 - 10:47
    ¿Es un consorcio independiente
    de verificadores?
  • 10:47 - 10:50
    ¿Y quién controla a los verificadores?
  • 10:50 - 10:54
    Otra vía potencial son los incentivos.
  • 10:54 - 10:56
    Sabemos que durante
    la elección presidencial de EE. UU.
  • 10:56 - 11:00
    se produjo una oleada de información falsa
    que procedía de Macedonia.
  • 11:00 - 11:02
    No tenía ningún fin político
  • 11:02 - 11:04
    pero sí un fin económico.
  • 11:05 - 11:07
    Y este fin económico existió
  • 11:07 - 11:10
    porque las noticias falsas viajan
    mucho más lejos, más rápido,
  • 11:10 - 11:12
    y tienen mayor alcance que la verdad,
  • 11:13 - 11:17
    y se puede ganar dinero con la publicidad
    mientras se atrae la atención
  • 11:17 - 11:19
    con este tipo de información.
  • 11:19 - 11:23
    Pero si podemos reducir la difusión
    de esta información,
  • 11:23 - 11:26
    tal vez se reduciría
    el incentivo económico
  • 11:26 - 11:29
    para producirla.
  • 11:29 - 11:31
    En tercer lugar, pensemos en la regulación
  • 11:31 - 11:34
    y, desde luego, debemos
    pensar en esta opción.
  • 11:34 - 11:35
    En EE. UU., en la actualidad,
  • 11:35 - 11:40
    estamos explorando lo que podría suceder
    si Facebook y otros medios se regularan.
  • 11:40 - 11:44
    Aunque debemos tener en cuenta cosas
    como la regulación del discurso político,
  • 11:44 - 11:47
    es decir, etiquetarlo
    como discurso político,
  • 11:47 - 11:51
    asegurarse de que los actores extranjeros
    no puedan financiar el discurso político,
  • 11:51 - 11:53
    también tiene sus propios peligros.
  • 11:54 - 11:58
    Por ejemplo, Malasia acaba de instituir
    una condena de seis años de prisión
  • 11:58 - 12:02
    para cualquier persona que sea sorprendida
    difundiendo datos falsos.
  • 12:02 - 12:04
    Y en los regímenes autoritarios,
  • 12:04 - 12:08
    este tipo de políticas se pueden utilizar
    para suprimir las opiniones minoritarias
  • 12:08 - 12:12
    y para seguir ampliando la represión.
  • 12:13 - 12:16
    La cuarta opción posible
    es la transparencia.
  • 12:17 - 12:21
    Queremos saber cómo funcionan
    los algoritmos de Facebook.
  • 12:21 - 12:23
    ¿De qué manera los datos
    se combinan con los algoritmos
  • 12:23 - 12:26
    para producir los resultados que vemos?
  • 12:26 - 12:29
    Queremos que abran el kimono
  • 12:29 - 12:33
    y nos muestren exactamente
    el funcionamiento interno de Facebook.
  • 12:33 - 12:36
    Y si queremos conocer el efecto
    de las redes sociales en la sociedad,
  • 12:36 - 12:39
    necesitamos que científicos,
    investigadores y otras personas
  • 12:39 - 12:41
    tengan acceso a este tipo de información.
  • 12:41 - 12:43
    Pero al mismo tiempo,
  • 12:43 - 12:46
    estamos pidiendo a Facebook
    poner todo bajo llave
  • 12:46 - 12:49
    para mantener los datos seguros.
  • 12:49 - 12:52
    Así, Facebook y las otras
    plataformas de medios sociales
  • 12:52 - 12:55
    se enfrentan a lo que llamo
    "la paradoja de la transparencia".
  • 12:55 - 12:58
    Les estamos pidiendo
  • 12:58 - 13:02
    que sean abiertas, transparentes
    y, al mismo tiempo, seguras.
  • 13:03 - 13:05
    Esta es una aguja muy difícil enhebrar,
  • 13:06 - 13:07
    pero deberán enhebrar esta aguja
  • 13:07 - 13:11
    si queremos alcanzar la promesa
    de las tecnologías sociales
  • 13:11 - 13:13
    y, a la vez, evitar sus riesgos.
  • 13:13 - 13:15
    La última opción posible
  • 13:15 - 13:18
    son los algoritmos
    y el aprendizaje automático,
  • 13:18 - 13:22
    tecnología ideada para erradicar
    y entender las noticias falsas,
  • 13:22 - 13:26
    cómo se transmiten,
    y tratar de reducir su difusión.
  • 13:26 - 13:29
    La humanidad tiene que estar
    en el bucle de esta tecnología,
  • 13:29 - 13:31
    porque nunca podremos negar
  • 13:31 - 13:35
    que detrás de cualquier
    solución o enfoque tecnológico
  • 13:35 - 13:39
    hay una pregunta ética
    y filosófica fundamental
  • 13:39 - 13:42
    acerca de cómo definimos
    la verdad y la falsedad,
  • 13:42 - 13:46
    a quién le damos el poder
    de definir la verdad y la mentira,
  • 13:46 - 13:48
    y qué opiniones son legítimas,
  • 13:48 - 13:52
    qué tipo de discurso
    debe permitirse y así sucesivamente.
  • 13:52 - 13:54
    La tecnología no es
    una solución en este caso.
  • 13:54 - 13:58
    La ética y la filosofía son la solución.
  • 13:59 - 14:02
    Casi todas las teorías
    de la toma de decisiones humanas,
  • 14:02 - 14:05
    la cooperación humana
    y la coordinación humana
  • 14:05 - 14:09
    tienen un cierto sentido
    de la verdad en su esencia.
  • 14:09 - 14:11
    Pero con el aumento de noticias falsas,
  • 14:11 - 14:13
    de videos falsos,
  • 14:13 - 14:15
    de audios falsos,
  • 14:15 - 14:19
    estamos al borde del precipicio
    del fin de la realidad,
  • 14:19 - 14:23
    donde no podemos diferenciar
    lo que es real de lo que es falso.
  • 14:23 - 14:26
    Y eso es potencialmente
    muy peligroso.
  • 14:27 - 14:31
    Tenemos que estar vigilantes
    en la defensa de la verdad
  • 14:31 - 14:33
    contra la información errónea,
  • 14:33 - 14:36
    con nuestras tecnologías,
    con nuestras políticas
  • 14:36 - 14:38
    y, quizás lo más importante,
  • 14:38 - 14:42
    con nuestras propias responsabilidades,
  • 14:42 - 14:45
    decisiones, comportamientos
    y acciones individuales.
  • 14:46 - 14:47
    Muchas gracias.
  • 14:47 - 14:50
    (Aplausos)
Title:
Cómo proteger la verdad en la era de la desinformación
Speaker:
Sinan Aral
Description:

Las noticias falsas pueden influir en las elecciones, arruinar las economías y sembrar la discordia en la vida cotidiana. El experto en datos Sinan Aral desmitifica cómo y por qué se difunden tan rápidamente, para lo cual cita uno de los mayores estudios sobre desinformación, e identifica cinco estrategias para ayudarnos a desentrañar la enredada red entre lo verdadero y lo falso.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Spanish subtitles

Revisions Compare revisions