Return to Video

Dentro del estrambótico mundo de los trols y propagandistas de Internet

  • 0:01 - 0:02
    Durante los últimos tres años
  • 0:02 - 0:05
    he hablado con algunas de las
    peores personas del Internet.
  • 0:06 - 0:09
    Si han estado navegando
    en Internet recientemente,
  • 0:09 - 0:12
    puede que hayan notado la gran
    cantidad de basura tóxica que hay:
  • 0:12 - 0:17
    memes racistas, propaganda
    misógina, desinformación viral.
  • 0:17 - 0:20
    Y quería saber quien
    estaba creando estas cosas.
  • 0:20 - 0:22
    Quería entender cómo las difundían.
  • 0:22 - 0:23
    Básicamente, quería conocer
  • 0:23 - 0:26
    el impacto que podría
    tener en nuestra sociedad.
  • 0:26 - 0:30
    Así que en 2016 comencé a buscar
    el origen de algunos de estos memes
  • 0:30 - 0:33
    para llegar a quienes los creaban
    o a quienes los hacían virales.
  • 0:33 - 0:35
    Me acercaba a esta gente y les decía:
  • 0:35 - 0:38
    "Soy periodista. ¿Puedo acompañarlo
    y ver lo que hace?"
  • 0:38 - 0:39
    A menudo, la respuesta sería:
  • 0:39 - 0:41
    "¿Por qué diablos yo quisiera hablar
  • 0:41 - 0:44
    con un 'soy- boy' judío
    globalista de Brooklyn
  • 0:44 - 0:46
    confabulado con el partido demócrata?".
  • 0:46 - 0:47
    (Risas)
  • 0:47 - 0:51
    Y mi respuesta sería: "Mira,
    eso solo es un 57 % cierto".
  • 0:51 - 0:52
    (Risas)
  • 0:52 - 0:55
    Pero muchas veces
    la respuesta era la opuesta.
  • 0:55 - 0:56
    "Sí, por supuesto, siga."
  • 0:57 - 0:59
    Y así fue cómo terminé en la sala de estar
  • 0:59 - 1:02
    de un propagandista
    en el Sur de California.
  • 1:02 - 1:05
    Era un hombre blanco, casado,
    cerca de los cuarenta.
  • 1:05 - 1:08
    Sentado ante una mesa
    con una taza de café,
  • 1:08 - 1:10
    un portátil para tuitear,
  • 1:10 - 1:11
    un celular para textear
  • 1:11 - 1:15
    y un iPad para hacer directos
    en Periscope y YouTube.
  • 1:15 - 1:16
    Eso era todo.
  • 1:17 - 1:18
    Y con esas herramientas
  • 1:18 - 1:22
    era capaz de impulsar
    temas dañinos y alternativos
  • 1:22 - 1:24
    en medio de
    la conversación estadounidense.
  • 1:25 - 1:27
    Por ejemplo, uno de los días
    que estuve allí,
  • 1:27 - 1:30
    una bomba acababa de explotar
    en Nueva York,
  • 1:30 - 1:34
    y el chico acusado de haberla puesto
    tenía un sonante nombre musulmán.
  • 1:34 - 1:38
    El propagandista de California
    vio esto como una oportunidad
  • 1:38 - 1:40
    porque una de las cosas que quería
  • 1:40 - 1:42
    era que EE. UU. cortara
    casi toda la inmigración,
  • 1:42 - 1:45
    especialmente de los países
    mayoritariamente musulmanes.
  • 1:45 - 1:47
    Así que empezó una transmisión en vivo,
  • 1:47 - 1:50
    haciendo que sus seguidores
    se pusieran frenéticos
  • 1:50 - 1:53
    diciendo que las fronteras libres
    nos iban a matar.
  • 1:53 - 1:54
    Él les pedía que tuitiaran
  • 1:54 - 1:56
    y usaran hashtags específicos
  • 1:56 - 1:58
    para intentar hacerlos tendencia.
  • 1:58 - 1:59
    Y tuitearon...
  • 1:59 - 2:01
    Cientos y cientos de tuits,
  • 2:01 - 2:03
    muchos de ellos mostraban
    imágenes como esta.
  • 2:03 - 2:05
    Este es George Soros.
  • 2:05 - 2:08
    Un multimillonario y filántropo húngaro
  • 2:08 - 2:10
    y según varios conspiradores online,
  • 2:10 - 2:13
    George Soros es una especie
    de monstruo globalista,
  • 2:13 - 2:17
    perteneciente a la élite que secretamente
    manipula todos los asuntos globales.
  • 2:17 - 2:21
    Situémonos aquí un momento:
    si esta idea les resulta familiar,
  • 2:21 - 2:23
    que existe una élite que controla el mundo
  • 2:23 - 2:26
    formada en su mayoría por judíos ricos,
  • 2:26 - 2:29
    es porque es uno de las figuras
    más antisemitas que existen.
  • 2:30 - 2:34
    Debo mencionar que el hombre
    que puso la bomba en Nueva York
  • 2:34 - 2:35
    era un ciudadano estadounidense.
  • 2:36 - 2:38
    Fuera cual fuera la razón
  • 2:38 - 2:40
    la inmigración no era lo importante.
  • 2:41 - 2:44
    El propagandista de California
    era consciente de ello.
  • 2:44 - 2:47
    Era un hombre leído.
    En realidad, era abogado.
  • 2:47 - 2:48
    Conocía los hechos subyacentes,
  • 2:48 - 2:52
    pero también sabía que
    los hechos no dan de qué hablar.
  • 2:52 - 2:53
    Los que sí dan de qué hablar
  • 2:53 - 2:55
    es la emoción.
  • 2:55 - 2:57
    La premisa original de las redes sociales
  • 2:57 - 2:59
    era que iban a unirnos
  • 2:59 - 3:02
    a hacer un mundo
    más abierto, tolerante y justo...
  • 3:02 - 3:03
    Y algo de eso sí hizo.
  • 3:05 - 3:07
    Pero los algoritmos no se crearon
  • 3:07 - 3:10
    para distinguir lo que es
    verdad o mentira,
  • 3:10 - 3:14
    lo que es bueno o malo para la sociedad,
    lo que es prosocial, lo que es antisocial.
  • 3:14 - 3:16
    Eso no es lo que hacen los algoritmos.
  • 3:16 - 3:19
    Lo que hacen es medir la interacción:
  • 3:19 - 3:22
    clics, comentarios, qué se comparte,
    retweets, todas esas cosas.
  • 3:22 - 3:25
    Y si quiere que su contenido
    genere interacción,
  • 3:25 - 3:26
    tiene que provocar emoción,
  • 3:26 - 3:30
    específicamente lo que los expertos de la
    conducta llaman: "de alta excitación".
  • 3:30 - 3:33
    "Alta excitación" no se refiere
    solo a la sexual,
  • 3:33 - 3:36
    aunque tratándose de internet
    eso obviamente funciona.
  • 3:36 - 3:40
    Se refiere a cualquier cosa, positiva
    o negativa, que nos eleve el pulso.
  • 3:40 - 3:42
    Me senté con estos propagandistas,
  • 3:42 - 3:44
    docenas de ellos,
    no solo el de California,
  • 3:44 - 3:48
    y miraba mientras hacían esto
    una y otra vez, con éxito,
  • 3:48 - 3:51
    no porque fueran hackers rusos
    o porque fueran genios tecnológicos,
  • 3:51 - 3:54
    no porque tuvieran
    conocimientos políticos...
  • 3:54 - 3:56
    sino porque sabían cómo
    funcionaban las redes sociales
  • 3:56 - 3:58
    y estaban dispuestos a usarlo a su favor.
  • 3:58 - 4:02
    Al principio me decía
    que era un fenómeno aislado,
  • 4:02 - 4:04
    algo que quedaba relegado al internet.
  • 4:04 - 4:09
    Pero, en realidad, ya no hay separación
    entre el internet y todo lo demás.
  • 4:09 - 4:11
    Este anuncio recorrió múltiples cadenas
  • 4:11 - 4:14
    durante las elecciones
    al congreso del 2018,
  • 4:14 - 4:17
    afirmando, sin casi pruebas,
    que el manipulador internacional,
  • 4:17 - 4:19
    George Soros, tenía en el bolsillo
    a uno de los candidatos,
  • 4:19 - 4:23
    quien aparece en este montaje
    al lado de varias pilas de dinero.
  • 4:23 - 4:26
    Este es un tuit del presidente de EE. UU.
  • 4:26 - 4:27
    afirmando, de nuevo, sin pruebas,
  • 4:27 - 4:31
    que la política estadounidense
    está siendo manipulada por George Soros.
  • 4:31 - 4:35
    Todo esto que antes parecía escandaloso,
    marginal y, francamente, ignorable,
  • 4:35 - 4:38
    ahora está tan normalizado
    que casi ni lo notamos.
  • 4:38 - 4:40
    Pasé tres años en este mundo.
  • 4:40 - 4:42
    Hablé con mucha gente.
  • 4:42 - 4:44
    Algunos parecen no tener
    valores fundamentales.
  • 4:44 - 4:47
    Simplemente parecen estar
    apostando de manera racional
  • 4:47 - 4:49
    a que si ellos querían
    hacer dinero en línea
  • 4:49 - 4:50
    o conseguir atención online,
  • 4:50 - 4:53
    deberían ser lo más extravagantes posible.
  • 4:53 - 4:56
    Pero hablé con otros quienes
    eran verdaderos ideólogos.
  • 4:56 - 5:00
    Y aclaro, su ideología
    no era conservadurismo tradicional.
  • 5:00 - 5:03
    Eran personas que querían
    revocar el sufragio femenino.
  • 5:03 - 5:06
    Eran personas que querían
    volver a la segregación racial.
  • 5:06 - 5:09
    Algunos querían eliminar
    la democracia de raíz.
  • 5:09 - 5:12
    Obviamente, esta gente
    no nacieron creyendo estas cosas.
  • 5:12 - 5:14
    No lo aprendieron en el colegio.
  • 5:15 - 5:18
    Muchos de ellos,
    antes de entrar en internet,
  • 5:18 - 5:20
    habían sido libertarios o socialistas
  • 5:20 - 5:23
    o algo completamente diferente.
  • 5:23 - 5:24
    ¿Qué estaba pasando?
  • 5:25 - 5:27
    No puedo generalizar cada caso,
  • 5:27 - 5:29
    pero muchos con los que hablé,
  • 5:29 - 5:33
    parecían tener una combinación
    de coeficiente intelectual alto y bajo.
  • 5:33 - 5:36
    Parecían estar más cómodos
    en espacios anónimos en línea
  • 5:36 - 5:38
    en vez de estar conectados
    en el mundo real.
  • 5:39 - 5:41
    A menudo se refugiaban en
    esos tableros de mensajes
  • 5:41 - 5:42
    o en esos subreddits,
  • 5:42 - 5:45
    donde se magnificaban sus peores impulsos.
  • 5:45 - 5:48
    Puede que comiencen
    con alguna broma de mal gusto
  • 5:48 - 5:51
    y después recibirían tal
    refuerzo positivo por esa broma,
  • 5:51 - 5:54
    tantos puntos de internet sin sentido,
  • 5:54 - 5:57
    que puede que comiencen
    a creerse sus propias bromas.
  • 5:58 - 6:02
    Hablé mucho con una joven
    que creció en Nueva Jersey
  • 6:02 - 6:04
    y después del bachillerato se mudó
  • 6:04 - 6:06
    y de repente se sintió alienada y aislada,
  • 6:06 - 6:08
    y comenzó a refugiarse en su celular.
  • 6:09 - 6:11
    Encontró alguno de estos
    espacios en internet
  • 6:11 - 6:14
    donde la gente publicaba
    las cosas más atroces.
  • 6:14 - 6:16
    Todo esto le pareció repulsivo
  • 6:16 - 6:18
    pero a la vez interesante,
  • 6:19 - 6:21
    no podía apartar la mirada.
  • 6:21 - 6:24
    Comenzó a interactuar
    con gente en estos espacios
  • 6:24 - 6:27
    y la hicieron sentir inteligente,
    la hicieron sentir válida.
  • 6:27 - 6:29
    Comenzó a sentirse
    parte de una comunidad,
  • 6:29 - 6:31
    comenzó a preguntarse
    si quizás alguno de esos memes
  • 6:31 - 6:34
    podría contener algo de verdad.
  • 6:34 - 6:37
    Meses después, estaba en un carro
    con sus nuevos amigos de internet
  • 6:37 - 6:39
    camino a Charlottesville, en Virginia,
  • 6:39 - 6:42
    para marchar con antorchas
    por la raza blanca.
  • 6:43 - 6:45
    En pocos meses,
    había pasado de apoyar a Obama
  • 6:45 - 6:48
    a ser una radical defensora
    de la supremacía blanca.
  • 6:49 - 6:51
    En su caso en particular,
  • 6:51 - 6:55
    ella fue capaz de salir de la secta
    de la supremacía blanca.
  • 6:56 - 6:58
    Pero mucha gente con la que hablé no.
  • 6:59 - 7:00
    Para ser claro:
  • 7:00 - 7:03
    Nunca había estado tan convencido
    de que tenía que encontrar
  • 7:03 - 7:05
    algo en común con todos con los que hablé
  • 7:05 - 7:07
    y estar dispuesto a decir:
  • 7:07 - 7:10
    "¿Sabes qué? Tú eres un
    propagandista fascista, yo no,
  • 7:10 - 7:13
    pero da igual, démonos la mano
    y nuestras diferencias desaparecerán".
  • 7:13 - 7:15
    No, por supuesto que no.
  • 7:16 - 7:20
    Pero sí me convencí de que
    no podía mirar para otro lado.
  • 7:20 - 7:23
    Tenemos que intentar entenderlo
    porque solo al entenderlo
  • 7:23 - 7:26
    podemos vacunarnos contra ello.
  • 7:27 - 7:31
    Durante mis tres años
    en este mundo, recibí llamadas crueles,
  • 7:31 - 7:32
    incluso amenazas,
  • 7:32 - 7:36
    pero tan solo fue una parte
    de lo que reciben las periodistas.
  • 7:37 - 7:38
    Y sí, yo soy judío,
  • 7:38 - 7:42
    aunque, irónicamente, muchos
    de los Nazis no se dieron cuenta,
  • 7:42 - 7:45
    lo que, la verdad,
    me pareció decepcionante.
  • 7:45 - 7:47
    (Risas)
  • 7:47 - 7:51
    En serio, se dedica a ser
    un antisemita profesional.
  • 7:51 - 7:54
    ¿No ve nada que me delate?
  • 7:54 - 7:55
    ¿Nada?
  • 7:55 - 7:57
    (Risas)
  • 7:58 - 7:59
    No es ningún secreto.
  • 7:59 - 8:02
    Me llamo Andrew Marantz,
    escribo para el "The New Yorker"
  • 8:02 - 8:04
    mi personalidad es como si pusieran
  • 8:04 - 8:06
    un episodio de Seinfeld
    en Park Slope Food Coop.
  • 8:06 - 8:07
    ¿Nada?
  • 8:08 - 8:10
    (Risas)
  • 8:13 - 8:15
    En fin... básicamente, estaría bien
  • 8:15 - 8:17
    que hubiera una fórmula simple:
  • 8:17 - 8:22
    un smartphone más un niño aislado es igual
    a un 12 % de posibilidades de ser Nazi.
  • 8:22 - 8:24
    Obviamente no es tan simple.
  • 8:24 - 8:25
    En mi forma de escribir,
  • 8:25 - 8:29
    me resulta mucho más cómodo
    ser descriptivo, no prescriptivo.
  • 8:29 - 8:32
    Pero esto es TED,
  • 8:32 - 8:34
    así que seamos prácticos.
  • 8:34 - 8:35
    Quiero compartir unas sugerencias
  • 8:35 - 8:39
    de cosas que ciudadanos
    de internet como usted y como yo
  • 8:39 - 8:41
    podemos hacer para
    que las cosas no sean tan tóxicas.
  • 8:42 - 8:43
    [Sugerencia 1]
  • 8:43 - 8:45
    Lo primero es ser
    un inteligente escéptico.
  • 8:46 - 8:48
    Creo que hay dos tipos de escepticismo.
  • 8:48 - 8:52
    No los quiero aburrir con información
    técnica que necesite explicación,
  • 8:52 - 8:55
    pero lo llamo escepticismo
    inteligente y estúpido.
  • 8:56 - 8:59
    Escepticismo inteligente:
  • 8:59 - 9:00
    pensar por uno mismo,
  • 9:00 - 9:01
    dudar de toda afirmación,
  • 9:01 - 9:03
    demandar pruebas...
  • 9:03 - 9:04
    es decir, escepticismo de verdad.
  • 9:05 - 9:08
    Escepticismo estúpido:
    parece escepticismo,
  • 9:08 - 9:11
    pero está más cerca
    de ser espíritu de contradicción.
  • 9:12 - 9:13
    Dicen que la tierra es redonda,
  • 9:13 - 9:15
    tú dices que es plana.
  • 9:15 - 9:16
    Dicen que el racismo es malo,
  • 9:16 - 9:19
    tú dices: "No sé,
    soy escéptico en el tema".
  • 9:20 - 9:23
    No tienen una idea de
    cuántos jóvenes blancos
  • 9:23 - 9:25
    me han dicho en los últimos años:
  • 9:25 - 9:28
    "Los medios, mis profesores
    todos intentan adoctrinarme
  • 9:28 - 9:31
    sobre el privilegio masculino
    y el privilegio blanco
  • 9:31 - 9:33
    pero no sé, yo no lo creo".
  • 9:33 - 9:36
    Adolescentes blancos del mundo,
  • 9:36 - 9:37
    escuchen:
  • 9:39 - 9:42
    si son escépticos acerca de que la tierra
    es redonda, el privilegio masculino
  • 9:42 - 9:45
    o sobre que el racismo es malo,
  • 9:45 - 9:47
    no están siendo
    escépticos sino imbéciles".
  • 9:47 - 9:51
    (Aplausos)
  • 9:52 - 9:55
    Está bien pensar por uno mismo,
    todos deberíamos hacerlo,
  • 9:55 - 9:57
    pero hay que ser inteligentes.
  • 9:57 - 9:58
    [Sugerencia 2]
  • 9:58 - 10:00
    La siguiente es libertad de expresión.
  • 10:00 - 10:02
    Escucharán a gente inteligente decir:
  • 10:02 - 10:04
    "Estoy a favor de
    la libertad de expresión"
  • 10:04 - 10:07
    y lo dirán como si estuvieran
    comenzando un debate,
  • 10:07 - 10:11
    cuando en realidad es el inicio
    de cualquier conversación importante.
  • 10:11 - 10:14
    Todas las cosas importantes
    ocurren a partir de allí.
  • 10:14 - 10:16
    Bien, está a favor, ¿y eso qué significa?
  • 10:16 - 10:18
    ¿Significa que David Duke
    y Richard Spencer
  • 10:18 - 10:20
    tienen que tener cuentas en Twitter?
  • 10:21 - 10:24
    ¿Significa que podemos
    acosar en línea a cualquier persona
  • 10:24 - 10:25
    por cualquier razón?
  • 10:25 - 10:28
    He visto la lista completa
    de oradores de TED este año.
  • 10:28 - 10:30
    No encontré a ningún terraplanista.
  • 10:30 - 10:33
    ¿Eso es una violación
    de la libertad de expresión?
  • 10:33 - 10:37
    Todos estamos a favor y es maravilloso
    estar a favor de la libertad de expresión,
  • 10:37 - 10:39
    pero si es lo único
    que dicen una y otra vez,
  • 10:39 - 10:42
    se interpondrán a
    una conversación más productiva.
  • 10:43 - 10:44
    [Sugerencia 3]
  • 10:44 - 10:47
    Hacer que la decencia
    vuelva a estar de moda.
  • 10:47 - 10:48
    ¡Genial!
  • 10:48 - 10:50
    (Aplausos)
  • 10:50 - 10:52
    Sí. Ni siquiera tengo que explicarlo.
  • 10:52 - 10:56
    En mi investigación, entré a Reddit,
    o a YouTube o a Facebook,
  • 10:56 - 10:58
    y busqué "ley sharia"
  • 10:58 - 11:00
    o "el Holocausto"
  • 11:01 - 11:04
    y se pueden hacer una idea
    de lo que los algoritmos me mostraron.
  • 11:04 - 11:07
    "¿Se está extendiendo
    la ley sharia en EE. UU.?"
  • 11:07 - 11:09
    "¿De verdad ocurrió el Holocausto?"
  • 11:10 - 11:12
    Escepticismo estúpido.
  • 11:13 - 11:15
    Estamos en una extraña dinámica en línea
  • 11:15 - 11:17
    donde vemos propaganda intolerante
  • 11:17 - 11:20
    como provocadora, peligrosa y agradable,
  • 11:20 - 11:23
    y vemos la verdad fundamental
    y la decencia como chocante
  • 11:23 - 11:26
    como muestra de virtud
    o simplemente aburrida.
  • 11:26 - 11:30
    Los algoritmos de las redes sociales,
    intencionadamente o no,
  • 11:30 - 11:32
    lo han incentivado,
  • 11:32 - 11:35
    porque la propaganda intolerante
    es genial para la interacción.
  • 11:35 - 11:37
    Todo el mundo clica,
    todo el mundo comenta,
  • 11:37 - 11:39
    tanto si les gusta como si lo odian.
  • 11:39 - 11:42
    Lo primero que tiene que pasar
  • 11:42 - 11:45
    es que las redes sociales
    arreglen sus plataformas.
  • 11:45 - 11:49
    (Aplausos)
  • 11:50 - 11:53
    Si me están escuchando
    y trabajan para una red social
  • 11:53 - 11:56
    o invierten en una
    o, no sé, es dueño de una,
  • 11:57 - 11:58
    este consejo va para Uds.
  • 11:58 - 12:02
    Si están optimizando
    para una interacción emocional
  • 12:02 - 12:06
    y esta interacción resulta
    que está dañando el mundo,
  • 12:06 - 12:09
    es el momento de optimizar otra cosa.
  • 12:09 - 12:12
    (Aplausos)
  • 12:15 - 12:18
    Pero además de
    presionarlos para que lo hagan
  • 12:18 - 12:21
    y esperar y desear que lo hagan,
  • 12:21 - 12:24
    hay algo que nosotros podemos hacer.
  • 12:24 - 12:28
    Podemos crear mejores caminos
    o sugerir mejores caminos
  • 12:28 - 12:30
    para los adolescentes enfadados.
  • 12:30 - 12:33
    Si ven algo que creen
    que es creativo y considerado
  • 12:33 - 12:35
    y quieren compartirlo,
    sepan que pueden compartirlo
  • 12:35 - 12:38
    aunque no les invada
    una alta excitación.
  • 12:38 - 12:40
    Sé que es un paso pequeño
  • 12:40 - 12:43
    pero en conjunto esto importa,
  • 12:43 - 12:46
    porque estos algoritmos
    por muy poderosos que sean
  • 12:46 - 12:47
    toman su comportamiento de nosotros.
  • 12:50 - 12:51
    Los dejo con esto.
  • 12:52 - 12:54
    Hace algunos años,
    estaba muy de moda decir
  • 12:54 - 12:57
    que internet era
    una herramienta revolucionaria
  • 12:57 - 12:58
    que iba a unirnos.
  • 12:59 - 13:01
    Ahora está más de moda decir
  • 13:01 - 13:04
    que el internet es un
    basurero irreversible.
  • 13:05 - 13:07
    Ninguna afirmación es verdadera.
  • 13:07 - 13:09
    Sabemos que el internet
    es muy vasto y complejo
  • 13:09 - 13:11
    como para ser bueno o malo.
  • 13:11 - 13:13
    Y el peligro de pensar así,
  • 13:13 - 13:16
    bien sea la visión utópica
    de que internet nos salvará
  • 13:16 - 13:20
    o la visión distópica
    de que nos destruirá,
  • 13:20 - 13:22
    es que nos estamos saliendo de rositas.
  • 13:24 - 13:26
    No hay nada inevitable en nuestro futuro.
  • 13:27 - 13:29
    El internet lo hace la gente.
  • 13:29 - 13:32
    La gente toma las decisiones
    en las empresas de redes sociales.
  • 13:32 - 13:35
    La gente hace que los hashtags
    sean o no tendencia.
  • 13:35 - 13:38
    La gente hace que
    la sociedad avance o retroceda.
  • 13:39 - 13:41
    Cuando interioricemos esto,
  • 13:41 - 13:44
    podremos dejar de esperar
    a que llegue el inevitable futuro
  • 13:44 - 13:45
    y ponernos a trabajar ahora.
  • 13:47 - 13:50
    A todos nos han enseñado
    que el arco del universo moral es grande,
  • 13:50 - 13:52
    pero tiende a la justicia.
  • 13:54 - 13:56
    Quizás.
  • 13:57 - 13:58
    Quizás lo haga.
  • 13:59 - 14:01
    Pero eso siempre ha sido una aspiración.
  • 14:01 - 14:03
    No es una garantía.
  • 14:04 - 14:06
    El arco no se inclina solo.
  • 14:06 - 14:10
    No hay una fuerza misteriosa
    que lo incline inevitablemente.
  • 14:10 - 14:11
    La única verdad,
  • 14:11 - 14:14
    que asusta, pero a la vez es liberadora,
  • 14:15 - 14:16
    es que nosotros lo inclinamos.
  • 14:17 - 14:18
    Gracias.
  • 14:18 - 14:21
    (Aplausos)
Title:
Dentro del estrambótico mundo de los trols y propagandistas de Internet
Speaker:
Andrew Marantz
Description:

El periodista Andrew Marantz pasó tres años inmerso en el mundo de los trols y los propagandistas en las redes sociales, buscando a la gente que impulsa temas de conversación alternativos hasta el centro de la conversación en línea e intentando entender cómo difunden sus ideas. Desciende junto a él a los abismos de la propaganda en línea y la desinformación... y aprende cómo podemos empezar a hacer el Internet menos tóxico.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Spanish subtitles

Revisions