Return to Video

Cómo puedes ayudar a transformar internet en un lugar confiable

  • 0:02 - 0:04
    No importa quiénes son o dónde viven,
  • 0:04 - 0:06
    supongo que tienen al menos un pariente
  • 0:06 - 0:09
    al que le gusta reenviar
    esos correos electrónicos.
  • 0:09 - 0:11
    Ya saben de los que estoy hablando...
  • 0:11 - 0:14
    los que tienen reclamos dudosos
    o videos de conspiración.
  • 0:14 - 0:17
    Y probablemente
    ya los han silenciado en Facebook
  • 0:17 - 0:19
    por compartir publicaciones sociales
    como esta.
  • 0:19 - 0:21
    Es una imagen de un plátano
  • 0:21 - 0:23
    con una extraña cruz roja
    corriendo por el centro.
  • 0:23 - 0:26
    Y el texto a su alrededor
    advierte a las personas
  • 0:26 - 0:28
    de no comer frutas que se vean así,
  • 0:28 - 0:30
    sugiriendo que han sido
    inyectadas con sangre
  • 0:30 - 0:32
    contaminada con el virus del VIH.
  • 0:32 - 0:35
    Y el mensaje social compartido arriba
    simplemente dice:
  • 0:35 - 0:37
    "Por favor, reenvíe para salvar vidas".
  • 0:38 - 0:41
    Los verificadores de hechos
    han desacreditado esto durante años,
  • 0:41 - 0:44
    pero es uno de esos rumores
    que simplemente no morirán.
  • 0:44 - 0:45
    Un rumor zombie.
  • 0:46 - 0:48
    Y, por supuesto, es completamente falso.
  • 0:48 - 0:51
    Puede ser tentador reírse
    de un ejemplo como este, decir:
  • 0:51 - 0:53
    "Bueno, ¿quién creería esto,
    de todos modos?".
  • 0:53 - 0:55
    Pero es un rumor zombie
  • 0:55 - 0:59
    porque aprovecha los temores más profundos
    de las personas sobre su propia seguridad
  • 0:59 - 1:01
    y la de las personas que aman.
  • 1:02 - 1:05
    Y si pasan tanto tiempo como yo
    mirando información engañosa,
  • 1:05 - 1:08
    saben que este es solo
    un ejemplo de muchos que se aprovechan
  • 1:08 - 1:11
    de los temores y vulnerabilidades
    más profundos de las personas.
  • 1:11 - 1:16
    Todos los días, en todo el mundo,
    vemos decenas de nuevos memes en Instagram
  • 1:16 - 1:19
    alentando a los padres
    a no vacunar a sus hijos.
  • 1:19 - 1:23
    Vemos nuevos videos en YouTube que dicen
    que el cambio climático es un engaño.
  • 1:23 - 1:25
    Y en todas las plataformas,
  • 1:25 - 1:28
    vemos un sinfín de publicaciones diseñadas
    para demonizar a los demás.
  • 1:28 - 1:31
    sobre la base de su raza,
    religión o sexualidad.
  • 1:32 - 1:35
    Bienvenidos a uno de los desafíos
    centrales de nuestro tiempo.
  • 1:36 - 1:40
    ¿Cómo mantener un Internet
    con libertad de expresión en el núcleo,
  • 1:40 - 1:43
    a la vez de asegurar
    de que el contenido que se difunde
  • 1:43 - 1:47
    no causa daños irreparables a
    nuestras democracias, nuestras comunidades
  • 1:47 - 1:49
    y a nuestro bienestar físico y mental?
  • 1:50 - 1:52
    Porque vivimos
    en la era de la información,
  • 1:52 - 1:56
    todavía la moneda central
    de la que todos dependemos, información,
  • 1:56 - 1:58
    ya no se considera totalmente confiable
  • 1:58 - 2:00
    y, a veces, puede parecer
    francamente peligrosa.
  • 2:01 - 2:02
    Esto se debe en parte
  • 2:02 - 2:05
    al crecimiento desbocado de
    las plataformas de intercambio social.
  • 2:05 - 2:06
    que nos permiten ir allá
  • 2:06 - 2:09
    donde mentiras y hechos se sientan juntos,
  • 2:09 - 2:12
    pero sin ninguna de las señales
    tradicionales de confiabilidad.
  • 2:12 - 2:16
    Y Dios, nuestro lenguaje en torno a esto
    está terriblemente confuso.
  • 2:16 - 2:19
    La gente todavía está obsesionada
    con la frase "noticias falsas"
  • 2:19 - 2:22
    a pesar del hecho de que
    es extraordinariamente inútil
  • 2:22 - 2:25
    y solía describir una serie de cosas
    que en realidad son muy diferentes:
  • 2:25 - 2:28
    mentiras, rumores, engaños,
    conspiraciones, propaganda.
  • 2:29 - 2:32
    Realmente quiero que
    podamos dejar de usar una frase
  • 2:32 - 2:35
    que ha sido cooptada
    por políticos de todo el mundo,
  • 2:35 - 2:36
    de izquierda a derecha
  • 2:36 - 2:39
    utilizada como arma para atacar
    a una prensa libre e independiente.
  • 2:40 - 2:45
    (Aplausos)
  • 2:45 - 2:48
    Porque necesitamos nuestros medios
    profesionales ahora más que nunca.
  • 2:49 - 2:52
    Además, la mayor parte de este contenido
    ni siquiera se disfraza de noticia.
  • 2:52 - 2:55
    Son memes, videos, publicaciones sociales.
  • 2:55 - 2:58
    Y la mayor parte no es falsa; es engañosa.
  • 2:58 - 3:01
    Tendemos a fijarnos
    en lo que es verdadero o falso.
  • 3:01 - 3:05
    Pero la mayor preocupación es en realidad
    la armamentización del contexto.
  • 3:07 - 3:09
    Porque la desinformación más efectiva
  • 3:09 - 3:12
    siempre ha sido la que tiene
    un núcleo de verdad.
  • 3:12 - 3:15
    Tomemos este ejemplo de Londres,
    de marzo de 2017,
  • 3:15 - 3:17
    un tuit que circuló ampliamente
  • 3:17 - 3:21
    tras un incidente terrorista
    en el puente de Westminster.
  • 3:21 - 3:23
    Esta es una imagen genuina, no falsa.
  • 3:23 - 3:26
    La mujer que aparece en la fotografía
    fue entrevistada después,
  • 3:26 - 3:29
    y explicó que estaba
    completamente traumatizada.
  • 3:29 - 3:31
    Hablaba por teléfono con un ser querido,
  • 3:31 - 3:33
    y no miraba a la víctima por respeto.
  • 3:33 - 3:37
    Pero aún circulaba ampliamente
    con este marco islamofóbico,
  • 3:37 - 3:40
    con múltiples etiquetas,
    que incluyen: #BanIslam
  • 3:40 - 3:43
    Ahora, si trabajaran en Twitter,
    ¿qué harían?
  • 3:43 - 3:45
    ¿Lo quitarían o lo dejarían?
  • 3:47 - 3:50
    Mi reacción intestinal,
    mi reacción emocional, es bajar esto.
  • 3:50 - 3:52
    Odio el encuadre de esta imagen.
  • 3:53 - 3:55
    Pero la libertad de expresión
    es un derecho humano,
  • 3:55 - 3:58
    y si comenzamos a hablar mal
    de lo que nos hace sentir incómodos,
  • 3:58 - 3:59
    tenemos un problema.
  • 4:00 - 4:02
    Y esto podría parecer un caso claro,
  • 4:02 - 4:03
    pero, en realidad, la mayoría no lo son.
  • 4:04 - 4:06
    Estas líneas son
    increíblemente difíciles de trazar.
  • 4:06 - 4:08
    Lo qué es una decisión
    bien intencionada para uno
  • 4:08 - 4:10
    es una censura absoluta para la siguiente.
  • 4:11 - 4:14
    Lo que ahora sabemos es que
    esta cuenta, Texas Lone Star,
  • 4:14 - 4:17
    fue parte de una campaña de
    desinformación rusa más amplia,
  • 4:17 - 4:19
    una que desde entonces ha sido eliminada.
  • 4:19 - 4:21
    ¿Eso cambiaría su punto de vista?
  • 4:21 - 4:22
    Cambiaría el mío,
  • 4:23 - 4:25
    porque ahora se trata
    de una campaña coordinada
  • 4:25 - 4:26
    para sembrar discordia.
  • 4:26 - 4:28
    Y para quienes les gustaría pensar
  • 4:28 - 4:31
    que la IA resolverá
    todos nuestros problemas,
  • 4:31 - 4:33
    creo que estaremos de acuerdo
    que estamos muy lejos
  • 4:33 - 4:36
    de que la IA pueda dar sentido
    a publicaciones como esta.
  • 4:36 - 4:39
    Así que me gustaría explicar
    tres problemas entrelazados
  • 4:39 - 4:42
    que hacen que esto sea tan complejo
  • 4:42 - 4:45
    y que luego piensen en formas
    para abordar estos desafíos.
  • 4:45 - 4:49
    Primero, simplemente no tenemos
    una relación racional con la información,
  • 4:49 - 4:51
    Tenemos una emocional.
  • 4:51 - 4:55
    Simplemente, no es cierto que
    más hechos harán que todo esté bien,
  • 4:55 - 4:58
    porque los algoritmos
    que determinan qué contenido vemos
  • 4:58 - 5:01
    están diseñados para recompensar
    nuestras respuestas emocionales.
  • 5:01 - 5:02
    Y cuando tenemos miedo,
  • 5:02 - 5:05
    narraciones demasiado simplificadas,
    explicaciones conspirativas
  • 5:05 - 5:09
    y el lenguaje que demoniza a los demás
    es mucho más efectivo.
  • 5:10 - 5:11
    Y además, muchas de estas empresas,
  • 5:11 - 5:14
    su modelo de negocio
    está unido a la atención,
  • 5:14 - 5:18
    lo que significa que estos algoritmos
    estarán sesgados hacia la emoción.
  • 5:18 - 5:23
    Segundo, la mayor parte del discurso
    del que estoy hablando aquí es legal.
  • 5:23 - 5:25
    Seria un asunto diferente
  • 5:25 - 5:27
    si hablara de imágenes
    de abuso sexual infantil
  • 5:27 - 5:29
    o contenido que incita a la violencia.
  • 5:29 - 5:32
    Puede ser perfectamente legal
    publicar una mentira absoluta.
  • 5:33 - 5:37
    Pero la gente sigue hablando de eliminar
    contenido "problemático" o "dañino",
  • 5:37 - 5:40
    pero sin una definición clara
    de lo que quieren decir,
  • 5:40 - 5:41
    incluyendo a Mark Zuckerberg,
  • 5:41 - 5:45
    quien recientemente pidió una
    regulación global para moderar el habla.
  • 5:45 - 5:47
    Y mi preocupación es que vemos gobiernos
  • 5:47 - 5:48
    en todo el mundo
  • 5:48 - 5:51
    implementar decisiones
    políticas apresuradas
  • 5:51 - 5:54
    que podrían desencadenar
    consecuencias mucho más graves
  • 5:54 - 5:56
    cuando se trata de nuestra charla.
  • 5:56 - 6:00
    E incluso si pudiéramos decidir
    qué charla dejar o eliminar.
  • 6:00 - 6:02
    Nunca hemos tenido tantas charlas.
  • 6:02 - 6:05
    Cada segundo, se suben
    millones de piezas de contenido
  • 6:05 - 6:06
    de personas de todo el mundo
  • 6:06 - 6:07
    en diferentes idiomas
  • 6:07 - 6:10
    aprovechando miles
    de diferentes contextos culturales.
  • 6:10 - 6:13
    Simplemente nunca hemos tenido
    mecanismos efectivos
  • 6:13 - 6:15
    para moderar la libre expresión
    a esta escala,
  • 6:15 - 6:17
    ya sea impulsada por humanos
    o por tecnología.
  • 6:18 - 6:22
    Y en tercer lugar, estas empresas
    (Google, Twitter, Facebook, WhatsApp)
  • 6:22 - 6:25
    son parte de un ecosistema
    de información más amplio.
  • 6:25 - 6:29
    Nos gusta echarles toda la culpa a ellos,
    pero la verdad es que los medios
  • 6:29 - 6:32
    y los funcionarios electos también
    pueden desempeñar un papel igual
  • 6:32 - 6:35
    en amplificar rumores
    y conspiraciones cuando quieren.
  • 6:36 - 6:41
    Como podemos nosotros, al reenviar sin
    pensar contenido divisivorio o engañoso
  • 6:41 - 6:42
    sin estar seguros.
  • 6:42 - 6:45
    Estamos agregando más a esa contaminación.
  • 6:45 - 6:48
    Sé que todos estamos buscando
    una solución fácil.
  • 6:48 - 6:50
    Pero simplemente no la hay.
  • 6:50 - 6:52
    Cualquier solución
    tendrá que implementarse
  • 6:52 - 6:54
    a gran escala, escala de Internet,
  • 6:54 - 6:58
    y sí, las plataformas, están acostumbradas
    a operar a ese nivel.
  • 6:58 - 7:01
    pero ¿podemos y debemos permitirles
    que solucionen estos problemas?
  • 7:01 - 7:03
    Ciertamente lo están intentando.
  • 7:03 - 7:06
    Estamos de acuerdo en que
    no queremos que sean
  • 7:06 - 7:09
    las corporaciones globales las guardianas
    de la verdad y equidad en línea.
  • 7:09 - 7:12
    Y también creo que las plataformas
    estarían de acuerdo con eso.
  • 7:12 - 7:15
    Y en este momento,
    están marcando su propia tarea.
  • 7:15 - 7:16
    Les gusta decirnos
  • 7:16 - 7:19
    que las intervenciones que están
    implementando funcionan,
  • 7:19 - 7:22
    pero como hacen sus propios informes
    de transparencia,
  • 7:22 - 7:25
    no se puede verificar independientemente
    lo que realmente está sucediendo.
  • 7:26 - 7:30
    (Aplausos)
  • 7:30 - 7:32
    Y seamos claros que la mayoría
    de los cambios que vemos
  • 7:32 - 7:36
    solo suceden después de que
    los periodistas inicien una investigación
  • 7:36 - 7:37
    y encuentren evidencia de sesgo
  • 7:37 - 7:40
    o contenido que rompe
    las pautas de su comunidad.
  • 7:41 - 7:45
    Sí, estas compañías tienen que jugar de
    verdad un papel importante en el proceso,
  • 7:45 - 7:47
    pero no pueden controlarlo.
  • 7:48 - 7:49
    ¿Y qué hay de los gobiernos?
  • 7:50 - 7:53
    Muchos creen que la regulación global
    es nuestra última esperanza.
  • 7:53 - 7:56
    en términos de limpieza de
    nuestro ecosistema de información.
  • 7:56 - 7:59
    Pero lo que veo son legisladores
    que luchan por mantenerse al día
  • 7:59 - 8:01
    con los rápidos cambios en la tecnología.
  • 8:01 - 8:03
    Y peor, trabajan en la oscuridad,
  • 8:03 - 8:05
    porque no tienen acceso a los datos
  • 8:05 - 8:08
    para entender lo que está
    sucediendo en estas plataformas.
  • 8:08 - 8:11
    Y de todos modos, ¿en qué gobiernos
    confiaríamos para hacer esto?
  • 8:11 - 8:14
    Necesitamos una respuesta global,
    no nacional.
  • 8:15 - 8:18
    Entonces el eslabón perdido
    somos nosotros.
  • 8:18 - 8:21
    Son esas personas que usan
    estas tecnologías todos los días.
  • 8:21 - 8:26
    ¿Podemos diseñar una nueva infraestructura
    para soportar información de calidad?
  • 8:26 - 8:28
    Bueno, creo que podemos
  • 8:28 - 8:31
    y tengo algunas ideas sobre lo que
    realmente podríamos hacer.
  • 8:31 - 8:34
    En primer lugar, si nos tomamos
    en serio atraer al público a esto,
  • 8:34 - 8:37
    ¿podemos inspirarnos en Wikipedia?
  • 8:37 - 8:38
    Nos han mostrado lo que es posible.
  • 8:38 - 8:40
    Si, no es perfecto
  • 8:40 - 8:42
    pero han demostrado que
    con las estructuras correctas,
  • 8:42 - 8:45
    con una perspectiva global
    y mucha, mucha transparencia,
  • 8:45 - 8:48
    puedes construir algo que se ganará
    la confianza de las personas.
  • 8:48 - 8:51
    Tenemos que encontrar una manera
    de aprovechar la sabiduría colectiva
  • 8:51 - 8:53
    y la experiencia de todos los usuarios.
  • 8:54 - 8:56
    En particular las mujeres,
    las personas de color
  • 8:56 - 8:58
    y los grupos subrepresentados.
  • 8:58 - 8:59
    ¿Porque adivinen qué?
  • 8:59 - 9:01
    Son expertos en odio y desinformación,
  • 9:02 - 9:05
    porque han sido los objetivos de estas
    campañas durante mucho tiempo.
  • 9:05 - 9:07
    Y a lo largo de los años,
    han levantando banderas,
  • 9:07 - 9:09
    y no han sido escuchados
  • 9:09 - 9:10
    Esto tiene que cambiar.
  • 9:11 - 9:15
    ¿Podríamos construir
    una Wikipedia para la confianza?
  • 9:15 - 9:19
    ¿Podríamos encontrar una forma en que
    los usuarios realmente proporcionen ideas?
  • 9:19 - 9:23
    Podrían ofrecer ideas sobre decisiones
    difíciles de moderación de contenido.
  • 9:23 - 9:25
    Podrían comentar
  • 9:25 - 9:28
    cuando las plataformas decidan
    implementar nuevos cambios.
  • 9:28 - 9:32
    Segundo, las experiencias de las personas
    con la información son personalizadas.
  • 9:32 - 9:35
    Mi fuente de noticias de Facebook
    es diferente de la de Uds.
  • 9:35 - 9:38
    Igual sus recomendaciones de YouTube.
  • 9:38 - 9:40
    Eso hace que sea imposible
    para nosotros examinar
  • 9:40 - 9:42
    qué información está viendo la gente.
  • 9:43 - 9:45
    Entonces ¿podríamos imaginar desarrollar
  • 9:45 - 9:49
    algún tipo de repositorio abierto
    centralizado para datos anonimos,
  • 9:49 - 9:52
    con privacidad y
    preocupaciones éticas incorporadas?
  • 9:52 - 9:54
    Porque imaginen lo que aprenderíamos
  • 9:54 - 9:57
    si construyeramos una red global
    de ciudadanos preocupados
  • 9:57 - 10:01
    que quisieran donar
    sus datos sociales a la ciencia.
  • 10:01 - 10:02
    Porque sabemos muy poco
  • 10:02 - 10:06
    sobre las consecuencias a largo plazo
    del odio y la desinformación
  • 10:06 - 10:08
    sobre las actitudes
    y comportamientos de las personas.
  • 10:08 - 10:09
    Y lo que sabemos,
  • 10:09 - 10:12
    la mayoría se ha llevado a cabo en EE. UU.
  • 10:12 - 10:14
    a pesar del hecho de que
    es un problema global.
  • 10:14 - 10:16
    Necesitamos trabajar en eso también.
  • 10:16 - 10:17
    Y tercero,
  • 10:17 - 10:20
    ¿podemos encontrar una manera
    de conectar los puntos?
  • 10:20 - 10:23
    Ningún sector, y mucho menos
    sin fines de lucro, start-up o gobierno,
  • 10:23 - 10:25
    va a resolver esto
  • 10:25 - 10:27
    Pero hay personas
    muy inteligentes en todo el mundo.
  • 10:27 - 10:29
    trabajando en estos desafíos,
  • 10:29 - 10:32
    de redacciones, sociedad civil,
    academia, grupos activistas.
  • 10:32 - 10:34
    Pueden ver algunos aquí.
  • 10:34 - 10:37
    Unos construyen
    indicadores de credibilidad de contenido.
  • 10:37 - 10:39
    Otros verifican hechos,
    para que las plataformas
  • 10:39 - 10:42
    puedan clasificar noticias falsas,
    videos e imágenes
  • 10:42 - 10:44
    Una organización
    sin fines de lucro, First Draft,
  • 10:44 - 10:47
    trabaja con redacciones normalmente
    competitivas del mundo
  • 10:47 - 10:51
    para ayudarlos a desarrollar programas
    de investigación y colaboración.
  • 10:51 - 10:53
    Danny Hillis, un arquitecto de software,
  • 10:53 - 10:56
    está diseñando un nuevo sistema
    llamado The Underlay,
  • 10:56 - 10:59
    un registro de todas
    las declaraciones públicas de hechos
  • 10:59 - 11:00
    conectado a sus fuentes,
  • 11:00 - 11:04
    para que las personas y los algoritmos
    puedan juzgar mejor lo que es creíble.
  • 11:05 - 11:08
    Y los educadores de todo el mundo
    están probando diferentes técnicas.
  • 11:08 - 11:12
    para encontrar formas de hacer que la
    gente critique el contenido que consume.
  • 11:13 - 11:16
    Todos estos esfuerzos son maravillosos,
    pero están trabajando en silos,
  • 11:16 - 11:18
    y muchos de ellos
    no tienen fondos suficientes.
  • 11:19 - 11:21
    También hay cientos
    de personas muy inteligentes.
  • 11:21 - 11:22
    trabajando en esas empresas,
  • 11:22 - 11:25
    pero de nuevo, esos esfuerzos
    pueden sentirse desarticulados,
  • 11:25 - 11:29
    porque están desarrollando diferentes
    soluciones a los mismos problemas.
  • 11:29 - 11:32
    ¿Cómo encontrar
    una manera de unir a las personas
  • 11:32 - 11:35
    en una ubicación física
    por días o semanas,
  • 11:35 - 11:37
    para que puedan abordar
    estos problemas juntos,
  • 11:37 - 11:39
    pero desde sus diferentes perspectivas?
  • 11:39 - 11:40
    ¿Podemos hacer eso?
  • 11:40 - 11:44
    ¿Podemos construir
    una respuesta coordinada y ambiciosa,
  • 11:44 - 11:47
    una que coincida con la escala
    y la complejidad del problema?
  • 11:48 - 11:49
    Realmente creo que podemos.
  • 11:49 - 11:52
    Juntos, reconstruyamos nuestros
    bienes comunes de información.
  • 11:53 - 11:54
    Gracias.
  • 11:54 - 11:58
    (Aplausos)
Title:
Cómo puedes ayudar a transformar internet en un lugar confiable
Speaker:
Claire Wardle
Description:

¿Cómo podemos detener la propagación de contenido engañoso, a veces peligroso, mientras mantenemos un internet con libertad de expresión en su núcleo? La experta en información engañosa Claire Wardle explora los nuevos desafíos de nuestro entorno en línea contaminado, y traza un plan para transformar internet en un lugar confiable, con la ayuda de los usuarios cotidianos. "Juntos, reconstruyamos nuestros recursos comunes de información", dice ella.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Spanish subtitles

Revisions