Return to Video

Querido Facebook, así le haces daño a la democracia

  • 0:01 - 0:03
    Hace casi cinco años,
  • 0:03 - 0:05
    me di cuenta de que
    estaba perdiendo la capacidad
  • 0:05 - 0:08
    de hablar con quienes
    no piensan como yo.
  • 0:09 - 0:13
    Pensar en hablar sobre asuntos actuales
    con otros estadounidenses
  • 0:13 - 0:15
    me provocaba más acidez
  • 0:15 - 0:19
    que las veces en que conversé
    con supuestos extremistas extranjeros.
  • 0:20 - 0:23
    Empecé a sentirme
    más resentida y frustrada.
  • 0:23 - 0:25
    Así que,
  • 0:25 - 0:27
    en vez de enfocarme
  • 0:27 - 0:29
    en las amenazas extranjeras
    a la seguridad nacional,
  • 0:29 - 0:32
    me concentré en entender
    qué estaba provocando
  • 0:32 - 0:35
    la polarización extrema en el país.
  • 0:36 - 0:38
    Como exdiplomática
    y exoficial de la CIA
  • 0:38 - 0:41
    con años de experiencia
    en asuntos antiextremistas,
  • 0:41 - 0:45
    me preocupó que esta fuera
    una amenaza más grande a la democracia
  • 0:45 - 0:47
    que cualquier adversario extranjero.
  • 0:48 - 0:50
    Así que empecé a investigar,
  • 0:50 - 0:51
    empecé a hablar,
  • 0:51 - 0:54
    lo que me llevó a ser
    contratada por Facebook
  • 0:54 - 0:57
    y lo que me trajo aquí, hoy,
  • 0:57 - 1:00
    para seguir alertándolos
    sobre cómo estas plataformas
  • 1:00 - 1:03
    manipulan y radicalizan a tantos
  • 1:03 - 1:06
    y para hablar sobre cómo
    recuperar la opinión pública.
  • 1:08 - 1:10
    Trabajé en Kenia,
    en el Servicio Exterior,
  • 1:10 - 1:12
    poco después de
    los ataques del 11 de septiembre
  • 1:12 - 1:15
    y dirigí las campañas para
    ganar corazones y mentes
  • 1:15 - 1:17
    a lo largo de la frontera con Somalia.
  • 1:17 - 1:21
    Mi trabajo era construir
    lazos de confianza con las comunidades
  • 1:21 - 1:23
    consideradas más susceptibles
    a los mensajes extremistas.
  • 1:24 - 1:28
    Pasé horas tomando té con clérigos
    abiertamente antioccidentales
  • 1:28 - 1:31
    incluso dialogué
    con algunos supuestos terroristas,
  • 1:31 - 1:35
    y aunque en muchos de los encuentros
    había desconfianza,
  • 1:35 - 1:38
    no recuerdo que alguno
    terminara con gritos e insultos,
  • 1:38 - 1:43
    en algunos casos hasta trabajamos
    en áreas que eran de interés mutuo.
  • 1:44 - 1:48
    Las mejores herramientas
    eran escuchar, aprender
  • 1:48 - 1:50
    y desarrollar empatía.
  • 1:50 - 1:53
    Esa es la esencia para
    ganar corazones y mentes,
  • 1:53 - 1:55
    porque una y otra vez
  • 1:55 - 2:00
    vi que la mayoría quiere sentir
    que se les escucha, valida y respeta.
  • 2:00 - 2:02
    Creo que es lo que la mayoría queremos.
  • 2:03 - 2:06
    Lo que está pasando en línea
    es particularmente doloroso
  • 2:06 - 2:08
    y más difícil de abordar.
  • 2:09 - 2:13
    Nos está manipulando
    el ecosistema de información actual,
  • 2:13 - 2:16
    nos está orillando al absolutismo
  • 2:16 - 2:19
    de manera que no nos es posible
    alcanzar acuerdos.
  • 2:20 - 2:21
    Actualmente,
  • 2:21 - 2:23
    las empresas como Facebook
  • 2:23 - 2:27
    ganan dinero al segmentarnos
    y mostrarnos contenido personalizado
  • 2:27 - 2:30
    que valida y explota
    nuestras preferencias.
  • 2:31 - 2:34
    Sus resultados dependen de provocar
    una fuerte respuesta emocional
  • 2:34 - 2:36
    que mantenga nuestra atención,
  • 2:36 - 2:40
    lo que incita a las voces
    más provocadoras y polarizadoras,
  • 2:40 - 2:44
    hasta que no es posible
    encontrar llegar a un acuerdo.
  • 2:45 - 2:49
    Aunque cada vez más personas
    exigen cambios a las plataformas,
  • 2:49 - 2:52
    está claro que, por sí solas,
    no harán lo suficiente.
  • 2:52 - 2:55
    Es por eso que los gobiernos
    deben definir responsabilidades
  • 2:55 - 2:59
    por los daños que este modelo
    de negocios provoca en el mundo
  • 2:59 - 3:02
    e imponer sanciones reales
    por los efectos dañinos
  • 3:02 - 3:07
    sobre la salud,
    la opinión pública y la democracia.
  • 3:07 - 3:12
    Por desgracia, no pasará
    antes de las elecciones de EE. UU.,
  • 3:12 - 3:15
    así que seguiré dando la alarma,
  • 3:15 - 3:18
    porque incluso si algún día
    tuviéramos reglas firmes,
  • 3:18 - 3:20
    será trabajo de todos arreglarlo.
  • 3:21 - 3:24
    Cuando decidí dejar
    las amenazas extranjeras
  • 3:24 - 3:26
    y estudiar el colapso
    del diálogo en el país,
  • 3:26 - 3:30
    pensé en reutilizar las campañas
    para ganar corazones y mentes
  • 3:30 - 3:32
    a fin de reparar las divisiones.
  • 3:32 - 3:36
    Nuestro experimento de más
    de 200 años con la democracia
  • 3:36 - 3:40
    funciona en gran parte porque
    podemos debatir con pasión y apertura
  • 3:40 - 3:42
    a fin de encontrar
    las mejores soluciones.
  • 3:43 - 3:45
    Aunque sigo creyendo
  • 3:45 - 3:47
    en conversar
    de forma civilizada y de frente,
  • 3:47 - 3:49
    sé que no se puede competir
  • 3:49 - 3:52
    con la magnitud y los efectos
    polarizadores de las redes sociales.
  • 3:53 - 3:55
    Es más difícil que quienes
    caen en la trampa
  • 3:55 - 3:56
    de enojarse en las redes
  • 3:56 - 4:00
    se liberen de su ideología
  • 4:00 - 4:03
    que las comunidades
    vulnerables con las que trabajé.
  • 4:04 - 4:06
    Así que cuando Facebook
    me llamó en 2018
  • 4:06 - 4:07
    y me hablaron sobre dirigir
  • 4:07 - 4:11
    las campañas políticas publicitarias
    para garantizar la integridad electoral,
  • 4:11 - 4:13
    acepté la oferta.
  • 4:13 - 4:16
    Sabía que no arreglaría todo,
  • 4:16 - 4:18
    pero cuando me ofrecieron
  • 4:18 - 4:20
    guiar el barco en una mejor dirección,
  • 4:20 - 4:22
    tenía que intentarlo.
  • 4:23 - 4:25
    No trabajé directamente
    con la polarización,
  • 4:25 - 4:29
    pero sí investigué qué asuntos
    eran los más divisivos para la sociedad
  • 4:29 - 4:33
    y, por lo tanto, los que podían usarse
    para interferir en las elecciones,
  • 4:33 - 4:36
    lo que hizo Rusia frente a 2016.
  • 4:37 - 4:39
    Empecé haciendo preguntas.
  • 4:39 - 4:42
    Quería entender
    los problemas sistémicos subyacentes
  • 4:42 - 4:44
    que daban pie a esta situación,
  • 4:44 - 4:47
    para encontrar la solución.
  • 4:48 - 4:50
    Sigo creyendo en el poder de Internet
  • 4:50 - 4:53
    para dar voz a más personas,
  • 4:53 - 4:56
    pero aunque el objetivo
    de las redes es construir una comunidad,
  • 4:56 - 4:59
    el diseño actual de
    las empresas que las poseen
  • 4:59 - 5:02
    se opone al concepto
    del discurso razonado.
  • 5:03 - 5:05
    No es posible recompensar
    a quienes escuchan,
  • 5:05 - 5:07
    ni fomentar el debate civilizado,
  • 5:07 - 5:11
    ni proteger a quienes
    quieren hacer preguntas
  • 5:11 - 5:14
    en un negocio donde la participación
    y el número de usuarios
  • 5:14 - 5:17
    son las métricas
    más importantes de éxito.
  • 5:17 - 5:21
    No hay un incentivo
    que detenga a la gente,
  • 5:21 - 5:24
    que los haga hacer una pausa,
  • 5:24 - 5:27
    reconocer su respuesta
    emocional ante algo
  • 5:27 - 5:30
    y cuestionar sus propias
    ideas antes de participar.
  • 5:31 - 5:33
    La triste realidad es que, en línea,
  • 5:33 - 5:36
    las mentiras son más
    cautivadoras que la verdad,
  • 5:36 - 5:39
    la salacidad le gana al razonamiento
    basado en hechos y especializado
  • 5:39 - 5:42
    en un mundo optimizado
    para viralizar contenido con facilidad.
  • 5:43 - 5:47
    Mientras los objetivos de los algoritmos
    sean mantenernos cautivos,
  • 5:47 - 5:51
    seguirán mostrándonos contenido
    que alimenta nuestros peores instintos
  • 5:51 - 5:52
    y debilidades humanas.
  • 5:53 - 5:56
    Es cierto que el enojo, la desconfianza,
  • 5:56 - 5:58
    la cultura del miedo y el odio
  • 5:58 - 6:00
    son viejos conocidos de EE. UU.,
  • 6:00 - 6:04
    pero en años recientes,
    la redes se han aprovechado de ellos
  • 6:04 - 6:07
    y, en mi opinión,
    inclinaron la balanza drásticamente.
  • 6:08 - 6:10
    Facebook lo sabe.
  • 6:10 - 6:12
    En un artículo del Wall Street Journal
  • 6:12 - 6:16
    se dio a conocer una de sus
    presentaciones internas de 2018
  • 6:16 - 6:20
    en la que se indica que gracias a
    los propios algoritmos de la empresa,
  • 6:20 - 6:23
    la presencia de grupos
    extremistas en la plataforma
  • 6:23 - 6:26
    y la polarización de los usuarios aumentó.
  • 6:27 - 6:30
    Pero así es como ganan dinero,
    al hacernos participar.
  • 6:30 - 6:35
    El ambiente actual de la información
    se centra en trazar nuestros perfiles
  • 6:35 - 6:38
    y segmentarlos en categorías
    cada vez más específicas
  • 6:38 - 6:40
    para perfeccionar
    el proceso de personalización.
  • 6:41 - 6:45
    Después nos bombardean con información
    que confirma nuestras opiniones,
  • 6:45 - 6:47
    refuerza nuestros prejuicios
  • 6:47 - 6:50
    y nos hace sentir
    que somos parte de algo.
  • 6:50 - 6:54
    Son las mismas tácticas empleadas
    por los reclutadores terroristas
  • 6:54 - 6:56
    con jóvenes vulnerables
  • 6:56 - 7:00
    antes de que hubiera redes sociales,
    pero en menor escala y de forma localizada
  • 7:00 - 7:02
    con el objetivo de persuadirlos.
  • 7:03 - 7:08
    Por desgracia, Facebook nunca
    me permitió hacer la diferencia.
  • 7:08 - 7:12
    De hecho, en mi segundo día, el nombre
    de mi cargo y mis funciones cambiaron
  • 7:12 - 7:14
    y me retiraron de las juntas
    donde se tomaban las decisiones.
  • 7:15 - 7:16
    Mis esfuerzos
  • 7:16 - 7:18
    por crear planes
  • 7:18 - 7:21
    que combatieran la desinformación
    y la supresión de votantes
  • 7:22 - 7:23
    fueron rechazados.
  • 7:23 - 7:25
    Apenas estuve seis meses ahí.
  • 7:26 - 7:29
    Pero esto es lo que aprendí:
  • 7:30 - 7:32
    hay miles de personas en Facebook
  • 7:32 - 7:34
    que trabajan con pasión en un producto
  • 7:34 - 7:37
    que creen hará del mundo un lugar mejor,
  • 7:37 - 7:42
    pero si la empresa sigue
    haciendo cambios superficiales
  • 7:42 - 7:44
    a las políticas de contenido y moderación,
  • 7:44 - 7:46
    en vez de considerar
  • 7:46 - 7:49
    su diseño general y cómo gana dinero
  • 7:49 - 7:52
    nunca abordarán
    cómo es que la plataforma contribuye
  • 7:52 - 7:56
    al odio, la división y la radicalización.
  • 7:57 - 8:01
    Esa es la única conversación
    que nunca se dio mientras estuve ahí,
  • 8:01 - 8:04
    porque básicamente tendrían que aceptar
  • 8:04 - 8:08
    que lo que construyeron
    no es lo mejor para la sociedad
  • 8:08 - 8:12
    y que hay que cambiar todo el producto
    y el modelo de ganancias.
  • 8:12 - 8:14
    Así que, ¿qué podemos hacer?
  • 8:15 - 8:19
    No estoy diciendo que las redes
    sean las únicas responsables
  • 8:19 - 8:20
    de nuestro estado actual.
  • 8:21 - 8:26
    Está claro que tenemos problemas sociales
    arraigados que debemos resolver,
  • 8:26 - 8:30
    pero la respuesta de Facebook,
    que solo son un espejo de la sociedad,
  • 8:30 - 8:33
    es un intento conveniente
    de evadir la responsabilidad
  • 8:34 - 8:38
    que tiene su plataforma
    por amplificar el contenido dañino
  • 8:38 - 8:41
    y llevar a algunos
    usuarios a los extremos.
  • 8:42 - 8:44
    Si Facebook quisiera
  • 8:44 - 8:46
    podría arreglar algunas cosas.
  • 8:46 - 8:50
    Podrían dejar de amplificar
    y recomendar a los conspiranoicos,
  • 8:50 - 8:53
    los grupos de odio,
    los que promueven la desinformación
  • 8:53 - 8:56
    y, en algunos casos, hasta al presidente.
  • 8:57 - 9:00
    Podrían dejar de usar
    las mismas técnicas de personalización
  • 9:00 - 9:04
    para presentarnos retórica política
    y vendernos zapatillas.
  • 9:04 - 9:06
    Podrían reentrenar a sus algoritmos
  • 9:06 - 9:08
    para que no midan la participación,
  • 9:08 - 9:13
    podrían crear políticas y prácticas
    que impidan que el contenido se viralice
  • 9:13 - 9:14
    sin antes revisarlo.
  • 9:15 - 9:17
    Y lo podrían hacer
  • 9:17 - 9:20
    sin volverse jueces de la verdad.
  • 9:21 - 9:23
    Sin embargo, ya dejaron en claro
  • 9:23 - 9:26
    que no harán lo correcto
    a menos que los obliguen
  • 9:26 - 9:30
    y, para ser honestos, ¿por qué lo harían?
  • 9:30 - 9:33
    Los mercados siguen premiándolos
    y no violan las leyes.
  • 9:34 - 9:35
    Porque resulta
  • 9:35 - 9:40
    que no hay leyes en EE. UU. que obliguen
    a Facebook o a cualquier otra red social
  • 9:40 - 9:42
    a proteger la opinión pública,
  • 9:42 - 9:43
    la democracia
  • 9:43 - 9:45
    y las elecciones.
  • 9:46 - 9:50
    Permitimos que los directores
    de las empresas lucrativas de Internet
  • 9:50 - 9:53
    decidieran qué reglas redactar
    y cuáles hacer cumplir.
  • 9:54 - 9:55
    ¿Es lo que queremos?
  • 9:56 - 9:59
    ¿Un mundo regido por la posverdad
    donde la toxicidad y el tribalismo
  • 9:59 - 10:01
    no nos permitan construir lazos
    y buscar consensos?
  • 10:03 - 10:07
    Quiero ser optimista y pensar
    que tenemos más en común
  • 10:07 - 10:10
    de lo que los medios
    y el ambiente en línea actual muestran.
  • 10:10 - 10:14
    Pienso que se necesita
    una perspectiva más amplia
  • 10:14 - 10:17
    para hacer a la democracia
    más sólida e incluyente,
  • 10:17 - 10:19
    pero no en la forma
    como se está dando.
  • 10:20 - 10:24
    Quiero enfatizar que no busco
    que estas empresas desaparezcan.
  • 10:24 - 10:28
    Quiero que tengan
    cierto grado de responsabilidad,
  • 10:28 - 10:29
    como el resto de la sociedad.
  • 10:31 - 10:35
    Es hora de que los gobiernos
    den un paso adelante, hagan su trabajo
  • 10:35 - 10:37
    y protejan a la ciudadanía.
  • 10:37 - 10:40
    Y aunque no haya una ley mágica
  • 10:40 - 10:41
    que lo solucione todo,
  • 10:41 - 10:46
    pienso que los gobiernos pueden
    y deben encontrar el balance
  • 10:46 - 10:48
    entre proteger la libertad de expresión
  • 10:48 - 10:52
    y responsabilizar a las empresas por
    los efectos que producen en la sociedad.
  • 10:52 - 10:57
    Podrían hacerlo si exigieran transparencia
  • 10:57 - 11:00
    en el funcionamiento de los
    motores de recomendación,
  • 11:00 - 11:04
    la selección, la amplificación
    y la focalización de contenidos.
  • 11:05 - 11:07
    Quiero que las empresas
    se hagan responsables
  • 11:07 - 11:10
    no por alguien que publica
    información errónea
  • 11:10 - 11:12
    o retórica extremista,
  • 11:12 - 11:15
    sino por cómo sus motores de recomendación
    difunden esa información,
  • 11:16 - 11:19
    por cómo sus algoritmos
    guían a las personas a encontrarla
  • 11:19 - 11:22
    y por cómo se utilizan
    sus herramientas para atacar a otros.
  • 11:23 - 11:26
    Intenté hacer cambios
    desde el interior de Facebook y fallé,
  • 11:26 - 11:30
    por eso he usado mi voz
    en los últimos años
  • 11:30 - 11:32
    para dar la alarma
  • 11:32 - 11:34
    e inspirar a más personas
  • 11:34 - 11:36
    a que exijan a las empresas
    rendir cuentas.
  • 11:37 - 11:39
    Mi mensaje es simple:
  • 11:40 - 11:42
    Exijan a sus gobernantes
  • 11:42 - 11:47
    que den un paso adelante y ya no cedan
    la opinión pública a intereses lucrativos.
  • 11:47 - 11:49
    Eduquen a sus amigos y familiares
  • 11:49 - 11:52
    sobre la manipulación en redes.
  • 11:52 - 11:56
    Convivan con personas
    que no piensan como Uds.
  • 11:56 - 11:58
    Den prioridad a este tema.
  • 11:59 - 12:02
    Necesitamos abordarlo como sociedad
    para solucionarlo.
  • 12:03 - 12:08
    Mi mensaje para los líderes de Facebook,
    mi antigua empresa, es:
  • 12:08 - 12:14
    en este momento, sus herramientas
    se usan tal y como fueron diseñadas,
  • 12:14 - 12:17
    y se usan para plantar odio,
    división y desconfianza,
  • 12:17 - 12:21
    Uds. no solo lo permiten,
    lo hacen posible.
  • 12:21 - 12:24
    Y sí, en su plataforma
    hay muchas historias
  • 12:24 - 12:28
    de cosas buenas
    que pasan en el mundo,
  • 12:28 - 12:30
    pero eso no justifica lo demás.
  • 12:31 - 12:34
    Entre más nos acercamos a la elección,
    la situación empeora
  • 12:34 - 12:36
    y es más preocupante,
  • 12:36 - 12:38
    nos enfrentamos a la que
    podría ser la peor crisis
  • 12:38 - 12:42
    si la gente no confía en
    los resultados y estalla la violencia.
  • 12:42 - 12:47
    Así que, en 2021, cuando declaren otra vez
    "sabemos que tenemos que mejorar",
  • 12:47 - 12:50
    quiero que recuerden este momento,
  • 12:50 - 12:53
    porque ya no son solo algunas voces.
  • 12:53 - 12:56
    Hay activistas de
    derechos civiles, académicos,
  • 12:56 - 12:59
    periodistas, anunciantes,
    sus propios empleados
  • 12:59 - 13:01
    que gritan a los cuatro vientos
  • 13:01 - 13:03
    que sus políticas y prácticas comerciales
  • 13:03 - 13:06
    dañan a la gente y a la democracia.
  • 13:07 - 13:09
    Admiten lo que hacen,
  • 13:09 - 13:13
    pero ya no pueden decir
    que no pueden evitarlo.
  • 13:14 - 13:15
    Gracias.
Title:
Querido Facebook, así le haces daño a la democracia
Speaker:
Yaël Eisenstat
Description:

"En línea, las mentiras son más cautivadoras que la verdad", es lo que dice Yaël Eisenstat, exdiplomática, exanalista de la CIA y exempleada de Facebook. "Mientras los objetivos de los algoritmos sean mantenernos cautivos, seguirán mostrándonos contenido que alimenta nuestros peores instintos y debilidades humanas". En esta atrevida plática, Eisenstat explora cómo es que empresas como Facebook, que manejan las redes sociales, incentivan la difusión de contenido provocador, lo que contribuye a fomentar la cultura de polarización política y desconfianza. Además, hace un llamado a los gobiernos para que obliguen a las plataformas a hacerse responsables a fin de proteger la comunicación civilizada y la democracia.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Spanish subtitles

Revisions