Querido Facebook, así le haces daño a la democracia
-
0:01 - 0:03Hace casi cinco años,
-
0:03 - 0:05me di cuenta de que
estaba perdiendo la capacidad -
0:05 - 0:08de hablar con quienes
no piensan como yo. -
0:09 - 0:13Pensar en hablar sobre asuntos actuales
con otros estadounidenses -
0:13 - 0:15me provocaba más acidez
-
0:15 - 0:19que las veces en que conversé
con supuestos extremistas extranjeros. -
0:20 - 0:23Empecé a sentirme
más resentida y frustrada. -
0:23 - 0:25Así que,
-
0:25 - 0:27en vez de enfocarme
-
0:27 - 0:29en las amenazas extranjeras
a la seguridad nacional, -
0:29 - 0:32me concentré en entender
qué estaba provocando -
0:32 - 0:35la polarización extrema en el país.
-
0:36 - 0:38Como exdiplomática
y exoficial de la CIA -
0:38 - 0:41con años de experiencia
en asuntos antiextremistas, -
0:41 - 0:45me preocupó que esta fuera
una amenaza más grande a la democracia -
0:45 - 0:47que cualquier adversario extranjero.
-
0:48 - 0:50Así que empecé a investigar,
-
0:50 - 0:51empecé a hablar,
-
0:51 - 0:54lo que me llevó a ser
contratada por Facebook -
0:54 - 0:57y lo que me trajo aquí, hoy,
-
0:57 - 1:00para seguir alertándolos
sobre cómo estas plataformas -
1:00 - 1:03manipulan y radicalizan a tantos
-
1:03 - 1:06y para hablar sobre cómo
recuperar la opinión pública. -
1:08 - 1:10Trabajé en Kenia,
en el Servicio Exterior, -
1:10 - 1:12poco después de
los ataques del 11 de septiembre -
1:12 - 1:15y dirigí las campañas para
ganar corazones y mentes -
1:15 - 1:17a lo largo de la frontera con Somalia.
-
1:17 - 1:21Mi trabajo era construir
lazos de confianza con las comunidades -
1:21 - 1:23consideradas más susceptibles
a los mensajes extremistas. -
1:24 - 1:28Pasé horas tomando té con clérigos
abiertamente antioccidentales -
1:28 - 1:31incluso dialogué
con algunos supuestos terroristas, -
1:31 - 1:35y aunque en muchos de los encuentros
había desconfianza, -
1:35 - 1:38no recuerdo que alguno
terminara con gritos e insultos, -
1:38 - 1:43en algunos casos hasta trabajamos
en áreas que eran de interés mutuo. -
1:44 - 1:48Las mejores herramientas
eran escuchar, aprender -
1:48 - 1:50y desarrollar empatía.
-
1:50 - 1:53Esa es la esencia para
ganar corazones y mentes, -
1:53 - 1:55porque una y otra vez
-
1:55 - 2:00vi que la mayoría quiere sentir
que se les escucha, valida y respeta. -
2:00 - 2:02Creo que es lo que la mayoría queremos.
-
2:03 - 2:06Lo que está pasando en línea
es particularmente doloroso -
2:06 - 2:08y más difícil de abordar.
-
2:09 - 2:13Nos está manipulando
el ecosistema de información actual, -
2:13 - 2:16nos está orillando al absolutismo
-
2:16 - 2:19de manera que no nos es posible
alcanzar acuerdos. -
2:20 - 2:21Actualmente,
-
2:21 - 2:23las empresas como Facebook
-
2:23 - 2:27ganan dinero al segmentarnos
y mostrarnos contenido personalizado -
2:27 - 2:30que valida y explota
nuestras preferencias. -
2:31 - 2:34Sus resultados dependen de provocar
una fuerte respuesta emocional -
2:34 - 2:36que mantenga nuestra atención,
-
2:36 - 2:40lo que incita a las voces
más provocadoras y polarizadoras, -
2:40 - 2:44hasta que no es posible
encontrar llegar a un acuerdo. -
2:45 - 2:49Aunque cada vez más personas
exigen cambios a las plataformas, -
2:49 - 2:52está claro que, por sí solas,
no harán lo suficiente. -
2:52 - 2:55Es por eso que los gobiernos
deben definir responsabilidades -
2:55 - 2:59por los daños que este modelo
de negocios provoca en el mundo -
2:59 - 3:02e imponer sanciones reales
por los efectos dañinos -
3:02 - 3:07sobre la salud,
la opinión pública y la democracia. -
3:07 - 3:12Por desgracia, no pasará
antes de las elecciones de EE. UU., -
3:12 - 3:15así que seguiré dando la alarma,
-
3:15 - 3:18porque incluso si algún día
tuviéramos reglas firmes, -
3:18 - 3:20será trabajo de todos arreglarlo.
-
3:21 - 3:24Cuando decidí dejar
las amenazas extranjeras -
3:24 - 3:26y estudiar el colapso
del diálogo en el país, -
3:26 - 3:30pensé en reutilizar las campañas
para ganar corazones y mentes -
3:30 - 3:32a fin de reparar las divisiones.
-
3:32 - 3:36Nuestro experimento de más
de 200 años con la democracia -
3:36 - 3:40funciona en gran parte porque
podemos debatir con pasión y apertura -
3:40 - 3:42a fin de encontrar
las mejores soluciones. -
3:43 - 3:45Aunque sigo creyendo
-
3:45 - 3:47en conversar
de forma civilizada y de frente, -
3:47 - 3:49sé que no se puede competir
-
3:49 - 3:52con la magnitud y los efectos
polarizadores de las redes sociales. -
3:53 - 3:55Es más difícil que quienes
caen en la trampa -
3:55 - 3:56de enojarse en las redes
-
3:56 - 4:00se liberen de su ideología
-
4:00 - 4:03que las comunidades
vulnerables con las que trabajé. -
4:04 - 4:06Así que cuando Facebook
me llamó en 2018 -
4:06 - 4:07y me hablaron sobre dirigir
-
4:07 - 4:11las campañas políticas publicitarias
para garantizar la integridad electoral, -
4:11 - 4:13acepté la oferta.
-
4:13 - 4:16Sabía que no arreglaría todo,
-
4:16 - 4:18pero cuando me ofrecieron
-
4:18 - 4:20guiar el barco en una mejor dirección,
-
4:20 - 4:22tenía que intentarlo.
-
4:23 - 4:25No trabajé directamente
con la polarización, -
4:25 - 4:29pero sí investigué qué asuntos
eran los más divisivos para la sociedad -
4:29 - 4:33y, por lo tanto, los que podían usarse
para interferir en las elecciones, -
4:33 - 4:36lo que hizo Rusia frente a 2016.
-
4:37 - 4:39Empecé haciendo preguntas.
-
4:39 - 4:42Quería entender
los problemas sistémicos subyacentes -
4:42 - 4:44que daban pie a esta situación,
-
4:44 - 4:47para encontrar la solución.
-
4:48 - 4:50Sigo creyendo en el poder de Internet
-
4:50 - 4:53para dar voz a más personas,
-
4:53 - 4:56pero aunque el objetivo
de las redes es construir una comunidad, -
4:56 - 4:59el diseño actual de
las empresas que las poseen -
4:59 - 5:02se opone al concepto
del discurso razonado. -
5:03 - 5:05No es posible recompensar
a quienes escuchan, -
5:05 - 5:07ni fomentar el debate civilizado,
-
5:07 - 5:11ni proteger a quienes
quieren hacer preguntas -
5:11 - 5:14en un negocio donde la participación
y el número de usuarios -
5:14 - 5:17son las métricas
más importantes de éxito. -
5:17 - 5:21No hay un incentivo
que detenga a la gente, -
5:21 - 5:24que los haga hacer una pausa,
-
5:24 - 5:27reconocer su respuesta
emocional ante algo -
5:27 - 5:30y cuestionar sus propias
ideas antes de participar. -
5:31 - 5:33La triste realidad es que, en línea,
-
5:33 - 5:36las mentiras son más
cautivadoras que la verdad, -
5:36 - 5:39la salacidad le gana al razonamiento
basado en hechos y especializado -
5:39 - 5:42en un mundo optimizado
para viralizar contenido con facilidad. -
5:43 - 5:47Mientras los objetivos de los algoritmos
sean mantenernos cautivos, -
5:47 - 5:51seguirán mostrándonos contenido
que alimenta nuestros peores instintos -
5:51 - 5:52y debilidades humanas.
-
5:53 - 5:56Es cierto que el enojo, la desconfianza,
-
5:56 - 5:58la cultura del miedo y el odio
-
5:58 - 6:00son viejos conocidos de EE. UU.,
-
6:00 - 6:04pero en años recientes,
la redes se han aprovechado de ellos -
6:04 - 6:07y, en mi opinión,
inclinaron la balanza drásticamente. -
6:08 - 6:10Facebook lo sabe.
-
6:10 - 6:12En un artículo del Wall Street Journal
-
6:12 - 6:16se dio a conocer una de sus
presentaciones internas de 2018 -
6:16 - 6:20en la que se indica que gracias a
los propios algoritmos de la empresa, -
6:20 - 6:23la presencia de grupos
extremistas en la plataforma -
6:23 - 6:26y la polarización de los usuarios aumentó.
-
6:27 - 6:30Pero así es como ganan dinero,
al hacernos participar. -
6:30 - 6:35El ambiente actual de la información
se centra en trazar nuestros perfiles -
6:35 - 6:38y segmentarlos en categorías
cada vez más específicas -
6:38 - 6:40para perfeccionar
el proceso de personalización. -
6:41 - 6:45Después nos bombardean con información
que confirma nuestras opiniones, -
6:45 - 6:47refuerza nuestros prejuicios
-
6:47 - 6:50y nos hace sentir
que somos parte de algo. -
6:50 - 6:54Son las mismas tácticas empleadas
por los reclutadores terroristas -
6:54 - 6:56con jóvenes vulnerables
-
6:56 - 7:00antes de que hubiera redes sociales,
pero en menor escala y de forma localizada -
7:00 - 7:02con el objetivo de persuadirlos.
-
7:03 - 7:08Por desgracia, Facebook nunca
me permitió hacer la diferencia. -
7:08 - 7:12De hecho, en mi segundo día, el nombre
de mi cargo y mis funciones cambiaron -
7:12 - 7:14y me retiraron de las juntas
donde se tomaban las decisiones. -
7:15 - 7:16Mis esfuerzos
-
7:16 - 7:18por crear planes
-
7:18 - 7:21que combatieran la desinformación
y la supresión de votantes -
7:22 - 7:23fueron rechazados.
-
7:23 - 7:25Apenas estuve seis meses ahí.
-
7:26 - 7:29Pero esto es lo que aprendí:
-
7:30 - 7:32hay miles de personas en Facebook
-
7:32 - 7:34que trabajan con pasión en un producto
-
7:34 - 7:37que creen hará del mundo un lugar mejor,
-
7:37 - 7:42pero si la empresa sigue
haciendo cambios superficiales -
7:42 - 7:44a las políticas de contenido y moderación,
-
7:44 - 7:46en vez de considerar
-
7:46 - 7:49su diseño general y cómo gana dinero
-
7:49 - 7:52nunca abordarán
cómo es que la plataforma contribuye -
7:52 - 7:56al odio, la división y la radicalización.
-
7:57 - 8:01Esa es la única conversación
que nunca se dio mientras estuve ahí, -
8:01 - 8:04porque básicamente tendrían que aceptar
-
8:04 - 8:08que lo que construyeron
no es lo mejor para la sociedad -
8:08 - 8:12y que hay que cambiar todo el producto
y el modelo de ganancias. -
8:12 - 8:14Así que, ¿qué podemos hacer?
-
8:15 - 8:19No estoy diciendo que las redes
sean las únicas responsables -
8:19 - 8:20de nuestro estado actual.
-
8:21 - 8:26Está claro que tenemos problemas sociales
arraigados que debemos resolver, -
8:26 - 8:30pero la respuesta de Facebook,
que solo son un espejo de la sociedad, -
8:30 - 8:33es un intento conveniente
de evadir la responsabilidad -
8:34 - 8:38que tiene su plataforma
por amplificar el contenido dañino -
8:38 - 8:41y llevar a algunos
usuarios a los extremos. -
8:42 - 8:44Si Facebook quisiera
-
8:44 - 8:46podría arreglar algunas cosas.
-
8:46 - 8:50Podrían dejar de amplificar
y recomendar a los conspiranoicos, -
8:50 - 8:53los grupos de odio,
los que promueven la desinformación -
8:53 - 8:56y, en algunos casos, hasta al presidente.
-
8:57 - 9:00Podrían dejar de usar
las mismas técnicas de personalización -
9:00 - 9:04para presentarnos retórica política
y vendernos zapatillas. -
9:04 - 9:06Podrían reentrenar a sus algoritmos
-
9:06 - 9:08para que no midan la participación,
-
9:08 - 9:13podrían crear políticas y prácticas
que impidan que el contenido se viralice -
9:13 - 9:14sin antes revisarlo.
-
9:15 - 9:17Y lo podrían hacer
-
9:17 - 9:20sin volverse jueces de la verdad.
-
9:21 - 9:23Sin embargo, ya dejaron en claro
-
9:23 - 9:26que no harán lo correcto
a menos que los obliguen -
9:26 - 9:30y, para ser honestos, ¿por qué lo harían?
-
9:30 - 9:33Los mercados siguen premiándolos
y no violan las leyes. -
9:34 - 9:35Porque resulta
-
9:35 - 9:40que no hay leyes en EE. UU. que obliguen
a Facebook o a cualquier otra red social -
9:40 - 9:42a proteger la opinión pública,
-
9:42 - 9:43la democracia
-
9:43 - 9:45y las elecciones.
-
9:46 - 9:50Permitimos que los directores
de las empresas lucrativas de Internet -
9:50 - 9:53decidieran qué reglas redactar
y cuáles hacer cumplir. -
9:54 - 9:55¿Es lo que queremos?
-
9:56 - 9:59¿Un mundo regido por la posverdad
donde la toxicidad y el tribalismo -
9:59 - 10:01no nos permitan construir lazos
y buscar consensos? -
10:03 - 10:07Quiero ser optimista y pensar
que tenemos más en común -
10:07 - 10:10de lo que los medios
y el ambiente en línea actual muestran. -
10:10 - 10:14Pienso que se necesita
una perspectiva más amplia -
10:14 - 10:17para hacer a la democracia
más sólida e incluyente, -
10:17 - 10:19pero no en la forma
como se está dando. -
10:20 - 10:24Quiero enfatizar que no busco
que estas empresas desaparezcan. -
10:24 - 10:28Quiero que tengan
cierto grado de responsabilidad, -
10:28 - 10:29como el resto de la sociedad.
-
10:31 - 10:35Es hora de que los gobiernos
den un paso adelante, hagan su trabajo -
10:35 - 10:37y protejan a la ciudadanía.
-
10:37 - 10:40Y aunque no haya una ley mágica
-
10:40 - 10:41que lo solucione todo,
-
10:41 - 10:46pienso que los gobiernos pueden
y deben encontrar el balance -
10:46 - 10:48entre proteger la libertad de expresión
-
10:48 - 10:52y responsabilizar a las empresas por
los efectos que producen en la sociedad. -
10:52 - 10:57Podrían hacerlo si exigieran transparencia
-
10:57 - 11:00en el funcionamiento de los
motores de recomendación, -
11:00 - 11:04la selección, la amplificación
y la focalización de contenidos. -
11:05 - 11:07Quiero que las empresas
se hagan responsables -
11:07 - 11:10no por alguien que publica
información errónea -
11:10 - 11:12o retórica extremista,
-
11:12 - 11:15sino por cómo sus motores de recomendación
difunden esa información, -
11:16 - 11:19por cómo sus algoritmos
guían a las personas a encontrarla -
11:19 - 11:22y por cómo se utilizan
sus herramientas para atacar a otros. -
11:23 - 11:26Intenté hacer cambios
desde el interior de Facebook y fallé, -
11:26 - 11:30por eso he usado mi voz
en los últimos años -
11:30 - 11:32para dar la alarma
-
11:32 - 11:34e inspirar a más personas
-
11:34 - 11:36a que exijan a las empresas
rendir cuentas. -
11:37 - 11:39Mi mensaje es simple:
-
11:40 - 11:42Exijan a sus gobernantes
-
11:42 - 11:47que den un paso adelante y ya no cedan
la opinión pública a intereses lucrativos. -
11:47 - 11:49Eduquen a sus amigos y familiares
-
11:49 - 11:52sobre la manipulación en redes.
-
11:52 - 11:56Convivan con personas
que no piensan como Uds. -
11:56 - 11:58Den prioridad a este tema.
-
11:59 - 12:02Necesitamos abordarlo como sociedad
para solucionarlo. -
12:03 - 12:08Mi mensaje para los líderes de Facebook,
mi antigua empresa, es: -
12:08 - 12:14en este momento, sus herramientas
se usan tal y como fueron diseñadas, -
12:14 - 12:17y se usan para plantar odio,
división y desconfianza, -
12:17 - 12:21Uds. no solo lo permiten,
lo hacen posible. -
12:21 - 12:24Y sí, en su plataforma
hay muchas historias -
12:24 - 12:28de cosas buenas
que pasan en el mundo, -
12:28 - 12:30pero eso no justifica lo demás.
-
12:31 - 12:34Entre más nos acercamos a la elección,
la situación empeora -
12:34 - 12:36y es más preocupante,
-
12:36 - 12:38nos enfrentamos a la que
podría ser la peor crisis -
12:38 - 12:42si la gente no confía en
los resultados y estalla la violencia. -
12:42 - 12:47Así que, en 2021, cuando declaren otra vez
"sabemos que tenemos que mejorar", -
12:47 - 12:50quiero que recuerden este momento,
-
12:50 - 12:53porque ya no son solo algunas voces.
-
12:53 - 12:56Hay activistas de
derechos civiles, académicos, -
12:56 - 12:59periodistas, anunciantes,
sus propios empleados -
12:59 - 13:01que gritan a los cuatro vientos
-
13:01 - 13:03que sus políticas y prácticas comerciales
-
13:03 - 13:06dañan a la gente y a la democracia.
-
13:07 - 13:09Admiten lo que hacen,
-
13:09 - 13:13pero ya no pueden decir
que no pueden evitarlo. -
13:14 - 13:15Gracias.
- Title:
- Querido Facebook, así le haces daño a la democracia
- Speaker:
- Yaël Eisenstat
- Description:
-
"En línea, las mentiras son más cautivadoras que la verdad", es lo que dice Yaël Eisenstat, exdiplomática, exanalista de la CIA y exempleada de Facebook. "Mientras los objetivos de los algoritmos sean mantenernos cautivos, seguirán mostrándonos contenido que alimenta nuestros peores instintos y debilidades humanas". En esta atrevida plática, Eisenstat explora cómo es que empresas como Facebook, que manejan las redes sociales, incentivan la difusión de contenido provocador, lo que contribuye a fomentar la cultura de polarización política y desconfianza. Además, hace un llamado a los gobiernos para que obliguen a las plataformas a hacerse responsables a fin de proteger la comunicación civilizada y la democracia.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Sebastian Betti approved Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Sebastian Betti edited Spanish subtitles for Dear Facebook, this is how you're breaking democracy |