El precio de un internet "limpio"
-
0:00 - 0:03[Esta charla incluye
contenido para adultos] -
0:05 - 0:09Moritz Riesewieck: El 23 de marzo de 2013,
-
0:09 - 0:13usuarios en todo el mundo
descubrieron en su servicio de noticias -
0:13 - 0:19el video de una joven que era violada
por un hombre mayor. -
0:19 - 0:23Antes de que este video
fuera retirado de Facebook, -
0:23 - 0:28ya se había compartido 16 000 veces,
-
0:28 - 0:32e incluso había recibido 4000 "Me gusta".
-
0:33 - 0:37Este video se hizo viral e invadió la red.
-
0:38 - 0:41Hans Block: Y ese fue el momento
en que nos preguntamos: -
0:41 - 0:43¿cómo podría algo así llegar a Facebook?
-
0:44 - 0:48Y, al mismo tiempo, ¿por qué no vemos
contenido semejante más a menudo? -
0:48 - 0:52Después de todo, hay una gran cantidad
de material repugnante en línea, -
0:52 - 0:56pero ¿por qué tan pocas veces vemos
basura en Facebook, Twitter o Google? -
0:57 - 0:59MR: Aunque el software
de reconocimiento de imágenes -
0:59 - 1:03puede identificar el contorno
de órganos sexuales, -
1:04 - 1:08sangre o piel desnuda
en imágenes y videos, -
1:08 - 1:14tiene inmensas dificultades
para distinguir el contenido pornográfico -
1:14 - 1:18de fotos de vacaciones, estatuas de Adonis
-
1:18 - 1:21o campañas de prevención
del cáncer de mama. -
1:21 - 1:25No puede distinguir la escena
de muerte entre Romeo y Julieta -
1:25 - 1:28de un ataque real con arma blanca.
-
1:28 - 1:33No puede distinguir
la sátira de la propaganda, -
1:33 - 1:37ni la ironía del odio,
y así sucesivamente. -
1:38 - 1:41Por lo tanto, se necesita
la intervención humana -
1:41 - 1:45para decidir cuál de esos contenidos
sospechosos debe eliminarse -
1:46 - 1:48y cuál deben permanecer.
-
1:49 - 1:52Son personas a las que apenas conocemos,
-
1:52 - 1:54porque trabajan en secreto,
-
1:54 - 1:56firman un acuerdo de confidencialidad,
-
1:56 - 1:59que les prohíbe hablar y compartir
-
1:59 - 2:03lo que ven en sus pantallas
y lo que supone este trabajo para ellos. -
2:03 - 2:05Están obligados a usar
palabras codificadas -
2:05 - 2:07para ocultar para quién trabajan.
-
2:08 - 2:10Son supervisados por
empresas de seguridad privada -
2:11 - 2:14para asegurarse de que
no hablen con periodistas. -
2:14 - 2:18Y están amenazados con multas
en caso de que hablen. -
2:18 - 2:22Suena como una extraña historia policial,
-
2:22 - 2:23pero es la verdad.
-
2:24 - 2:25Estas personas existen,
-
2:26 - 2:30y se llaman "moderadores de contenido".
-
2:31 - 2:34HB: Somos directores del documental
"The Cleaners", o los limpiadores, -
2:34 - 2:36y nos gustaría llevarlos
-
2:36 - 2:39a un mundo que muchos
quizá desconocen todavía. -
2:39 - 2:41He aquí un breve clip
de nuestro documental. -
2:47 - 2:50(Música)
-
2:52 - 2:56(Video) Moderador: Tengo que estar
en el anonimato, por un contrato firmado. -
2:58 - 3:02No se nos permite revelar
con quién estamos trabajando. -
3:03 - 3:05La razón por la que hablo
-
3:05 - 3:09es porque el mundo debe
saber que estamos aquí. -
3:11 - 3:13Hay alguien que controla
las redes sociales. -
3:14 - 3:17Hacemos todo lo posible
para que esta plataforma -
3:18 - 3:20sea segura para todos.
-
3:30 - 3:31Eliminar.
-
3:32 - 3:33Ignorar.
-
3:34 - 3:35Eliminar.
-
3:35 - 3:36Ignorar.
-
3:37 - 3:38Eliminar.
-
3:39 - 3:40Ignorar.
-
3:40 - 3:40Ignorar.
-
3:42 - 3:43Eliminar.
-
3:46 - 3:48HB: Los llamados moderadores de contenido
-
3:48 - 3:52no reciben su paga directamente
de Facebook,Twitter o Google, -
3:52 - 3:54sino de empresas subcontratadas
en todo el mundo -
3:54 - 3:56para mantener bajos los salarios.
-
3:57 - 3:59Hay decenas de miles de jóvenes
-
3:59 - 4:02que ven todo lo que se supone
que no deben ver los demás. -
4:02 - 4:06Y estamos hablando
de decapitaciones, mutilaciones, -
4:06 - 4:09ejecuciones, necrofilia,
tortura, abuso infantil. -
4:10 - 4:12Miles de imágenes por cada turno laboral:
-
4:12 - 4:15ignorar, eliminar, día y noche.
-
4:15 - 4:18Y gran parte de este trabajo
se hace en Manila, -
4:19 - 4:22donde los residuos tóxicos analógicos
del mundo occidental -
4:22 - 4:25desde hace años se llevan allí
en buques portacontenedores. -
4:25 - 4:29Ahora los residuos digitales se vierten
allí mediante el cable de fibra óptica. -
4:29 - 4:32Y así como los llamados "carroñeros"
-
4:32 - 4:35hurgan en montañas gigantescas
en la periferia de la ciudad, -
4:35 - 4:40los moderadores se abren camino
a golpe de clic por un océano sin fin -
4:40 - 4:44de imágenes, videos tóxicos
y todo tipo de basura intelectual, -
4:44 - 4:46para que no tengamos que verlo nosotros.
-
4:47 - 4:50MR: Pero a diferencia de
las heridas de los carroñeros, -
4:50 - 4:54las de los moderadores de contenido
permanecen invisibles. -
4:54 - 4:57Todo ese contenido
impactante y perturbador, -
4:57 - 5:00esas fotos y videos,
penetran en sus memorias, -
5:01 - 5:04donde, en cualquier momento,
pueden tener efectos impredecibles: -
5:04 - 5:07trastornos de la alimentación,
pérdida de la libido, -
5:07 - 5:11trastornos de ansiedad, alcoholismo,
-
5:11 - 5:14depresión, que puede incluso
conducir al suicidio. -
5:14 - 5:16Las fotos y videos los infectan,
-
5:17 - 5:19y con frecuencia no se van de su memoria.
-
5:19 - 5:23Si tienen mala suerte, desarrollan
trastornos de estrés postraumático, -
5:24 - 5:26como los soldados
tras las misiones de guerra. -
5:27 - 5:31En nuestro documental,
contamos la historia de un joven -
5:31 - 5:36que tuvo que supervisar videos de
automutilaciones e intentos de suicidio, -
5:36 - 5:38una y otra vez,
-
5:38 - 5:41y que al final él mismo se suicidó.
-
5:42 - 5:45No es un caso aislado,
como se nos ha dicho. -
5:45 - 5:49Este es el precio que todos pagamos
-
5:49 - 5:55por tener un ambiente
teóricamente limpio, seguro y "sano" -
5:55 - 5:57en las redes sociales.
-
5:58 - 6:01Nunca antes en la historia de la humanidad
-
6:01 - 6:04ha sido más fácil llegar a millones
de personas en todo el mundo -
6:04 - 6:06en unos pocos segundos.
-
6:06 - 6:10Lo que se publica en las redes
sociales, de manera rápida, -
6:10 - 6:14se convierte en viral y excita
la mente de las personas en todo el mundo. -
6:14 - 6:16Antes de eliminarlo,
-
6:17 - 6:18a menudo es demasiado tarde.
-
6:19 - 6:21Millones de personas
ya han sido infectadas -
6:21 - 6:23con el odio y la ira,
-
6:23 - 6:25quienes, o bien son activas en línea
-
6:26 - 6:28mediante la difusión
o la amplificación del odio, -
6:29 - 6:33o salen a la calle y toman las armas.
-
6:33 - 6:36HB: Por eso, un ejército
de moderadores de contenido -
6:36 - 6:40se sienta ante una pantalla
para evitar nuevos daños colaterales. -
6:40 - 6:43Y ellos deciden,
tan pronto como sea posible, -
6:43 - 6:46si el contenido permanece
en la plataforma, es decir, lo ignoran, -
6:47 - 6:49o si desaparece, es decir, lo eliminan.
-
6:50 - 6:52Pero no todas las decisiones
son tan claras -
6:52 - 6:55como la decisión acerca
de un video de abuso infantil. -
6:55 - 6:58¿Qué pasa con el contenido controvertido,
el contenido ambivalente, -
6:58 - 7:02subido por los defensores de derechos
civiles o periodistas ciudadanos? -
7:02 - 7:05Los moderadores de contenido
a menudo deciden sobre estos casos -
7:05 - 7:08a la misma velocidad
que en los casos claros. -
7:10 - 7:12MR: Les mostraremos un video ahora,
-
7:12 - 7:15y nos gustaría pedirles que decidieran:
-
7:16 - 7:17¿Lo eliminarían,
-
7:17 - 7:19o no lo eliminarían?
-
7:19 - 7:21(Video) (Sonido de ataque aéreo)
-
7:21 - 7:24(Explosión)
-
7:28 - 7:32(Personas que hablan en árabe)
-
7:34 - 7:37MR: Hicimos que algunas partes
quedaran borrosas adrede. -
7:37 - 7:41Un niño se vería perturbado peligrosamente
-
7:41 - 7:43y muy asustado con dicho contenido.
-
7:44 - 7:46Por lo tanto, ¿mejor eliminarlo?
-
7:48 - 7:52Pero ¿y si el video ayudara a investigar
los crímenes de guerra en Siria? -
7:53 - 7:56¿Qué pasa si nadie se hubiera enterado
de este ataque aéreo, -
7:56 - 8:00porque Facebook, YouTube y Twitter
decidieron eliminarlo? -
8:01 - 8:05Airwars, una organización no gubernamental
con sede en Londres, -
8:05 - 8:08trata de encontrar esos videos
lo antes posible -
8:08 - 8:11cada vez que se suben
a las redes sociales, -
8:11 - 8:12con el fin de archivarlos.
-
8:13 - 8:16Porque saben que, tarde o temprano,
-
8:16 - 8:19Facebook, YouTube o Twitter eliminarán
dicho contenido de sus plataformas. -
8:19 - 8:22Las personas armadas
con sus teléfonos móviles -
8:22 - 8:26pueden hacer visible contenido al que
los periodistas no suelen tener acceso. -
8:26 - 8:29Los grupos de derechos civiles
no tienen ninguna opción mejor -
8:29 - 8:33para hacer rápidamente accesibles
sus grabaciones a una gran audiencia -
8:33 - 8:35que subirlas a las redes sociales.
-
8:36 - 8:40¿No era ese el potencial de empoderamiento
que la web debe tener? -
8:41 - 8:43¿No era este, en sus etapas iniciales,
-
8:43 - 8:47el sueño de las personas
en torno a la web? -
8:48 - 8:50¿Pueden imágenes y videos como estos
-
8:50 - 8:55convencer a las personas que
se han vuelto insensibles a los hechos -
8:56 - 8:57a reflexionar?
-
8:58 - 9:01HB: Pero en vez de eso, todo lo que
podría ser molesto se elimina. -
9:02 - 9:04Y hay un cambio general en la sociedad.
-
9:04 - 9:08Los medios de comunicación, por ejemplo,
ponen más menudo notas de advertencia -
9:08 - 9:09en la parte superior de los artículos,
-
9:09 - 9:13que algunas personas pueden
percibir como ofensivo o preocupante. -
9:13 - 9:16O cada vez más estudiantes
en las universidades de EE. UU. -
9:17 - 9:20exigen que se eliminen del plan
de estudios los clásicos antiguos -
9:20 - 9:23donde se represente
la violencia sexual o el abuso. -
9:23 - 9:26Pero ¿hasta dónde deberíamos ir?
-
9:26 - 9:29La integridad física está garantizada
como un derecho humano -
9:29 - 9:31en las constituciones de todo el mundo.
-
9:31 - 9:35En la Carta de los Derechos Fundamentales
de la Unión Europea, -
9:35 - 9:39este derecho se aplica expresamente
a la integridad psíquica. -
9:39 - 9:42Pero incluso si el efecto
potencialmente traumático -
9:42 - 9:44de imágenes y videos
es difícil de predecir, -
9:45 - 9:47¿queremos llegar a ser tan cautelosos
-
9:47 - 9:51de correr el riesgo de perder
la conciencia social de la injusticia? -
9:51 - 9:53Entonces ¿qué hay que hacer?
-
9:53 - 9:56Mark Zuckerberg declaró
recientemente que en el futuro, -
9:56 - 9:59los usuarios, o casi todo el mundo,
-
10:00 - 10:02decidirá de forma individual
-
10:02 - 10:04lo que les gusta ver en la plataforma,
-
10:04 - 10:06mediante ajustes de filtros personales.
-
10:06 - 10:09De este modo, todos podrían fácilmente
permanecer imperturbables -
10:09 - 10:13frente a imágenes de guerra
u otros conflictos violentos, como... -
10:14 - 10:18MR: Yo soy el tipo de persona
a quien no le importa ver pechos -
10:18 - 10:22y estoy muy interesado
en el calentamiento global, -
10:22 - 10:25pero no me gusta la guerra.
-
10:25 - 10:27HB: Sí, yo soy más bien lo contrario.
-
10:27 - 10:31Tengo cero interés
en senos o cuerpos desnudos. -
10:31 - 10:34Pero ¿por qué no armas de fuego?
Me gustan las armas, sí. -
10:35 - 10:39MR: Como ven, si no compartimos
una conciencia social similar, -
10:39 - 10:41¿cómo vamos a debatir
sobre los problemas sociales? -
10:41 - 10:44¿Cómo vamos a llamar
a la gente a la acción? -
10:44 - 10:47Surgirían incluso
más burbujas solitarias. -
10:48 - 10:51Una de las cuestiones centrales
es: ¿Cómo, en el futuro, -
10:51 - 10:56la libertad de expresión irá contra
la necesidad de protección del pueblo? -
10:56 - 10:58Es una cuestión de principios.
-
10:59 - 11:03¿Queremos diseñar
una sociedad abierta o cerrada -
11:03 - 11:05en el espacio digital?
-
11:05 - 11:11En el meollo de la cuestión está
en "la libertad frente a la seguridad". -
11:12 - 11:16Facebook siempre ha querido
ser una plataforma "sana". -
11:17 - 11:20Por encima de todo, los usuarios
deben sentirse seguros y protegidos. -
11:21 - 11:22Es la misma elección de las palabras
-
11:23 - 11:26de los moderadores de contenido
encuestados en las Filipinas -
11:26 - 11:28en muchas de nuestras entrevistas.
-
11:28 - 11:31(Video) El mundo en el que vivimos ahora,
-
11:31 - 11:33creo que, en realidad, no es sano.
-
11:33 - 11:34(Música)
-
11:34 - 11:37En este mundo existe un mal real.
-
11:38 - 11:41(Música)
-
11:41 - 11:43Tenemos que vigilarlo.
-
11:43 - 11:45(Música)
-
11:45 - 11:48Tenemos que controlar lo bueno y lo malo.
-
11:49 - 11:52(Música)
-
11:58 - 12:02[Mira hacia arriba. Dios]
-
12:03 - 12:07MR: Para los moderadores de contenido
jóvenes en la muy católica Filipinas, -
12:07 - 12:10su trabajo está vinculado
a una misión cristiana -
12:11 - 12:14para contrarrestar los pecados del mundo
-
12:14 - 12:16que se extienden a través de la web.
-
12:17 - 12:20"La limpieza se aproxima a lo divino"
-
12:20 - 12:24es un dicho que en Filipinas
todo el mundo sabe. -
12:24 - 12:26HB: Y otros se motivan
-
12:26 - 12:29comparándose
con su presidente Rodrigo Duterte. -
12:30 - 12:33Gobierna Filipinas desde 2016,
-
12:33 - 12:38y ganó las elecciones
con la promesa: "Voy a limpiar todo". -
12:38 - 12:41Y lo que esto significa es
eliminar todo tipo de problemas -
12:41 - 12:44matando, literalmente,
a la gente en las calles, -
12:44 - 12:47personas supuestamente
delincuentes, o lo que eso signifique. -
12:47 - 12:48Y desde que fue elegido,
-
12:48 - 12:51unas 20 000 personas han muerto.
-
12:52 - 12:54Y un moderador de nuestro documental dice:
-
12:54 - 12:56"Lo que hace Duterte en las calles,
-
12:56 - 12:58yo lo hago en internet".
-
12:59 - 13:02Y aquí están, los autoproclamados
superhéroes, -
13:03 - 13:05que hacen cumplir la ley y el orden
en nuestro mundo digital. -
13:06 - 13:08Limpian, pulen y dejan todo impoluto,
-
13:08 - 13:10para liberarnos de todo lo malo.
-
13:10 - 13:14Tareas antes reservadas
a las autoridades estatales -
13:14 - 13:18ahora las realizan graduados
universitarios de 20 a 25 años, -
13:18 - 13:20con solo tres a cinco días
de entrenamiento, -
13:21 - 13:23que es el requisito
-
13:23 - 13:26para trabajar en nada menos
que el rescate del mundo. -
13:27 - 13:31MR: Las soberanías nacionales
están en manos de empresas privadas, -
13:31 - 13:35y derivan sus responsabilidades
a terceras partes. -
13:35 - 13:38Es una subcontratación de
la subcontratación de la subcontratación -
13:38 - 13:39lo que está ocurriendo.
-
13:40 - 13:41Con las redes sociales,
-
13:41 - 13:44se trata de una infraestructura
completamente nueva, -
13:44 - 13:46con sus propios mecanismos,
-
13:46 - 13:47su propia lógica de acción
-
13:47 - 13:52y por lo tanto, también,
sus propios nuevos peligros, -
13:53 - 13:56que no existían en la esfera
pública predigitalizada. -
13:56 - 13:59HB: Cuando Mark Zuckerberg
estuvo en el Congreso de EE. UU. -
13:59 - 14:01o en el Parlamento Europeo,
-
14:01 - 14:03debió enfrentarse a todo tipo de críticos.
-
14:03 - 14:06Y su reacción era siempre la misma:
-
14:07 - 14:08"Vamos a solucionarlo,
-
14:08 - 14:11y voy a hacer un seguimiento
con mi equipo". -
14:11 - 14:15Pero tal debate no debería celebrarse
en la trastienda de Facebook, -
14:15 - 14:16Twitter o Google.
-
14:16 - 14:21Ese debate debe discutirse abiertamente
en nuevos parlamentos cosmopolitas, -
14:21 - 14:26en nuevas instituciones que
reflejen la diversidad de personas -
14:26 - 14:30que contribuyan al proyecto
utópico de una red global. -
14:31 - 14:34Y si bien puede parecer imposible
el tener en cuenta los valores -
14:34 - 14:36de los usuarios en todo el mundo,
-
14:36 - 14:38vale la pena creer
-
14:38 - 14:41que es más lo que nos une
que lo que nos separa. -
14:42 - 14:45MR: Sí, en un momento
en que el populismo está tomando fuerza, -
14:45 - 14:48se hace popular
el justificar los síntomas, -
14:49 - 14:50erradicarlos,
-
14:50 - 14:52para hacerlos invisibles.
-
14:53 - 14:56Esta ideología se está extendiendo
en todo el mundo, -
14:56 - 14:59tanto analógico como digital,
-
15:00 - 15:03y es nuestro deber detenerla
-
15:03 - 15:05antes de que sea demasiado tarde.
-
15:06 - 15:09La cuestión de la libertad y la democracia
-
15:10 - 15:13no solo debe tener estas dos opciones:
-
15:13 - 15:14HB: Eliminar...
-
15:14 - 15:16MR: O ignorar.
-
15:17 - 15:18HB: Muchas gracias.
-
15:18 - 15:21(Aplausos)
- Title:
- El precio de un internet "limpio"
- Speaker:
- Hans Block y Moritz Riesewieck
- Description:
-
Millones de imágenes y videos se suben a internet cada día. Sin embargo, rara vez vemos contenido impactante e inquietante en nuestras redes sociales. ¿Quién mantiene el internet "limpio"? En esta charla reveladora, los documentalistas Hans Block y Moritz Riesewieck nos llevan al oscuro mundo de los moderadores de contenido en línea: las personas contratadas por las principales plataformas, como Facebook, Twitter y Google, para eliminar material tóxico de internet. También alertan sobre el impacto psicológico de este tipo de trabajo, y cómo la "limpieza digital" influye en lo que todos vemos y pensamos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:37
Paula Motter approved Spanish subtitles for The price of a "clean" internet | ||
Paula Motter accepted Spanish subtitles for The price of a "clean" internet | ||
Paula Motter edited Spanish subtitles for The price of a "clean" internet | ||
Paula Motter edited Spanish subtitles for The price of a "clean" internet | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet |