Return to Video

El precio de un internet "limpio"

  • 0:00 - 0:03
    [Esta charla incluye
    contenido para adultos]
  • 0:05 - 0:09
    Moritz Riesewieck: El 23 de marzo de 2013,
  • 0:09 - 0:13
    usuarios en todo el mundo
    descubrieron en su servicio de noticias
  • 0:13 - 0:19
    el video de una joven que era violada
    por un hombre mayor.
  • 0:19 - 0:23
    Antes de que este video
    fuera retirado de Facebook,
  • 0:23 - 0:28
    ya se había compartido 16 000 veces,
  • 0:28 - 0:32
    e incluso había recibido 4000 "Me gusta".
  • 0:33 - 0:37
    Este video se hizo viral e invadió la red.
  • 0:38 - 0:41
    Hans Block: Y ese fue el momento
    en que nos preguntamos:
  • 0:41 - 0:43
    ¿cómo podría algo así llegar a Facebook?
  • 0:44 - 0:48
    Y, al mismo tiempo, ¿por qué no vemos
    contenido semejante más a menudo?
  • 0:48 - 0:52
    Después de todo, hay una gran cantidad
    de material repugnante en línea,
  • 0:52 - 0:56
    pero ¿por qué tan pocas veces vemos
    basura en Facebook, Twitter o Google?
  • 0:57 - 0:59
    MR: Aunque el software
    de reconocimiento de imágenes
  • 0:59 - 1:03
    puede identificar el contorno
    de órganos sexuales,
  • 1:04 - 1:08
    sangre o piel desnuda
    en imágenes y videos,
  • 1:08 - 1:14
    tiene inmensas dificultades
    para distinguir el contenido pornográfico
  • 1:14 - 1:18
    de fotos de vacaciones, estatuas de Adonis
  • 1:18 - 1:21
    o campañas de prevención
    del cáncer de mama.
  • 1:21 - 1:25
    No puede distinguir la escena
    de muerte entre Romeo y Julieta
  • 1:25 - 1:28
    de un ataque real con arma blanca.
  • 1:28 - 1:33
    No puede distinguir
    la sátira de la propaganda,
  • 1:33 - 1:37
    ni la ironía del odio,
    y así sucesivamente.
  • 1:38 - 1:41
    Por lo tanto, se necesita
    la intervención humana
  • 1:41 - 1:45
    para decidir cuál de esos contenidos
    sospechosos debe eliminarse
  • 1:46 - 1:48
    y cuál deben permanecer.
  • 1:49 - 1:52
    Son personas a las que apenas conocemos,
  • 1:52 - 1:54
    porque trabajan en secreto,
  • 1:54 - 1:56
    firman un acuerdo de confidencialidad,
  • 1:56 - 1:59
    que les prohíbe hablar y compartir
  • 1:59 - 2:03
    lo que ven en sus pantallas
    y lo que supone este trabajo para ellos.
  • 2:03 - 2:05
    Están obligados a usar
    palabras codificadas
  • 2:05 - 2:07
    para ocultar para quién trabajan.
  • 2:08 - 2:10
    Son supervisados por
    empresas de seguridad privada
  • 2:11 - 2:14
    para asegurarse de que
    no hablen con periodistas.
  • 2:14 - 2:18
    Y están amenazados con multas
    en caso de que hablen.
  • 2:18 - 2:22
    Suena como una extraña historia policial,
  • 2:22 - 2:23
    pero es la verdad.
  • 2:24 - 2:25
    Estas personas existen,
  • 2:26 - 2:30
    y se llaman "moderadores de contenido".
  • 2:31 - 2:34
    HB: Somos directores del documental
    "The Cleaners", o los limpiadores,
  • 2:34 - 2:36
    y nos gustaría llevarlos
  • 2:36 - 2:39
    a un mundo que muchos
    quizá desconocen todavía.
  • 2:39 - 2:41
    He aquí un breve clip
    de nuestro documental.
  • 2:47 - 2:50
    (Música)
  • 2:52 - 2:56
    (Video) Moderador: Tengo que estar
    en el anonimato, por un contrato firmado.
  • 2:58 - 3:02
    No se nos permite revelar
    con quién estamos trabajando.
  • 3:03 - 3:05
    La razón por la que hablo
  • 3:05 - 3:09
    es porque el mundo debe
    saber que estamos aquí.
  • 3:11 - 3:13
    Hay alguien que controla
    las redes sociales.
  • 3:14 - 3:17
    Hacemos todo lo posible
    para que esta plataforma
  • 3:18 - 3:20
    sea segura para todos.
  • 3:30 - 3:31
    Eliminar.
  • 3:32 - 3:33
    Ignorar.
  • 3:34 - 3:35
    Eliminar.
  • 3:35 - 3:36
    Ignorar.
  • 3:37 - 3:38
    Eliminar.
  • 3:39 - 3:40
    Ignorar.
  • 3:40 - 3:40
    Ignorar.
  • 3:42 - 3:43
    Eliminar.
  • 3:46 - 3:48
    HB: Los llamados moderadores de contenido
  • 3:48 - 3:52
    no reciben su paga directamente
    de Facebook,Twitter o Google,
  • 3:52 - 3:54
    sino de empresas subcontratadas
    en todo el mundo
  • 3:54 - 3:56
    para mantener bajos los salarios.
  • 3:57 - 3:59
    Hay decenas de miles de jóvenes
  • 3:59 - 4:02
    que ven todo lo que se supone
    que no deben ver los demás.
  • 4:02 - 4:06
    Y estamos hablando
    de decapitaciones, mutilaciones,
  • 4:06 - 4:09
    ejecuciones, necrofilia,
    tortura, abuso infantil.
  • 4:10 - 4:12
    Miles de imágenes por cada turno laboral:
  • 4:12 - 4:15
    ignorar, eliminar, día y noche.
  • 4:15 - 4:18
    Y gran parte de este trabajo
    se hace en Manila,
  • 4:19 - 4:22
    donde los residuos tóxicos analógicos
    del mundo occidental
  • 4:22 - 4:25
    desde hace años se llevan allí
    en buques portacontenedores.
  • 4:25 - 4:29
    Ahora los residuos digitales se vierten
    allí mediante el cable de fibra óptica.
  • 4:29 - 4:32
    Y así como los llamados "carroñeros"
  • 4:32 - 4:35
    hurgan en montañas gigantescas
    en la periferia de la ciudad,
  • 4:35 - 4:40
    los moderadores se abren camino
    a golpe de clic por un océano sin fin
  • 4:40 - 4:44
    de imágenes, videos tóxicos
    y todo tipo de basura intelectual,
  • 4:44 - 4:46
    para que no tengamos que verlo nosotros.
  • 4:47 - 4:50
    MR: Pero a diferencia de
    las heridas de los carroñeros,
  • 4:50 - 4:54
    las de los moderadores de contenido
    permanecen invisibles.
  • 4:54 - 4:57
    Todo ese contenido
    impactante y perturbador,
  • 4:57 - 5:00
    esas fotos y videos,
    penetran en sus memorias,
  • 5:01 - 5:04
    donde, en cualquier momento,
    pueden tener efectos impredecibles:
  • 5:04 - 5:07
    trastornos de la alimentación,
    pérdida de la libido,
  • 5:07 - 5:11
    trastornos de ansiedad, alcoholismo,
  • 5:11 - 5:14
    depresión, que puede incluso
    conducir al suicidio.
  • 5:14 - 5:16
    Las fotos y videos los infectan,
  • 5:17 - 5:19
    y con frecuencia no se van de su memoria.
  • 5:19 - 5:23
    Si tienen mala suerte, desarrollan
    trastornos de estrés postraumático,
  • 5:24 - 5:26
    como los soldados
    tras las misiones de guerra.
  • 5:27 - 5:31
    En nuestro documental,
    contamos la historia de un joven
  • 5:31 - 5:36
    que tuvo que supervisar videos de
    automutilaciones e intentos de suicidio,
  • 5:36 - 5:38
    una y otra vez,
  • 5:38 - 5:41
    y que al final él mismo se suicidó.
  • 5:42 - 5:45
    No es un caso aislado,
    como se nos ha dicho.
  • 5:45 - 5:49
    Este es el precio que todos pagamos
  • 5:49 - 5:55
    por tener un ambiente
    teóricamente limpio, seguro y "sano"
  • 5:55 - 5:57
    en las redes sociales.
  • 5:58 - 6:01
    Nunca antes en la historia de la humanidad
  • 6:01 - 6:04
    ha sido más fácil llegar a millones
    de personas en todo el mundo
  • 6:04 - 6:06
    en unos pocos segundos.
  • 6:06 - 6:10
    Lo que se publica en las redes
    sociales, de manera rápida,
  • 6:10 - 6:14
    se convierte en viral y excita
    la mente de las personas en todo el mundo.
  • 6:14 - 6:16
    Antes de eliminarlo,
  • 6:17 - 6:18
    a menudo es demasiado tarde.
  • 6:19 - 6:21
    Millones de personas
    ya han sido infectadas
  • 6:21 - 6:23
    con el odio y la ira,
  • 6:23 - 6:25
    quienes, o bien son activas en línea
  • 6:26 - 6:28
    mediante la difusión
    o la amplificación del odio,
  • 6:29 - 6:33
    o salen a la calle y toman las armas.
  • 6:33 - 6:36
    HB: Por eso, un ejército
    de moderadores de contenido
  • 6:36 - 6:40
    se sienta ante una pantalla
    para evitar nuevos daños colaterales.
  • 6:40 - 6:43
    Y ellos deciden,
    tan pronto como sea posible,
  • 6:43 - 6:46
    si el contenido permanece
    en la plataforma, es decir, lo ignoran,
  • 6:47 - 6:49
    o si desaparece, es decir, lo eliminan.
  • 6:50 - 6:52
    Pero no todas las decisiones
    son tan claras
  • 6:52 - 6:55
    como la decisión acerca
    de un video de abuso infantil.
  • 6:55 - 6:58
    ¿Qué pasa con el contenido controvertido,
    el contenido ambivalente,
  • 6:58 - 7:02
    subido por los defensores de derechos
    civiles o periodistas ciudadanos?
  • 7:02 - 7:05
    Los moderadores de contenido
    a menudo deciden sobre estos casos
  • 7:05 - 7:08
    a la misma velocidad
    que en los casos claros.
  • 7:10 - 7:12
    MR: Les mostraremos un video ahora,
  • 7:12 - 7:15
    y nos gustaría pedirles que decidieran:
  • 7:16 - 7:17
    ¿Lo eliminarían,
  • 7:17 - 7:19
    o no lo eliminarían?
  • 7:19 - 7:21
    (Video) (Sonido de ataque aéreo)
  • 7:21 - 7:24
    (Explosión)
  • 7:28 - 7:32
    (Personas que hablan en árabe)
  • 7:34 - 7:37
    MR: Hicimos que algunas partes
    quedaran borrosas adrede.
  • 7:37 - 7:41
    Un niño se vería perturbado peligrosamente
  • 7:41 - 7:43
    y muy asustado con dicho contenido.
  • 7:44 - 7:46
    Por lo tanto, ¿mejor eliminarlo?
  • 7:48 - 7:52
    Pero ¿y si el video ayudara a investigar
    los crímenes de guerra en Siria?
  • 7:53 - 7:56
    ¿Qué pasa si nadie se hubiera enterado
    de este ataque aéreo,
  • 7:56 - 8:00
    porque Facebook, YouTube y Twitter
    decidieron eliminarlo?
  • 8:01 - 8:05
    Airwars, una organización no gubernamental
    con sede en Londres,
  • 8:05 - 8:08
    trata de encontrar esos videos
    lo antes posible
  • 8:08 - 8:11
    cada vez que se suben
    a las redes sociales,
  • 8:11 - 8:12
    con el fin de archivarlos.
  • 8:13 - 8:16
    Porque saben que, tarde o temprano,
  • 8:16 - 8:19
    Facebook, YouTube o Twitter eliminarán
    dicho contenido de sus plataformas.
  • 8:19 - 8:22
    Las personas armadas
    con sus teléfonos móviles
  • 8:22 - 8:26
    pueden hacer visible contenido al que
    los periodistas no suelen tener acceso.
  • 8:26 - 8:29
    Los grupos de derechos civiles
    no tienen ninguna opción mejor
  • 8:29 - 8:33
    para hacer rápidamente accesibles
    sus grabaciones a una gran audiencia
  • 8:33 - 8:35
    que subirlas a las redes sociales.
  • 8:36 - 8:40
    ¿No era ese el potencial de empoderamiento
    que la web debe tener?
  • 8:41 - 8:43
    ¿No era este, en sus etapas iniciales,
  • 8:43 - 8:47
    el sueño de las personas
    en torno a la web?
  • 8:48 - 8:50
    ¿Pueden imágenes y videos como estos
  • 8:50 - 8:55
    convencer a las personas que
    se han vuelto insensibles a los hechos
  • 8:56 - 8:57
    a reflexionar?
  • 8:58 - 9:01
    HB: Pero en vez de eso, todo lo que
    podría ser molesto se elimina.
  • 9:02 - 9:04
    Y hay un cambio general en la sociedad.
  • 9:04 - 9:08
    Los medios de comunicación, por ejemplo,
    ponen más menudo notas de advertencia
  • 9:08 - 9:09
    en la parte superior de los artículos,
  • 9:09 - 9:13
    que algunas personas pueden
    percibir como ofensivo o preocupante.
  • 9:13 - 9:16
    O cada vez más estudiantes
    en las universidades de EE. UU.
  • 9:17 - 9:20
    exigen que se eliminen del plan
    de estudios los clásicos antiguos
  • 9:20 - 9:23
    donde se represente
    la violencia sexual o el abuso.
  • 9:23 - 9:26
    Pero ¿hasta dónde deberíamos ir?
  • 9:26 - 9:29
    La integridad física está garantizada
    como un derecho humano
  • 9:29 - 9:31
    en las constituciones de todo el mundo.
  • 9:31 - 9:35
    En la Carta de los Derechos Fundamentales
    de la Unión Europea,
  • 9:35 - 9:39
    este derecho se aplica expresamente
    a la integridad psíquica.
  • 9:39 - 9:42
    Pero incluso si el efecto
    potencialmente traumático
  • 9:42 - 9:44
    de imágenes y videos
    es difícil de predecir,
  • 9:45 - 9:47
    ¿queremos llegar a ser tan cautelosos
  • 9:47 - 9:51
    de correr el riesgo de perder
    la conciencia social de la injusticia?
  • 9:51 - 9:53
    Entonces ¿qué hay que hacer?
  • 9:53 - 9:56
    Mark Zuckerberg declaró
    recientemente que en el futuro,
  • 9:56 - 9:59
    los usuarios, o casi todo el mundo,
  • 10:00 - 10:02
    decidirá de forma individual
  • 10:02 - 10:04
    lo que les gusta ver en la plataforma,
  • 10:04 - 10:06
    mediante ajustes de filtros personales.
  • 10:06 - 10:09
    De este modo, todos podrían fácilmente
    permanecer imperturbables
  • 10:09 - 10:13
    frente a imágenes de guerra
    u otros conflictos violentos, como...
  • 10:14 - 10:18
    MR: Yo soy el tipo de persona
    a quien no le importa ver pechos
  • 10:18 - 10:22
    y estoy muy interesado
    en el calentamiento global,
  • 10:22 - 10:25
    pero no me gusta la guerra.
  • 10:25 - 10:27
    HB: Sí, yo soy más bien lo contrario.
  • 10:27 - 10:31
    Tengo cero interés
    en senos o cuerpos desnudos.
  • 10:31 - 10:34
    Pero ¿por qué no armas de fuego?
    Me gustan las armas, sí.
  • 10:35 - 10:39
    MR: Como ven, si no compartimos
    una conciencia social similar,
  • 10:39 - 10:41
    ¿cómo vamos a debatir
    sobre los problemas sociales?
  • 10:41 - 10:44
    ¿Cómo vamos a llamar
    a la gente a la acción?
  • 10:44 - 10:47
    Surgirían incluso
    más burbujas solitarias.
  • 10:48 - 10:51
    Una de las cuestiones centrales
    es: ¿Cómo, en el futuro,
  • 10:51 - 10:56
    la libertad de expresión irá contra
    la necesidad de protección del pueblo?
  • 10:56 - 10:58
    Es una cuestión de principios.
  • 10:59 - 11:03
    ¿Queremos diseñar
    una sociedad abierta o cerrada
  • 11:03 - 11:05
    en el espacio digital?
  • 11:05 - 11:11
    En el meollo de la cuestión está
    en "la libertad frente a la seguridad".
  • 11:12 - 11:16
    Facebook siempre ha querido
    ser una plataforma "sana".
  • 11:17 - 11:20
    Por encima de todo, los usuarios
    deben sentirse seguros y protegidos.
  • 11:21 - 11:22
    Es la misma elección de las palabras
  • 11:23 - 11:26
    de los moderadores de contenido
    encuestados en las Filipinas
  • 11:26 - 11:28
    en muchas de nuestras entrevistas.
  • 11:28 - 11:31
    (Video) El mundo en el que vivimos ahora,
  • 11:31 - 11:33
    creo que, en realidad, no es sano.
  • 11:33 - 11:34
    (Música)
  • 11:34 - 11:37
    En este mundo existe un mal real.
  • 11:38 - 11:41
    (Música)
  • 11:41 - 11:43
    Tenemos que vigilarlo.
  • 11:43 - 11:45
    (Música)
  • 11:45 - 11:48
    Tenemos que controlar lo bueno y lo malo.
  • 11:49 - 11:52
    (Música)
  • 11:58 - 12:02
    [Mira hacia arriba. Dios]
  • 12:03 - 12:07
    MR: Para los moderadores de contenido
    jóvenes en la muy católica Filipinas,
  • 12:07 - 12:10
    su trabajo está vinculado
    a una misión cristiana
  • 12:11 - 12:14
    para contrarrestar los pecados del mundo
  • 12:14 - 12:16
    que se extienden a través de la web.
  • 12:17 - 12:20
    "La limpieza se aproxima a lo divino"
  • 12:20 - 12:24
    es un dicho que en Filipinas
    todo el mundo sabe.
  • 12:24 - 12:26
    HB: Y otros se motivan
  • 12:26 - 12:29
    comparándose
    con su presidente Rodrigo Duterte.
  • 12:30 - 12:33
    Gobierna Filipinas desde 2016,
  • 12:33 - 12:38
    y ganó las elecciones
    con la promesa: "Voy a limpiar todo".
  • 12:38 - 12:41
    Y lo que esto significa es
    eliminar todo tipo de problemas
  • 12:41 - 12:44
    matando, literalmente,
    a la gente en las calles,
  • 12:44 - 12:47
    personas supuestamente
    delincuentes, o lo que eso signifique.
  • 12:47 - 12:48
    Y desde que fue elegido,
  • 12:48 - 12:51
    unas 20 000 personas han muerto.
  • 12:52 - 12:54
    Y un moderador de nuestro documental dice:
  • 12:54 - 12:56
    "Lo que hace Duterte en las calles,
  • 12:56 - 12:58
    yo lo hago en internet".
  • 12:59 - 13:02
    Y aquí están, los autoproclamados
    superhéroes,
  • 13:03 - 13:05
    que hacen cumplir la ley y el orden
    en nuestro mundo digital.
  • 13:06 - 13:08
    Limpian, pulen y dejan todo impoluto,
  • 13:08 - 13:10
    para liberarnos de todo lo malo.
  • 13:10 - 13:14
    Tareas antes reservadas
    a las autoridades estatales
  • 13:14 - 13:18
    ahora las realizan graduados
    universitarios de 20 a 25 años,
  • 13:18 - 13:20
    con solo tres a cinco días
    de entrenamiento,
  • 13:21 - 13:23
    que es el requisito
  • 13:23 - 13:26
    para trabajar en nada menos
    que el rescate del mundo.
  • 13:27 - 13:31
    MR: Las soberanías nacionales
    están en manos de empresas privadas,
  • 13:31 - 13:35
    y derivan sus responsabilidades
    a terceras partes.
  • 13:35 - 13:38
    Es una subcontratación de
    la subcontratación de la subcontratación
  • 13:38 - 13:39
    lo que está ocurriendo.
  • 13:40 - 13:41
    Con las redes sociales,
  • 13:41 - 13:44
    se trata de una infraestructura
    completamente nueva,
  • 13:44 - 13:46
    con sus propios mecanismos,
  • 13:46 - 13:47
    su propia lógica de acción
  • 13:47 - 13:52
    y por lo tanto, también,
    sus propios nuevos peligros,
  • 13:53 - 13:56
    que no existían en la esfera
    pública predigitalizada.
  • 13:56 - 13:59
    HB: Cuando Mark Zuckerberg
    estuvo en el Congreso de EE. UU.
  • 13:59 - 14:01
    o en el Parlamento Europeo,
  • 14:01 - 14:03
    debió enfrentarse a todo tipo de críticos.
  • 14:03 - 14:06
    Y su reacción era siempre la misma:
  • 14:07 - 14:08
    "Vamos a solucionarlo,
  • 14:08 - 14:11
    y voy a hacer un seguimiento
    con mi equipo".
  • 14:11 - 14:15
    Pero tal debate no debería celebrarse
    en la trastienda de Facebook,
  • 14:15 - 14:16
    Twitter o Google.
  • 14:16 - 14:21
    Ese debate debe discutirse abiertamente
    en nuevos parlamentos cosmopolitas,
  • 14:21 - 14:26
    en nuevas instituciones que
    reflejen la diversidad de personas
  • 14:26 - 14:30
    que contribuyan al proyecto
    utópico de una red global.
  • 14:31 - 14:34
    Y si bien puede parecer imposible
    el tener en cuenta los valores
  • 14:34 - 14:36
    de los usuarios en todo el mundo,
  • 14:36 - 14:38
    vale la pena creer
  • 14:38 - 14:41
    que es más lo que nos une
    que lo que nos separa.
  • 14:42 - 14:45
    MR: Sí, en un momento
    en que el populismo está tomando fuerza,
  • 14:45 - 14:48
    se hace popular
    el justificar los síntomas,
  • 14:49 - 14:50
    erradicarlos,
  • 14:50 - 14:52
    para hacerlos invisibles.
  • 14:53 - 14:56
    Esta ideología se está extendiendo
    en todo el mundo,
  • 14:56 - 14:59
    tanto analógico como digital,
  • 15:00 - 15:03
    y es nuestro deber detenerla
  • 15:03 - 15:05
    antes de que sea demasiado tarde.
  • 15:06 - 15:09
    La cuestión de la libertad y la democracia
  • 15:10 - 15:13
    no solo debe tener estas dos opciones:
  • 15:13 - 15:14
    HB: Eliminar...
  • 15:14 - 15:16
    MR: O ignorar.
  • 15:17 - 15:18
    HB: Muchas gracias.
  • 15:18 - 15:21
    (Aplausos)
Title:
El precio de un internet "limpio"
Speaker:
Hans Block y Moritz Riesewieck
Description:

Millones de imágenes y videos se suben a internet cada día. Sin embargo, rara vez vemos contenido impactante e inquietante en nuestras redes sociales. ¿Quién mantiene el internet "limpio"? En esta charla reveladora, los documentalistas Hans Block y Moritz Riesewieck nos llevan al oscuro mundo de los moderadores de contenido en línea: las personas contratadas por las principales plataformas, como Facebook, Twitter y Google, para eliminar material tóxico de internet. También alertan sobre el impacto psicológico de este tipo de trabajo, y cómo la "limpieza digital" influye en lo que todos vemos y pensamos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37
Paula Motter approved Spanish subtitles for The price of a "clean" internet
Paula Motter accepted Spanish subtitles for The price of a "clean" internet
Paula Motter edited Spanish subtitles for The price of a "clean" internet
Paula Motter edited Spanish subtitles for The price of a "clean" internet
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet
Lidia Cámara de la Fuente edited Spanish subtitles for The price of a "clean" internet
Show all

Spanish subtitles

Revisions