Return to Video

Cómo eliminar de internet el contenido de abuso sexual infantil

  • 0:01 - 0:03
    [Esta charla contiene
    contenido para adultos]
  • 0:06 - 0:07
    Hace cinco años
  • 0:07 - 0:11
    recibí una llamada que cambiaría mi vida.
  • 0:12 - 0:14
    Recuerdo ese día muy claramente.
  • 0:15 - 0:17
    Fue en esta época del año,
  • 0:17 - 0:19
    y yo estaba sentada en mi oficina.
  • 0:20 - 0:23
    Recuerdo el sol entrando por la ventana.
  • 0:24 - 0:25
    Y mi teléfono sonó.
  • 0:26 - 0:27
    Yo contesté,
  • 0:28 - 0:32
    y eran dos agentes federales
    pidiendo mi ayuda
  • 0:32 - 0:34
    para identificar a una pequeña niña
  • 0:34 - 0:40
    que aparecía en cientos de imágenes
    de abuso sexual infantil en internet.
  • 0:41 - 0:44
    Ellos apenas habían comenzado
    a trabajar en el caso,
  • 0:44 - 0:47
    pero sí sabían que
  • 0:47 - 0:51
    su abuso había sido difundido
    al mundo durante años
  • 0:51 - 0:57
    en sitios web del internet oscuro
    dedicados al abuso sexual infantil.
  • 0:58 - 1:02
    Y su agresor era
    muy sofisticado tecnológicamente:
  • 1:02 - 1:07
    nuevas imágenes y videos
    cada par de semanas,
  • 1:07 - 1:11
    pero muy pocas pistas sobre quién era ella
  • 1:11 - 1:12
    o dónde estaba.
  • 1:13 - 1:15
    Así que, los agentes nos llamaron,
  • 1:15 - 1:17
    porque se enteraron de nuestra
    organización no lucrativa
  • 1:17 - 1:21
    que crea tecnología
    para combatir el abuso sexual infantil.
  • 1:22 - 1:24
    Pero solo hacía dos años
    que funcionábamos
  • 1:24 - 1:27
    y solo habíamos trabajado
    en tráfico sexual infantil.
  • 1:28 - 1:30
    Tuve que decirles
  • 1:30 - 1:31
    que no teníamos nada.
  • 1:32 - 1:36
    No teníamos nada que pudiera
    ayudarles a detener este abuso.
  • 1:37 - 1:41
    Les tomó a los agentes otro año más
  • 1:41 - 1:44
    hasta finalmente encontrar a la niña.
  • 1:45 - 1:47
    Y para cuando ella fue rescatada,
  • 1:47 - 1:52
    cientos de imágenes y videos
    mostrando su violación
  • 1:52 - 1:55
    se habían hecho virales
    en el internet oscuro
  • 1:55 - 1:58
    en redes de pares,
    en salas de chat privadas
  • 1:58 - 2:02
    hasta en sitios web que Uds. y yo usamos
  • 2:02 - 2:04
    todos los días.
  • 2:05 - 2:09
    Y hoy, mientras ella lucha
    por recuperarse,
  • 2:09 - 2:13
    vive con el hecho de que
    miles en todo el mundo
  • 2:13 - 2:16
    siguen viendo su abuso.
  • 2:18 - 2:20
    He aprendido en los últimos cinco años
  • 2:20 - 2:23
    que este caso está lejos de ser único.
  • 2:24 - 2:28
    ¿Cómo llegamos aquí como sociedad?
  • 2:29 - 2:33
    A finales de los 80,
    la pornografía infantil
  • 2:33 - 2:39
    o lo que realmente es,
    el contenido de abuso sexual infantil
  • 2:39 - 2:40
    llegó a ser casi eliminado.
  • 2:41 - 2:46
    Nuevas leyes y más acciones judiciales lo
    hicieron simplemente demasiado arriesgado
  • 2:46 - 2:47
    para enviarlo por correo.
  • 2:48 - 2:52
    Entonces internet llegó
    y el mercado explotó.
  • 2:53 - 2:57
    Hoy en día, la cantidad de
    contenido en circulación
  • 2:57 - 3:00
    es enorme y sigue creciendo.
  • 3:00 - 3:04
    Este es un verdadero problema global,
  • 3:04 - 3:06
    pero si solo consideramos EE. UU.,
  • 3:06 - 3:08
    solo el año pasado en EE. UU.
  • 3:08 - 3:14
    más de 45 millones de imágenes y videos
    de contenido de abuso sexual infantil
  • 3:14 - 3:17
    fueron reportados al Centro Nacional
    para Niños Desaparecidos y Explotados,
  • 3:17 - 3:22
    y eso es casi el doble de
    la cantidad del año anterior,
  • 3:23 - 3:28
    Y los detalles detrás de estos números
    son difíciles de contemplar,
  • 3:28 - 3:34
    con más del 60 % mostrando
    a niños menores de 12 años,
  • 3:34 - 3:38
    y la mayoría de ellos incluyen
    actos de extrema violencia sexual.
  • 3:39 - 3:44
    Los violadores son aclamados en
    salas de chat dedicadas al abuso de niños,
  • 3:44 - 3:47
    donde ganan rango y notoriedad
  • 3:47 - 3:50
    con más violaciones y más víctimas.
  • 3:50 - 3:53
    En este mercado,
  • 3:53 - 3:57
    la moneda de cambio se ha vuelto
    el mismo contenido.
  • 3:58 - 4:02
    Los violadores han sido rápidos
    en aprovecharse de las nuevas tecnologías,
  • 4:02 - 4:05
    pero nuestra respuesta
    como sociedad no lo ha sido.
  • 4:06 - 4:10
    Los violadores no leen
    los términos de uso de los sitios web,
  • 4:10 - 4:14
    y el contenido no respeta
    fronteras geográficas.
  • 4:15 - 4:21
    Y ellos ganan cada vez que nosotros
    buscamos en una pieza del rompecabezas,
  • 4:21 - 4:25
    lo cual es exactamente la forma en que
    está diseñada nuestra repuesta hoy en día.
  • 4:25 - 4:28
    La fuerza de la ley
    funciona en una jurisdicción.
  • 4:28 - 4:32
    Las compañías solo
    buscan en su plataforma.
  • 4:32 - 4:34
    Y cualquier dato que
    descubren sobre la marcha
  • 4:35 - 4:37
    es rara vez compartido.
  • 4:37 - 4:43
    Es muy obvio que
    este enfoque no está funcionando.
  • 4:44 - 4:47
    Debemos rediseñar
    la respuesta a esta epidemia
  • 4:48 - 4:49
    de la era digital.
  • 4:50 - 4:53
    Y eso es exactamente lo que
    estamos haciendo en Thron.
  • 4:53 - 4:57
    Estamos creando tecnología
    para conectar estos puntos,
  • 4:57 - 4:59
    para armar a quienes libran esta batalla:
  • 4:59 - 5:02
    fuerzas judiciales, ONGs y compañías,
  • 5:02 - 5:06
    con las herramientas necesarias
    para por fin eliminar del internet
  • 5:06 - 5:08
    el contenido de abuso sexual infantil.
  • 5:10 - 5:11
    Hablemos por un momento...
  • 5:11 - 5:12
    (Aplausos)
  • 5:12 - 5:14
    Gracias.
  • 5:14 - 5:16
    (Aplausos)
  • 5:18 - 5:20
    Hablemos por un momento
    sobre los puntos que mencioné
  • 5:21 - 5:25
    Como se pueden imaginar,
    el contenido es terrible.
  • 5:25 - 5:28
    Si no tienen por qué verlo,
    no querrán verlo.
  • 5:28 - 5:33
    Y así, la mayoría de
    compañías o agencias de fuerza judicial
  • 5:33 - 5:35
    que tienen este contenido
  • 5:35 - 5:39
    pueden transformar cada archivo
    en una serie única de números.
  • 5:39 - 5:40
    Esto es llamado "hash".
  • 5:40 - 5:42
    Es básicamente una huella digital
  • 5:42 - 5:45
    para cada archivo o cada video.
  • 5:45 - 5:49
    Esto permite usar
    la información en investigaciones
  • 5:49 - 5:52
    o que una compañía pueda
    eliminar el contenido de su plataforma,
  • 5:52 - 5:58
    sin tener que revisar uno a uno
    cada imagen y cada video
  • 5:58 - 6:00
    Sin embargo, el problema de hoy en día
  • 6:00 - 6:04
    es que hay cientos de millones
    de estos "hash"
  • 6:04 - 6:08
    almacenados por todo el mundo.
  • 6:08 - 6:09
    En un silo,
  • 6:09 - 6:12
    podría funcionar para la agencia
    que tenga control sobre este,
  • 6:12 - 6:17
    pero si no se conectan estos datos,
    no sabremos cuántos son únicos.
  • 6:17 - 6:20
    No sabremos cuáles son de niños
    que ya han sido rescatados
  • 6:20 - 6:23
    o cuáles son de quienes
    aún necesitan ser identificados.
  • 6:23 - 6:27
    Por lo que nuestra primera y
    más básica premisa es que
  • 6:27 - 6:30
    todos estos datos deben ser conectados.
  • 6:30 - 6:36
    Hay dos formas en las que estos datos,
    combinados con software a escala global,
  • 6:37 - 6:40
    pueden tener un impacto transformativo.
  • 6:40 - 6:43
    La primera es con la fuerza de la ley:
  • 6:43 - 6:47
    ayudándoles a identificar
    nuevas víctimas de forma más rápida,
  • 6:47 - 6:48
    deteniendo su abuso
  • 6:48 - 6:51
    y deteniendo a aquellos
    que producen este contenido.
  • 6:51 - 6:54
    La segunda es con empresas:
  • 6:54 - 6:58
    usándolos como pistas para identificar
    los cientos de millones de archivos
  • 6:58 - 6:59
    en circulación a día de hoy,
  • 6:59 - 7:01
    bajándolos
  • 7:01 - 7:07
    y evitando la carga de contenido nuevo
    antes de que haga viral.
  • 7:10 - 7:11
    Hace cuatro años,
  • 7:11 - 7:13
    cuando ese caso terminó,
  • 7:14 - 7:18
    nuestro equipo se sentó,
    y sentimos...
  • 7:20 - 7:23
    un profundo sentimiento de fracaso,
    es como puedo describirlo,
  • 7:23 - 7:27
    porque vigilamos ese año por completo
  • 7:27 - 7:28
    mientras ellos la buscaban.
  • 7:28 - 7:32
    Y vimos cada lugar en la investigación
  • 7:32 - 7:34
    y si la tecnología hubiese existido,
  • 7:34 - 7:37
    la habrían encontrado más rápido.
  • 7:38 - 7:40
    Así que, avanzamos
  • 7:40 - 7:43
    y terminamos haciendo
    lo que mejor sabemos hacer:
  • 7:43 - 7:45
    empezamos a crear software.
  • 7:46 - 7:48
    Hemos comenzado con la fuerza de la ley.
  • 7:48 - 7:52
    Nuestro sueño fue una buena señal
    para los oficiales de todo el mundo
  • 7:52 - 7:57
    porque si alguien se atreve a publicar
    en internet una nueva víctima,
  • 7:57 - 8:00
    alguien comenzará a buscarla de inmediato.
  • 8:01 - 8:04
    Obviamente no puedo dar
    detalles sobre este software,
  • 8:04 - 8:07
    pero hoy en día está en uso en 38 países,
  • 8:07 - 8:10
    reduciendo el tiempo necesario
    para identificar una víctima
  • 8:10 - 8:12
    en más del 65 % de los casos.
  • 8:12 - 8:17
    (Aplausos)
  • 8:21 - 8:24
    Y ahora nos estamos centrando
    en el segundo punto:
  • 8:24 - 8:30
    crear el software para identificar y
    eliminar este contenido.
  • 8:31 - 8:34
    Hablemos por un momento
    sobre estas compañías.
  • 8:34 - 8:40
    45 millones de imágenes y videos
    considerando solo el año pasado en EE. UU.
  • 8:40 - 8:44
    Esto proviene de solo 12 empresas.
  • 8:46 - 8:52
    Doce empresas, 45 millones de archivos
    sobre abuso sexual infantil.
  • 8:52 - 8:55
    Esto viene de empresas
    que tienen el dinero
  • 8:55 - 9:00
    para crear la infraestructura necesaria
    para eliminar este contenido.
  • 9:00 - 9:02
    Pero hay cientos de otras empresas,
  • 9:02 - 9:05
    desde pequeñas a medianas
    por todo el mundo,
  • 9:05 - 9:07
    que necesitan hacer este trabajo,
  • 9:07 - 9:12
    pero puede que ellos: 1) no sepan que
    sus plataformas se usan para el abuso
  • 9:12 - 9:18
    o 2) no tienen el dinero para gastar
    en algo que no genera ganancias.
  • 9:19 - 9:22
    Así que nos adelantamos
    y lo construimos por ellos,
  • 9:22 - 9:27
    y este sistema ahora se vuelve más listo
    entre más empresas participen.
  • 9:28 - 9:30
    Permítanme darles un ejemplo.
  • 9:30 - 9:34
    Nuestro primero socio, Imgur, si no han
    oído hablar de esta empresas,
  • 9:34 - 9:38
    es uno de los sitios web más
    visitados en EE. UU.
  • 9:38 - 9:43
    Cada día se suben millones de piezas de
    contenido generado por los usuarios,
  • 9:43 - 9:45
    en una misión de hacer del internet
    un lugar más divertido.
  • 9:46 - 9:48
    Se asociaron con nosotros primero.
  • 9:48 - 9:51
    En tan solo 20 minutos de
    haber subido nuestro sistema,
  • 9:51 - 9:55
    alguien intentó subir
    una conocida pieza de material de abuso.
  • 9:55 - 9:57
    Pudieron detenerlo, bajarlo,
  • 9:57 - 10:00
    y reportarlo al Centro Nacional de
    Niños Desaparecidos y Explotados.
  • 10:00 - 10:02
    Pero ellos fueron un paso más adelante,
  • 10:02 - 10:07
    inspeccionaron la cuenta de la persona
    que había subido el contenido.
  • 10:07 - 10:12
    Cientos de piezas de contenido de
    abuso sexual infantil
  • 10:12 - 10:14
    del que habíamos visto.
  • 10:14 - 10:18
    Y aquí fue donde comenzamos
    a ver un impacto exponencial.
  • 10:18 - 10:19
    Bajamos ese contenido,
  • 10:20 - 10:23
    se reporta al Centro Nacional de
    Niños Explotados y Desaparecidos
  • 10:23 - 10:26
    y estos "hash" van de vuelta al sistema
  • 10:26 - 10:28
    Y benefician a cualquier
    otra compañía que lo use.
  • 10:28 - 10:33
    Y cuando los millones de "hash" que tenemos
    hayan dirigido a millones más en directo,
  • 10:33 - 10:37
    las empresas alrededor del mundo
    identificarán y bajarán el contenido,
  • 10:37 - 10:42
    aumentado drásticamente
    el tiempo en el que eliminamos
  • 10:42 - 10:46
    el contenido de abuso sexual infantil
    del internet por todo el mundo.
  • 10:46 - 10:52
    (Aplausos)
  • 10:54 - 10:57
    Pero este es el por qué
    no solo se trata de software y datos,
  • 10:57 - 10:59
    tiene que tratarse de escala,
  • 10:59 - 11:03
    Tenemos que activar miles de agentes,
  • 11:03 - 11:05
    cientos de empresas por todo el mundo
  • 11:05 - 11:09
    así la tecnología nos permitirá
    superar a los perpetradores
  • 11:09 - 11:13
    y desmantelar las comunidades que están
    normalizando el abuso sexual infantil
  • 11:13 - 11:15
    a día de hoy por todo el mundo.
  • 11:15 - 11:18
    Y el momento para hacer esto es ahora.
  • 11:18 - 11:24
    No podemos decir más que no sabemos
    del impacto de esto en nuestros niños,
  • 11:25 - 11:29
    La primera generación de niños
    cuyo abuso se hizo viral
  • 11:29 - 11:31
    ya son ahora adultos jóvenes.
  • 11:31 - 11:34
    El Centro Canadiense
    de Protección Infantil
  • 11:34 - 11:37
    acaba de hacer un estudio
    sobre estos adultos jóvenes
  • 11:37 - 11:41
    para entender el trauma particular
    del que tratan de recuperarse,
  • 11:41 - 11:44
    sabiendo que su abuso aún existe.
  • 11:45 - 11:50
    El 80 % de estos adultos jóvenes
    ha considerado el suicidio.
  • 11:51 - 11:55
    Más del 60 % ha intentado suicidarse.
  • 11:56 - 12:01
    Y la mayoría de ellos vive
    todos los días con el miedo
  • 12:01 - 12:05
    de que mientras ellos caminan por la calle
    o van a una entrevista de trabajo
  • 12:05 - 12:08
    o van a la escuela
  • 12:08 - 12:10
    o cuando conocen a alguien por internet,
  • 12:10 - 12:14
    que esta persona haya visto su abuso.
  • 12:15 - 12:19
    Y esto se hace realidad
    para más del 30 % de ellos.
  • 12:20 - 12:25
    Ellos han sido reconocidos
    debido al material sobre su abuso.
  • 12:26 - 12:29
    Esto no va a ser fácil,
  • 12:29 - 12:32
    pero no es imposible.
  • 12:32 - 12:35
    Ahora se necesita la voluntad,
  • 12:35 - 12:36
    la voluntad de nuestra sociedad
  • 12:37 - 12:40
    de mirar algo que es
    realmente difícil de mirar,
  • 12:40 - 12:42
    de sacar algo de la oscuridad
  • 12:42 - 12:45
    para que estos niños tengan una voz;
  • 12:46 - 12:51
    la voluntad de las empresas
    para actuar y asegurarse de que
  • 12:51 - 12:54
    sus plataformas no sean
    cómplices del abuso infantil;
  • 12:55 - 12:59
    la voluntad de los gobiernos de invertir
    en las herramientas necesarias
  • 12:59 - 13:04
    para investigar y aplicar sus leyes
    en un crimen digital,
  • 13:04 - 13:08
    incluso cuando las víctimas
    no pueden hablar por ellas mismas.
  • 13:10 - 13:13
    Este compromiso audaz
    es parte de esa voluntad.
  • 13:14 - 13:20
    Es la declaración de la guerra en contra
    de uno los peores males de la humanidad.
  • 13:20 - 13:22
    Pero a lo que me aferro
  • 13:22 - 13:26
    es que en realidad es
    una inversión en un futuro
  • 13:26 - 13:29
    donde cada pequeño pueda ser
    simplemente un niño.
  • 13:29 - 13:31
    Gracias.
  • 13:31 - 13:37
    (Aplausos)
Title:
Cómo eliminar de internet el contenido de abuso sexual infantil
Speaker:
Julie Cordue
Description:

La emprendedora social Julie Cordua trabaja en un problema del que no es fácil hablar: imágenes y videos en Internet de abuso sexual de niños. En Thorn, ella está construyendo tecnología para conectar los puntos entre la industria tecnológica, las fuerzas de la ley y el gobierno con el fin de poder terminar rápidamente con la distribución viral de contenido de abuso y rescatar a los niños. Conoce más sobre cómo esta solución escalable que podría ayudar a desmantelar las comunidades que hoy en día normalizan el abuso sexual infantil en todo el mundo. (Este ambicioso plan es parte del Proyecto Audaz, la iniciativa de TED para inspirar y financiar el cambio global).

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Spanish subtitles

Revisions