Cómo eliminar de internet el contenido de abuso sexual infantil
-
0:01 - 0:03[Esta charla contiene
contenido para adultos] -
0:06 - 0:07Hace cinco años
-
0:07 - 0:11recibí una llamada que cambiaría mi vida.
-
0:12 - 0:14Recuerdo ese día muy claramente.
-
0:15 - 0:17Fue en esta época del año,
-
0:17 - 0:19y yo estaba sentada en mi oficina.
-
0:20 - 0:23Recuerdo el sol entrando por la ventana.
-
0:24 - 0:25Y mi teléfono sonó.
-
0:26 - 0:27Yo contesté,
-
0:28 - 0:32y eran dos agentes federales
pidiendo mi ayuda -
0:32 - 0:34para identificar a una pequeña niña
-
0:34 - 0:40que aparecía en cientos de imágenes
de abuso sexual infantil en internet. -
0:41 - 0:44Ellos apenas habían comenzado
a trabajar en el caso, -
0:44 - 0:47pero sí sabían que
-
0:47 - 0:51su abuso había sido difundido
al mundo durante años -
0:51 - 0:57en sitios web del internet oscuro
dedicados al abuso sexual infantil. -
0:58 - 1:02Y su agresor era
muy sofisticado tecnológicamente: -
1:02 - 1:07nuevas imágenes y videos
cada par de semanas, -
1:07 - 1:11pero muy pocas pistas sobre quién era ella
-
1:11 - 1:12o dónde estaba.
-
1:13 - 1:15Así que, los agentes nos llamaron,
-
1:15 - 1:17porque se enteraron de nuestra
organización no lucrativa -
1:17 - 1:21que crea tecnología
para combatir el abuso sexual infantil. -
1:22 - 1:24Pero solo hacía dos años
que funcionábamos -
1:24 - 1:27y solo habíamos trabajado
en tráfico sexual infantil. -
1:28 - 1:30Tuve que decirles
-
1:30 - 1:31que no teníamos nada.
-
1:32 - 1:36No teníamos nada que pudiera
ayudarles a detener este abuso. -
1:37 - 1:41Les tomó a los agentes otro año más
-
1:41 - 1:44hasta finalmente encontrar a la niña.
-
1:45 - 1:47Y para cuando ella fue rescatada,
-
1:47 - 1:52cientos de imágenes y videos
mostrando su violación -
1:52 - 1:55se habían hecho virales
en el internet oscuro -
1:55 - 1:58en redes de pares,
en salas de chat privadas -
1:58 - 2:02hasta en sitios web que Uds. y yo usamos
-
2:02 - 2:04todos los días.
-
2:05 - 2:09Y hoy, mientras ella lucha
por recuperarse, -
2:09 - 2:13vive con el hecho de que
miles en todo el mundo -
2:13 - 2:16siguen viendo su abuso.
-
2:18 - 2:20He aprendido en los últimos cinco años
-
2:20 - 2:23que este caso está lejos de ser único.
-
2:24 - 2:28¿Cómo llegamos aquí como sociedad?
-
2:29 - 2:33A finales de los 80,
la pornografía infantil -
2:33 - 2:39o lo que realmente es,
el contenido de abuso sexual infantil -
2:39 - 2:40llegó a ser casi eliminado.
-
2:41 - 2:46Nuevas leyes y más acciones judiciales lo
hicieron simplemente demasiado arriesgado -
2:46 - 2:47para enviarlo por correo.
-
2:48 - 2:52Entonces internet llegó
y el mercado explotó. -
2:53 - 2:57Hoy en día, la cantidad de
contenido en circulación -
2:57 - 3:00es enorme y sigue creciendo.
-
3:00 - 3:04Este es un verdadero problema global,
-
3:04 - 3:06pero si solo consideramos EE. UU.,
-
3:06 - 3:08solo el año pasado en EE. UU.
-
3:08 - 3:14más de 45 millones de imágenes y videos
de contenido de abuso sexual infantil -
3:14 - 3:17fueron reportados al Centro Nacional
para Niños Desaparecidos y Explotados, -
3:17 - 3:22y eso es casi el doble de
la cantidad del año anterior, -
3:23 - 3:28Y los detalles detrás de estos números
son difíciles de contemplar, -
3:28 - 3:34con más del 60 % mostrando
a niños menores de 12 años, -
3:34 - 3:38y la mayoría de ellos incluyen
actos de extrema violencia sexual. -
3:39 - 3:44Los violadores son aclamados en
salas de chat dedicadas al abuso de niños, -
3:44 - 3:47donde ganan rango y notoriedad
-
3:47 - 3:50con más violaciones y más víctimas.
-
3:50 - 3:53En este mercado,
-
3:53 - 3:57la moneda de cambio se ha vuelto
el mismo contenido. -
3:58 - 4:02Los violadores han sido rápidos
en aprovecharse de las nuevas tecnologías, -
4:02 - 4:05pero nuestra respuesta
como sociedad no lo ha sido. -
4:06 - 4:10Los violadores no leen
los términos de uso de los sitios web, -
4:10 - 4:14y el contenido no respeta
fronteras geográficas. -
4:15 - 4:21Y ellos ganan cada vez que nosotros
buscamos en una pieza del rompecabezas, -
4:21 - 4:25lo cual es exactamente la forma en que
está diseñada nuestra repuesta hoy en día. -
4:25 - 4:28La fuerza de la ley
funciona en una jurisdicción. -
4:28 - 4:32Las compañías solo
buscan en su plataforma. -
4:32 - 4:34Y cualquier dato que
descubren sobre la marcha -
4:35 - 4:37es rara vez compartido.
-
4:37 - 4:43Es muy obvio que
este enfoque no está funcionando. -
4:44 - 4:47Debemos rediseñar
la respuesta a esta epidemia -
4:48 - 4:49de la era digital.
-
4:50 - 4:53Y eso es exactamente lo que
estamos haciendo en Thron. -
4:53 - 4:57Estamos creando tecnología
para conectar estos puntos, -
4:57 - 4:59para armar a quienes libran esta batalla:
-
4:59 - 5:02fuerzas judiciales, ONGs y compañías,
-
5:02 - 5:06con las herramientas necesarias
para por fin eliminar del internet -
5:06 - 5:08el contenido de abuso sexual infantil.
-
5:10 - 5:11Hablemos por un momento...
-
5:11 - 5:12(Aplausos)
-
5:12 - 5:14Gracias.
-
5:14 - 5:16(Aplausos)
-
5:18 - 5:20Hablemos por un momento
sobre los puntos que mencioné -
5:21 - 5:25Como se pueden imaginar,
el contenido es terrible. -
5:25 - 5:28Si no tienen por qué verlo,
no querrán verlo. -
5:28 - 5:33Y así, la mayoría de
compañías o agencias de fuerza judicial -
5:33 - 5:35que tienen este contenido
-
5:35 - 5:39pueden transformar cada archivo
en una serie única de números. -
5:39 - 5:40Esto es llamado "hash".
-
5:40 - 5:42Es básicamente una huella digital
-
5:42 - 5:45para cada archivo o cada video.
-
5:45 - 5:49Esto permite usar
la información en investigaciones -
5:49 - 5:52o que una compañía pueda
eliminar el contenido de su plataforma, -
5:52 - 5:58sin tener que revisar uno a uno
cada imagen y cada video -
5:58 - 6:00Sin embargo, el problema de hoy en día
-
6:00 - 6:04es que hay cientos de millones
de estos "hash" -
6:04 - 6:08almacenados por todo el mundo.
-
6:08 - 6:09En un silo,
-
6:09 - 6:12podría funcionar para la agencia
que tenga control sobre este, -
6:12 - 6:17pero si no se conectan estos datos,
no sabremos cuántos son únicos. -
6:17 - 6:20No sabremos cuáles son de niños
que ya han sido rescatados -
6:20 - 6:23o cuáles son de quienes
aún necesitan ser identificados. -
6:23 - 6:27Por lo que nuestra primera y
más básica premisa es que -
6:27 - 6:30todos estos datos deben ser conectados.
-
6:30 - 6:36Hay dos formas en las que estos datos,
combinados con software a escala global, -
6:37 - 6:40pueden tener un impacto transformativo.
-
6:40 - 6:43La primera es con la fuerza de la ley:
-
6:43 - 6:47ayudándoles a identificar
nuevas víctimas de forma más rápida, -
6:47 - 6:48deteniendo su abuso
-
6:48 - 6:51y deteniendo a aquellos
que producen este contenido. -
6:51 - 6:54La segunda es con empresas:
-
6:54 - 6:58usándolos como pistas para identificar
los cientos de millones de archivos -
6:58 - 6:59en circulación a día de hoy,
-
6:59 - 7:01bajándolos
-
7:01 - 7:07y evitando la carga de contenido nuevo
antes de que haga viral. -
7:10 - 7:11Hace cuatro años,
-
7:11 - 7:13cuando ese caso terminó,
-
7:14 - 7:18nuestro equipo se sentó,
y sentimos... -
7:20 - 7:23un profundo sentimiento de fracaso,
es como puedo describirlo, -
7:23 - 7:27porque vigilamos ese año por completo
-
7:27 - 7:28mientras ellos la buscaban.
-
7:28 - 7:32Y vimos cada lugar en la investigación
-
7:32 - 7:34y si la tecnología hubiese existido,
-
7:34 - 7:37la habrían encontrado más rápido.
-
7:38 - 7:40Así que, avanzamos
-
7:40 - 7:43y terminamos haciendo
lo que mejor sabemos hacer: -
7:43 - 7:45empezamos a crear software.
-
7:46 - 7:48Hemos comenzado con la fuerza de la ley.
-
7:48 - 7:52Nuestro sueño fue una buena señal
para los oficiales de todo el mundo -
7:52 - 7:57porque si alguien se atreve a publicar
en internet una nueva víctima, -
7:57 - 8:00alguien comenzará a buscarla de inmediato.
-
8:01 - 8:04Obviamente no puedo dar
detalles sobre este software, -
8:04 - 8:07pero hoy en día está en uso en 38 países,
-
8:07 - 8:10reduciendo el tiempo necesario
para identificar una víctima -
8:10 - 8:12en más del 65 % de los casos.
-
8:12 - 8:17(Aplausos)
-
8:21 - 8:24Y ahora nos estamos centrando
en el segundo punto: -
8:24 - 8:30crear el software para identificar y
eliminar este contenido. -
8:31 - 8:34Hablemos por un momento
sobre estas compañías. -
8:34 - 8:4045 millones de imágenes y videos
considerando solo el año pasado en EE. UU. -
8:40 - 8:44Esto proviene de solo 12 empresas.
-
8:46 - 8:52Doce empresas, 45 millones de archivos
sobre abuso sexual infantil. -
8:52 - 8:55Esto viene de empresas
que tienen el dinero -
8:55 - 9:00para crear la infraestructura necesaria
para eliminar este contenido. -
9:00 - 9:02Pero hay cientos de otras empresas,
-
9:02 - 9:05desde pequeñas a medianas
por todo el mundo, -
9:05 - 9:07que necesitan hacer este trabajo,
-
9:07 - 9:12pero puede que ellos: 1) no sepan que
sus plataformas se usan para el abuso -
9:12 - 9:18o 2) no tienen el dinero para gastar
en algo que no genera ganancias. -
9:19 - 9:22Así que nos adelantamos
y lo construimos por ellos, -
9:22 - 9:27y este sistema ahora se vuelve más listo
entre más empresas participen. -
9:28 - 9:30Permítanme darles un ejemplo.
-
9:30 - 9:34Nuestro primero socio, Imgur, si no han
oído hablar de esta empresas, -
9:34 - 9:38es uno de los sitios web más
visitados en EE. UU. -
9:38 - 9:43Cada día se suben millones de piezas de
contenido generado por los usuarios, -
9:43 - 9:45en una misión de hacer del internet
un lugar más divertido. -
9:46 - 9:48Se asociaron con nosotros primero.
-
9:48 - 9:51En tan solo 20 minutos de
haber subido nuestro sistema, -
9:51 - 9:55alguien intentó subir
una conocida pieza de material de abuso. -
9:55 - 9:57Pudieron detenerlo, bajarlo,
-
9:57 - 10:00y reportarlo al Centro Nacional de
Niños Desaparecidos y Explotados. -
10:00 - 10:02Pero ellos fueron un paso más adelante,
-
10:02 - 10:07inspeccionaron la cuenta de la persona
que había subido el contenido. -
10:07 - 10:12Cientos de piezas de contenido de
abuso sexual infantil -
10:12 - 10:14del que habíamos visto.
-
10:14 - 10:18Y aquí fue donde comenzamos
a ver un impacto exponencial. -
10:18 - 10:19Bajamos ese contenido,
-
10:20 - 10:23se reporta al Centro Nacional de
Niños Explotados y Desaparecidos -
10:23 - 10:26y estos "hash" van de vuelta al sistema
-
10:26 - 10:28Y benefician a cualquier
otra compañía que lo use. -
10:28 - 10:33Y cuando los millones de "hash" que tenemos
hayan dirigido a millones más en directo, -
10:33 - 10:37las empresas alrededor del mundo
identificarán y bajarán el contenido, -
10:37 - 10:42aumentado drásticamente
el tiempo en el que eliminamos -
10:42 - 10:46el contenido de abuso sexual infantil
del internet por todo el mundo. -
10:46 - 10:52(Aplausos)
-
10:54 - 10:57Pero este es el por qué
no solo se trata de software y datos, -
10:57 - 10:59tiene que tratarse de escala,
-
10:59 - 11:03Tenemos que activar miles de agentes,
-
11:03 - 11:05cientos de empresas por todo el mundo
-
11:05 - 11:09así la tecnología nos permitirá
superar a los perpetradores -
11:09 - 11:13y desmantelar las comunidades que están
normalizando el abuso sexual infantil -
11:13 - 11:15a día de hoy por todo el mundo.
-
11:15 - 11:18Y el momento para hacer esto es ahora.
-
11:18 - 11:24No podemos decir más que no sabemos
del impacto de esto en nuestros niños, -
11:25 - 11:29La primera generación de niños
cuyo abuso se hizo viral -
11:29 - 11:31ya son ahora adultos jóvenes.
-
11:31 - 11:34El Centro Canadiense
de Protección Infantil -
11:34 - 11:37acaba de hacer un estudio
sobre estos adultos jóvenes -
11:37 - 11:41para entender el trauma particular
del que tratan de recuperarse, -
11:41 - 11:44sabiendo que su abuso aún existe.
-
11:45 - 11:50El 80 % de estos adultos jóvenes
ha considerado el suicidio. -
11:51 - 11:55Más del 60 % ha intentado suicidarse.
-
11:56 - 12:01Y la mayoría de ellos vive
todos los días con el miedo -
12:01 - 12:05de que mientras ellos caminan por la calle
o van a una entrevista de trabajo -
12:05 - 12:08o van a la escuela
-
12:08 - 12:10o cuando conocen a alguien por internet,
-
12:10 - 12:14que esta persona haya visto su abuso.
-
12:15 - 12:19Y esto se hace realidad
para más del 30 % de ellos. -
12:20 - 12:25Ellos han sido reconocidos
debido al material sobre su abuso. -
12:26 - 12:29Esto no va a ser fácil,
-
12:29 - 12:32pero no es imposible.
-
12:32 - 12:35Ahora se necesita la voluntad,
-
12:35 - 12:36la voluntad de nuestra sociedad
-
12:37 - 12:40de mirar algo que es
realmente difícil de mirar, -
12:40 - 12:42de sacar algo de la oscuridad
-
12:42 - 12:45para que estos niños tengan una voz;
-
12:46 - 12:51la voluntad de las empresas
para actuar y asegurarse de que -
12:51 - 12:54sus plataformas no sean
cómplices del abuso infantil; -
12:55 - 12:59la voluntad de los gobiernos de invertir
en las herramientas necesarias -
12:59 - 13:04para investigar y aplicar sus leyes
en un crimen digital, -
13:04 - 13:08incluso cuando las víctimas
no pueden hablar por ellas mismas. -
13:10 - 13:13Este compromiso audaz
es parte de esa voluntad. -
13:14 - 13:20Es la declaración de la guerra en contra
de uno los peores males de la humanidad. -
13:20 - 13:22Pero a lo que me aferro
-
13:22 - 13:26es que en realidad es
una inversión en un futuro -
13:26 - 13:29donde cada pequeño pueda ser
simplemente un niño. -
13:29 - 13:31Gracias.
-
13:31 - 13:37(Aplausos)
- Title:
- Cómo eliminar de internet el contenido de abuso sexual infantil
- Speaker:
- Julie Cordue
- Description:
-
La emprendedora social Julie Cordua trabaja en un problema del que no es fácil hablar: imágenes y videos en Internet de abuso sexual de niños. En Thorn, ella está construyendo tecnología para conectar los puntos entre la industria tecnológica, las fuerzas de la ley y el gobierno con el fin de poder terminar rápidamente con la distribución viral de contenido de abuso y rescatar a los niños. Conoce más sobre cómo esta solución escalable que podría ayudar a desmantelar las comunidades que hoy en día normalizan el abuso sexual infantil en todo el mundo. (Este ambicioso plan es parte del Proyecto Audaz, la iniciativa de TED para inspirar y financiar el cambio global).
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Lidia Cámara de la Fuente approved Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Lidia Cámara de la Fuente accepted Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Lidia Cámara de la Fuente edited Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Natalia Alvarado edited Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Enrique Palomares edited Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Enrique Palomares edited Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Enrique Palomares edited Spanish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Enrique Palomares edited Spanish subtitles for How we can eliminate child sexual abuse material from the internet |