Los videos de pesadilla del YouTube para niños, y qué está mal en Internet
-
0:01 - 0:02Soy James.
-
0:02 - 0:04Soy escritor y artista,
-
0:04 - 0:06y trabajo en tecnología.
-
0:06 - 0:10Hago cosas como dibujar contornos
de tamaño real de drones militares -
0:10 - 0:12en calles de ciudades de todo el mundo,
-
0:12 - 0:15para que la gente pueda comenzar
a pensar y dar vueltas -
0:15 - 0:19a estas tecnologías realmente difíciles
de ver y difíciles de pensar. -
0:19 - 0:23Hago cosas como redes neuronales que
predicen los resultados de las elecciones -
0:23 - 0:25basadas en informes meteorológicos,
-
0:25 - 0:27porque estoy intrigado sobre
-
0:27 - 0:30cuáles son las posibilidades reales
de estas nuevas tecnologías raras. -
0:31 - 0:34El año pasado, construí
mi propio auto autónomo. -
0:34 - 0:36Pero como realmente
no confío en la tecnología, -
0:36 - 0:38también diseñé una trampa para eso.
-
0:39 - 0:40(Risas)
-
0:40 - 0:44Y hago estas cosas principalmente porque
las encuentro completamente fascinantes, -
0:44 - 0:47pero también porque creo que
cuando hablamos de tecnología, -
0:47 - 0:49en gran medida estamos hablando
de nosotros mismos -
0:49 - 0:52y la forma en que entendemos el mundo.
-
0:52 - 0:54Así que aquí hay
una historia de tecnología. -
0:56 - 0:58Este es un video de "huevo sorpresa".
-
0:58 - 1:02Básicamente es un video de alguien
abriendo muchos de huevos de chocolate -
1:02 - 1:04y mostrando los juguetes del interior.
-
1:04 - 1:07Eso es. Eso es todo lo que hace
durante siete largos minutos. -
1:07 - 1:10Y quiero que noten dos cosas.
-
1:11 - 1:15En primer lugar,
este video tiene 30 millones de visitas. -
1:15 - 1:16(Risas)
-
1:16 - 1:18Y la otra cosa es,
-
1:18 - 1:21que proviene de un canal que tiene
6,3 millones de suscriptores, -
1:21 - 1:24que tiene un total de
8 mil millones de visitas, -
1:24 - 1:27y todo son solo más videos como este...
-
1:28 - 1:3230 millones de personas viendo
a un chico abriendo estos huevos. -
1:32 - 1:37Suena bastante extraño, pero si buscan
"huevos sorpresa" en YouTube, -
1:37 - 1:40les dirá que hay
10 millones de estos videos, -
1:40 - 1:42y creo que es un conteo a la baja.
-
1:42 - 1:44Creo que hay muchos más.
-
1:44 - 1:46Si siguen buscando, no acaban.
-
1:46 - 1:48Hay millones y millones de estos videos
-
1:48 - 1:52en combinaciones cada vez más barrocas
de marcas y materiales, -
1:52 - 1:56y hay más y más de ellos
que se cargan todos los días. -
1:56 - 1:59Este es un mundo extraño.
¿De acuerdo? -
1:59 - 2:03Pero la cuestión es que no son adultos
los que miran estos videos. -
2:03 - 2:05Son niños, niños pequeños.
-
2:06 - 2:08Estos videos son como crac
para niños pequeños. -
2:08 - 2:10Hay algo sobre la repetición,
-
2:10 - 2:12el pequeño y constante golpe
de dopamina de la revelación, -
2:12 - 2:14que los engancha por completo.
-
2:14 - 2:19Y los niños pequeños miran
estos videos una y otra y otra vez -
2:19 - 2:21y lo hacen durante horas, horas y horas.
-
2:21 - 2:24Y si tratas de quitarles la pantalla,
-
2:24 - 2:26gritarán, gritarán y gritarán.
-
2:26 - 2:27Si no me creen
-
2:27 - 2:29--y ya he visto gente
en la audiencia asintiendo--, -
2:29 - 2:33si no me creen, busquen a alguien
con niños pequeños y pregúntenles: -
2:33 - 2:35y sabrán sobre los videos
de huevos sorpresa. -
2:35 - 2:37Aquí es donde comenzamos.
-
2:37 - 2:41Es 2018 mucha gente,
-
2:41 - 2:44usa el mismo mecanismo que
Facebook e Instagram -
2:44 - 2:47para que uno siga enganchado
en esa aplicación, -
2:47 - 2:51y lo usan en YouTube para hackear
el cerebro de niños muy pequeños -
2:51 - 2:53a cambio de ingresos publicitarios.
-
2:54 - 2:56Al menos, espero que sea
lo que están haciendo. -
2:57 - 2:58Espero que para eso lo estén haciendo,
-
2:58 - 3:04porque hay formas más fáciles de
generar ingresos publicitarios en YouTube. -
3:04 - 3:06Puedes inventar cosas o robar cosas.
-
3:06 - 3:09Si buscas dibujos animados
populares para niños -
3:09 - 3:10como "Pepper Pig" o "Paw Patrol"
-
3:10 - 3:13encontrarás millones y millones
de estos en línea también. -
3:13 - 3:17Por supuesto, la mayoría no están
publicados por los creadores originales. -
3:17 - 3:20Vienen de montones y montones
de cuentas aleatorias diferentes, -
3:20 - 3:22y es imposible saber
quién los está publicando -
3:22 - 3:24o cuáles podrían ser sus motivos.
-
3:24 - 3:26¿Suena algo familiar?
-
3:26 - 3:28Porque es exactamente el mismo mecanismo
-
3:28 - 3:31que se da en la mayoría de
nuestros servicios digitales, -
3:31 - 3:34en que es imposible saber
de dónde viene esta información. -
3:34 - 3:36Básicamente son
noticias falsas para niños, -
3:36 - 3:38y los estamos entrenando
desde el nacimiento -
3:38 - 3:41para hacer clic en el
primer enlace que aparece, -
3:41 - 3:43independientemente de cuál sea la fuente.
-
3:43 - 3:45Esa no parece una idea
terriblemente buena. -
3:46 - 3:49Aquí otra cosa que es muy
importante en YouTube para niños. -
3:49 - 3:51Esto se llama "Finger Family Song".
-
3:51 - 3:53Alguien acaba de suspirar
en la audiencia. -
3:53 - 3:55La "canción de la familia del dedo".
-
3:55 - 3:57Este es el primero que pude encontrar.
-
3:57 - 4:00Es de 2007, y solo tiene 200 000 visitas,
-
4:00 - 4:02que es, como, nada en este juego.
-
4:02 - 4:04Pero tiene una melodía
increíblemente tierna -
4:04 - 4:06que no les voy a poner,
-
4:06 - 4:08porque se implantará en su cerebro
-
4:08 - 4:11de la misma manera que
se incrustó en el mío, -
4:11 - 4:12y no se lo voy a hacer a Uds.
-
4:12 - 4:14Pero como los huevos sorpresa,
-
4:14 - 4:16está dentro de las cabezas de los niños
-
4:16 - 4:18y los hace adictos a ella.
-
4:18 - 4:20Dentro de unos años,
estos videos familiares de dedos -
4:20 - 4:21aparecerán en todas partes,
-
4:21 - 4:24y con versiones en diferentes idiomas
-
4:24 - 4:26con caricaturas populares usando comida
-
4:26 - 4:28o, francamente, cualquier
tipo de animación -
4:28 - 4:31que parece que está por ahí.
-
4:31 - 4:36Y una vez más, hay millones,
millones y millones de estos videos -
4:36 - 4:40disponibles en línea en todos estos
tipos de combinaciones insanas. -
4:40 - 4:42Y cuanto más tiempo pasas con ellos,
-
4:42 - 4:46más loco y loco te sientes que puedes ser.
-
4:46 - 4:49Y ahí es donde me lancé a esto,
-
4:49 - 4:53esa sensación de profunda extrañeza
y profunda falta de comprensión -
4:53 - 4:57de cómo se construyó esta cosa que
parece presentarse a mi alrededor. -
4:57 - 5:00Porque es imposible saber
de dónde vienen estas cosas. -
5:00 - 5:01¿Quién los hace?
-
5:01 - 5:04Algunos parecen hechos por
equipos de animadores profesionales. -
5:05 - 5:07Algunos son simplemente
ensamblados al azar por software. -
5:07 - 5:12Algunos son artistas
jóvenes muy saludables, -
5:12 - 5:13Y algunos son de personas
-
5:13 - 5:16que claramente no deberían
estar cerca de los niños. -
5:16 - 5:18(Risas)
-
5:19 - 5:24Y una vez más, esta imposibilidad de
descubrir quién hace estas cosas: -
5:24 - 5:25¿Se trata de un robot?
-
5:25 - 5:27¿Es una persona? ¿Es un troll?
-
5:28 - 5:30¿Qué significa ya no
poder más ver la diferencia -
5:30 - 5:31entre estas cosas?
-
5:32 - 5:36Y nuevamente, ¿esa incertidumbre no
les resulta familiar en este momento? -
5:38 - 5:41La principal forma para que
los videos sean vistos -
5:41 - 5:43--y recuerden, las visualizaciones
significan dinero-- -
5:43 - 5:47es titulando estos videos
con estos términos populares. -
5:47 - 5:49Tomas algo como "huevos sorpresa"
-
5:49 - 5:51y agregas "Paw Patrol", "Huevo de Pascua"
-
5:51 - 5:52o lo que sean
-
5:52 - 5:55todas estas palabras de otros
videos populares en el título, -
5:55 - 5:58hasta que terminas con este tipo
de puré de lenguaje sin sentido -
5:58 - 6:01que no tiene sentido
para los humanos en absoluto. -
6:01 - 6:04Porque, por supuesto, solo los niños
muy pequeños miran tu video, -
6:04 - 6:06y ¿qué demonios saben ellos?
-
6:06 - 6:09Tu audiencia real para esto es software.
-
6:09 - 6:11Son los algoritmos.
-
6:11 - 6:12Es el software que usa YouTube
-
6:12 - 6:15para seleccionar qué videos
que son como otros videos, -
6:15 - 6:17para hacerlos populares,
para recomendarlos. -
6:17 - 6:21Y por eso terminas con este tipo
de puré completamente sin sentido, -
6:21 - 6:23tanto de título como de contenido.
-
6:24 - 6:26Pero el caso es que debes recordar,
-
6:26 - 6:30realmente todavía hay personas dentro de
este sistema optimizado algorítmicamente, -
6:30 - 6:33personas cada vez
más forzadas a actuar -
6:33 - 6:36estas combinaciones cada vez
más extrañas de palabras, -
6:36 - 6:41como un artista de improvisación
desesperado que responde a la vez -
6:41 - 6:44a los gritos de un
millón de niños pequeños. -
6:45 - 6:48Hay personas atrapadas
dentro de estos sistemas, -
6:48 - 6:51y eso es otra cosa muy extraña de
esta cultura guiada algorítmicamente, -
6:51 - 6:53porque incluso si eres humano,
-
6:53 - 6:56tienes que terminar comportándote
como una máquina -
6:56 - 6:57solo para sobrevivir
-
6:57 - 6:59Y también, en el otro lado de la pantalla,
-
6:59 - 7:02todavía hay niños pequeños mirándolo,
-
7:02 - 7:06atrapados, toda su atención atrapada,
por estos mecanismos extraños. -
7:07 - 7:10Y estos niños son demasiado pequeños
para usar un sitio web. -
7:10 - 7:13Simplemente están martillando
en la pantalla con sus pequeñas manos. -
7:13 - 7:15Y existe reproducción automática,
-
7:15 - 7:18y estos videos se siguen reproduciendo
una y otra y otra vez, -
7:18 - 7:20interminablemente
horas y horas a la vez. -
7:20 - 7:22Y es tan raro el sistema hoy
-
7:22 - 7:26que esa reproducción automática lleva
a algunos lugares muy extraños. -
7:26 - 7:28Así es como, en una docena de pasos,
-
7:28 - 7:31puedes pasar de un lindo video
de un tren de conteo -
7:31 - 7:34a Mickey Mouse masturbándose.
-
7:35 - 7:37Sí. Lo lamento.
-
7:37 - 7:39Esto empeora.
-
7:39 - 7:40Esto es lo que pasa
-
7:40 - 7:43cuando todas estas
diferentes palabras clave, -
7:43 - 7:45todas estas diferentes piezas de atención,
-
7:45 - 7:48esta desesperada generación de contenido,
-
7:48 - 7:51todo se une en un solo lugar.
-
7:52 - 7:56Aquí es donde esas palabras clave muy
extrañas llegan a casa para descansar. -
7:56 - 7:58Uno cruza el video de la familia del dedo
-
7:58 - 8:01con algunas cosas de
superhéroes de acción en vivo, -
8:01 - 8:04agregas algunas bromas raras
y trollsas o algo así -
8:04 - 8:08y de repente, llegas a un lugar
muy extraño de hecho. -
8:08 - 8:09Lo que tiende a molestar a los padres
-
8:09 - 8:13es el material que tiene un tipo
de contenido violento o sexual, ¿verdad? -
8:13 - 8:16Dibujos animados de niños siendo atacados,
-
8:16 - 8:18siendo asesinados,
-
8:18 - 8:21bromas extrañas que realmente
aterrorizan a los niños. -
8:21 - 8:25Lo que tienes es software que tira
de todas estas influencias diferentes -
8:25 - 8:28para generar automáticamente
las peores pesadillas de los niños. -
8:28 - 8:31Y esto realmente afecta
a los niños pequeños. -
8:31 - 8:34Los padres informan que
sus hijos están traumatizados, -
8:34 - 8:35tienen miedo a la oscuridad,
-
8:35 - 8:38tienen miedo de sus personajes
de dibujos animados favoritos. -
8:39 - 8:42Si se llevan una cosa de esto,
es que si tienen niños pequeños, -
8:42 - 8:44manténganlos lejos de YouTube.
-
8:45 - 8:49(Aplausos)
-
8:51 - 8:54Pero otra cosa, lo que realmente
me atrapa de esto, -
8:54 - 8:58es que no estoy seguro de que realmente
comprendamos cómo llegamos a este punto. -
8:59 - 9:02Hemos tomado toda esta influencia,
todas estas cosas, -
9:02 - 9:05y las procesamos de manera
que nadie realmente pretendía. -
9:05 - 9:08Y, sin embargo, es también como
estamos construyendo el mundo entero. -
9:08 - 9:10Estamos tomando todos estos datos,
-
9:10 - 9:11muchos datos malos,
-
9:11 - 9:14una gran cantidad de
datos históricos llenos de prejuicios, -
9:14 - 9:17lleno de todos nuestros peores
impulsos de la historia, -
9:17 - 9:19y creamos enormes conjuntos de datos
-
9:19 - 9:21y luego los automatizamos.
-
9:21 - 9:24Y lo estamos procesando
en cosas como informes de crédito, -
9:24 - 9:26en primas de seguros,
-
9:26 - 9:29en cosas como sistemas
de vigilancia predictiva, -
9:29 - 9:30en pautas de sentencia.
-
9:30 - 9:33Es la forma en que realmente
construimos el mundo de hoy -
9:33 - 9:34con estos datos.
-
9:34 - 9:36Y no sé qué es peor,
-
9:36 - 9:39si construir un sistema que parece
estar completamente optimizado -
9:39 - 9:42para los peores aspectos absolutos
del comportamiento humano, -
9:42 - 9:45o parecer que lo hemos
hecho por accidente, -
9:45 - 9:47sin siquiera darnos cuenta
de que lo hacíamos, -
9:47 - 9:50porque realmente no entendíamos
los sistemas que construíamos, -
9:50 - 9:54y realmente no entendimos
cómo hacer algo diferente con eso. -
9:55 - 9:58Hay un par de cosas que creo que
realmente parecen impulsar esto -
9:58 - 9:59más plenamente en YouTube,
-
9:59 - 10:01y el primero es la publicidad,
-
10:01 - 10:04que es la monetización de la atención
-
10:04 - 10:07sin otras variables reales de trabajo,
-
10:07 - 10:11sin ningún cuidado de las personas que
realmente desarrollan este contenido, -
10:11 - 10:15la centralización del poder,
la separación de esas cosas. -
10:15 - 10:18Y creo que lo que sientes sobre
el uso de la publicidad -
10:18 - 10:19como apoyo de estas cosas,
-
10:19 - 10:22ver a hombres adultos
en pañales rodando alrededor de la arena -
10:22 - 10:25con la esperanza de que un algoritmo
que realmente no entienden -
10:25 - 10:27les dará dinero por ello
-
10:27 - 10:29sugiere que esto
probablemente no es sobre -
10:29 - 10:31lo que deberíamos basar
nuestra sociedad y cultura, -
10:31 - 10:33y la forma en que deberíamos financiarla.
-
10:34 - 10:37Y la otra cosa que es el principal
impulsor de esto es la automatización, -
10:37 - 10:39que es el despliegue
de toda esta tecnología -
10:39 - 10:42tan pronto como llega,
sin ningún tipo de supervisión, -
10:42 - 10:43y cuando está ahí afuera,
-
10:43 - 10:47levantar las manos y decir: "Oye,
no somos nosotros, es la tecnología". -
10:47 - 10:49Como, "No estamos involucrados en eso".
-
10:49 - 10:51Eso no es realmente
lo suficientemente bueno, -
10:51 - 10:53porque esto no solo
se rige algorítmicamente, -
10:53 - 10:56también está controlado algorítmicamente.
-
10:56 - 10:59Cuando YouTube comenzó
a prestar atención a esto, -
10:59 - 11:00lo primero que dijo que haría
-
11:00 - 11:04fue que implementaría mejores
algoritmos de aprendizaje automático -
11:04 - 11:05para moderar el contenido.
-
11:05 - 11:08Bueno, el aprendizaje automático,
como cualquier experto en ello les dirá, -
11:09 - 11:11es básicamente lo que
hemos comenzado a llamar -
11:11 - 11:13software que no entendemos cómo funciona.
-
11:13 - 11:17Y creo que ya tenemos suficiente de eso.
-
11:17 - 11:20No deberíamos dejar esto
en manos de la IA para decidir -
11:20 - 11:22lo que es apropiado o no,
-
11:22 - 11:23porque sabemos lo que sucede.
-
11:23 - 11:25Comenzará a censurar otras cosas.
-
11:25 - 11:26Comenzará a censurar contenido queer.
-
11:26 - 11:29Comenzará a censurar
el discurso público legítimo. -
11:29 - 11:31Lo que se permite en estos discursos,
-
11:31 - 11:34no debería ser algo que haya
quedado en sistemas inexplicables. -
11:34 - 11:37Es parte de una discusión
que todos deberíamos tener. -
11:37 - 11:38Pero dejaría un recordatorio
-
11:38 - 11:41que la alternativa tampoco
es muy agradable. -
11:41 - 11:42YouTube también anunció
-
11:42 - 11:45que va a lanzar una versión
de la aplicación para niños -
11:45 - 11:48que sería completamente
moderada por humanos. -
11:48 - 11:52Facebook; Zuckerberg dijo
casi lo mismo en el Congreso, -
11:52 - 11:55cuando se le preguntó sobre
cómo iba a moderar sus cosas. -
11:55 - 11:57Y dijo que tendrían
humanos haciéndolo. -
11:57 - 11:58Y lo que realmente significa
-
11:58 - 12:01es que en lugar de tener niños pequeños
viendo esto por primera vez, -
12:01 - 12:04van a tener trabajadores
subcontratados y precarios -
12:04 - 12:06sin el adecuado apoyo de salud mental
-
12:06 - 12:07siendo afectados también.
-
12:07 - 12:08(Risas)
-
12:08 - 12:11Y creo que todos podemos
hacer mucho mejor que eso. -
12:11 - 12:13(Aplausos)
-
12:14 - 12:19La idea, creo, que reúne esas dos cosas,
realmente, para mí, -
12:19 - 12:20es agencia.
-
12:20 - 12:23Es como, ¿cuánto entendemos realmente?
Por agencia, quiero decir: -
12:23 - 12:28cómo sabemos cómo actuar
en nuestro propio interés. -
12:28 - 12:30Lo que es casi imposible de hacer
-
12:30 - 12:33en estos sistemas que realmente
no comprendemos del todo. -
12:33 - 12:36La desigualdad de poder
siempre conduce a la violencia. -
12:36 - 12:38Y podemos ver dentro de estos sistemas
-
12:38 - 12:40esa desigualdad de
entendimiento hace lo mismo. -
12:41 - 12:44Si hay algo que podemos hacer
para comenzar a mejorar estos sistemas, -
12:44 - 12:47es hacerlos más legibles para
las personas que los usan, -
12:47 - 12:49para que todos tengamos
un entendimiento común -
12:49 - 12:51de lo que está sucediendo ahí.
-
12:52 - 12:55La cosa, sin embargo, pienso
más acerca de estos sistemas -
12:55 - 12:59es que esto no es, como espero haber
explicado, realmente sobre YouTube. -
12:59 - 13:00Se trata de todo.
-
13:00 - 13:03Estos problemas de
responsabilidad y agencia, -
13:03 - 13:05de opacidad y complejidad,
-
13:05 - 13:08de la violencia y la explotación
que resulta inherentemente -
13:08 - 13:11de la concentración de poder
en unas pocas manos, -
13:11 - 13:13estos son problemas mucho,
mucho más grandes. -
13:14 - 13:18Y no solo son problemas de YouTube
y no solo de la tecnología en general, -
13:18 - 13:19y ni siquiera son nuevos.
-
13:19 - 13:21Han estado con nosotros por siglos.
-
13:21 - 13:25Pero finalmente construimos este sistema,
este sistema global, Internet, -
13:25 - 13:28que nos los muestra en realidad
de esta manera extraordinaria, -
13:28 - 13:30haciéndolos innegables.
-
13:30 - 13:33La tecnología tiene
esta extraordinaria capacidad -
13:33 - 13:37para hacer tangibles y continuos
-
13:37 - 13:41todos nuestros más extraordinarios,
a menudo ocultos deseos y prejuicios -
13:41 - 13:43y codificándolos en el mundo,
-
13:43 - 13:46pero también los escribe
para que podamos verlos, -
13:46 - 13:50para que no podamos pretender
que ya no existen. -
13:50 - 13:52Tenemos que dejar de
pensar en la tecnología -
13:52 - 13:54como una solución a
todos nuestros problemas, -
13:54 - 13:57y pensarla como una guía de lo que
esos problemas son en realidad, -
13:58 - 14:00para que podamos comenzar
a pensar en ellos adecuadamente -
14:00 - 14:02y empezar a abordarlos.
-
14:02 - 14:03Muchas gracias.
-
14:03 - 14:08(Aplausos)
-
14:10 - 14:11Gracias.
-
14:11 - 14:14(Aplausos)
-
14:17 - 14:20Helen Walters: James,
gracias por venir y darnos esa charla. -
14:20 - 14:21Es interesante:
-
14:21 - 14:25cuando piensas en películas donde jefes
supremos robóticos toman el control, -
14:25 - 14:28todo es un poco más glamoroso
que lo que describes. -
14:28 - 14:32Pero me pregunto: en esas películas,
se monta la resistencia. -
14:32 - 14:35¿Hay una resistencia contra esto?
-
14:35 - 14:39¿Ves signos positivos,
brotes verdes de resistencia? -
14:41 - 14:43James Bridle: No sé sobre
la resistencia directa, -
14:43 - 14:45porque creo que esto es
a muy largo plazo. -
14:45 - 14:48Creo que está profundamente
arraigada en la cultura. -
14:48 - 14:50Una amiga mía,
Eleanor Saitta, siempre dice -
14:50 - 14:54que cualquier problema tecnológico
de escala y alcance suficientes -
14:54 - 14:56es un problema político antes que nada.
-
14:56 - 14:59Todas estas cosas en las que estamos
trabajando para enfrentarnos a esto -
14:59 - 15:02no van a abordarse solo
construyendo mejor tecnología, -
15:02 - 15:05sino cambiando la sociedad
que está produciendo estas tecnologías. -
15:05 - 15:08Así que no, hoy, creo que
tenemos un infierno que recorrer. -
15:09 - 15:10Pero como dije, creo que al destaparlos,
-
15:11 - 15:13al explicarlos, al hablar
de ellos superhonestamente, -
15:13 - 15:16en realidad podemos comenzar
al menos ese proceso. -
15:16 - 15:19HW: Y cuando hablas de legibilidad
y alfabetización digital, -
15:19 - 15:21me resulta difícil de imaginar
-
15:21 - 15:25que debemos colocar la carga de la
alfabetización digital en los usuarios. -
15:25 - 15:29¿Pero de quién es la educación
en este nuevo mundo? -
15:29 - 15:33JB: Nuevamente, creo que esta
responsabilidad depende de todos nosotros, -
15:33 - 15:36todo lo que hacemos, todo lo
que construimos, todo lo que creamos, -
15:36 - 15:40debe hacerse en una discusión consensuada
-
15:40 - 15:42con todos los que lo evitan;
-
15:42 - 15:46que no estamos construyendo sistemas
para engañar y sorprender a las personas -
15:46 - 15:48haciendo lo correcto,
-
15:48 - 15:52pero que en realidad están involucrados
en cada paso para educarlos, -
15:52 - 15:54porque cada uno de estos
sistemas es educativo. -
15:54 - 15:57Es lo que me da esperanza,
aun en esta cosa realmente sombría, -
15:57 - 15:59que si puedes tomarla
y mirarla correctamente, -
15:59 - 16:02en realidad es en sí misma
una pieza educativa -
16:02 - 16:05que permite comenzar a ver cómo
los sistemas complejos se unen y funcionan -
16:05 - 16:09y tal vez ser capaz de aplicar ese
conocimiento en otro lugar del mundo. -
16:09 - 16:11HW: James, es una
discusión tan importante, -
16:11 - 16:14y sé que muchos aquí están
realmente abiertos y dispuestos a tenerla, -
16:14 - 16:16así que gracias por
comenzar nuestra mañana. -
16:16 - 16:17JB: Muchas gracias.
-
16:17 - 16:19(Aplausos)
- Title:
- Los videos de pesadilla del YouTube para niños, y qué está mal en Internet
- Speaker:
- James Bridle
- Description:
-
El escritor y artista James Bridle descubre un rincón oscuro y extraño de Internet, donde personas desconocidas o grupos en YouTube piratean los cerebros de los niños pequeños a cambio de ingresos publicitarios. Desde "huevo sorpresa" revelados y "Finger Family Song" hasta 'mashups' creados algorítmicamente usando personajes familiares de dibujos animados en situaciones violentas. Estos videos explotan y aterrorizan a las mentes jóvenes, y nos dicen algo sobre hacia dónde se dirige nuestro mundo cada vez más basado en datos. "Tenemos que dejar de pensar en la tecnología como una solución para todos nuestros problemas, y, en cambio, pensar en ella como una guía para saber cuáles son esos problemas en realidad, para que podamos empezar a pensar en ellos adecuadamente y comenzar a abordarlos", dice Bridle.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32