< Return to Video

Los videos de pesadilla del YouTube para niños, y qué está mal en Internet

  • 0:01 - 0:02
    Soy James.
  • 0:02 - 0:04
    Soy escritor y artista,
  • 0:04 - 0:06
    y trabajo en tecnología.
  • 0:06 - 0:10
    Hago cosas como dibujar contornos
    de tamaño real de drones militares
  • 0:10 - 0:12
    en calles de ciudades de todo el mundo,
  • 0:12 - 0:15
    para que la gente pueda comenzar
    a pensar y dar vueltas
  • 0:15 - 0:19
    a estas tecnologías realmente difíciles
    de ver y difíciles de pensar.
  • 0:19 - 0:23
    Hago cosas como redes neuronales que
    predicen los resultados de las elecciones
  • 0:23 - 0:25
    basadas en informes meteorológicos,
  • 0:25 - 0:27
    porque estoy intrigado sobre
  • 0:27 - 0:30
    cuáles son las posibilidades reales
    de estas nuevas tecnologías raras.
  • 0:31 - 0:34
    El año pasado, construí
    mi propio auto autónomo.
  • 0:34 - 0:36
    Pero como realmente
    no confío en la tecnología,
  • 0:36 - 0:38
    también diseñé una trampa para eso.
  • 0:39 - 0:40
    (Risas)
  • 0:40 - 0:44
    Y hago estas cosas principalmente porque
    las encuentro completamente fascinantes,
  • 0:44 - 0:47
    pero también porque creo que
    cuando hablamos de tecnología,
  • 0:47 - 0:49
    en gran medida estamos hablando
    de nosotros mismos
  • 0:49 - 0:52
    y la forma en que entendemos el mundo.
  • 0:52 - 0:54
    Así que aquí hay
    una historia de tecnología.
  • 0:56 - 0:58
    Este es un video de "huevo sorpresa".
  • 0:58 - 1:02
    Básicamente es un video de alguien
    abriendo muchos de huevos de chocolate
  • 1:02 - 1:04
    y mostrando los juguetes del interior.
  • 1:04 - 1:07
    Eso es. Eso es todo lo que hace
    durante siete largos minutos.
  • 1:07 - 1:10
    Y quiero que noten dos cosas.
  • 1:11 - 1:15
    En primer lugar,
    este video tiene 30 millones de visitas.
  • 1:15 - 1:16
    (Risas)
  • 1:16 - 1:18
    Y la otra cosa es,
  • 1:18 - 1:21
    que proviene de un canal que tiene
    6,3 millones de suscriptores,
  • 1:21 - 1:24
    que tiene un total de
    8 mil millones de visitas,
  • 1:24 - 1:27
    y todo son solo más videos como este...
  • 1:28 - 1:32
    30 millones de personas viendo
    a un chico abriendo estos huevos.
  • 1:32 - 1:37
    Suena bastante extraño, pero si buscan
    "huevos sorpresa" en YouTube,
  • 1:37 - 1:40
    les dirá que hay
    10 millones de estos videos,
  • 1:40 - 1:42
    y creo que es un conteo a la baja.
  • 1:42 - 1:44
    Creo que hay muchos más.
  • 1:44 - 1:46
    Si siguen buscando, no acaban.
  • 1:46 - 1:48
    Hay millones y millones de estos videos
  • 1:48 - 1:52
    en combinaciones cada vez más barrocas
    de marcas y materiales,
  • 1:52 - 1:56
    y hay más y más de ellos
    que se cargan todos los días.
  • 1:56 - 1:59
    Este es un mundo extraño.
    ¿De acuerdo?
  • 1:59 - 2:03
    Pero la cuestión es que no son adultos
    los que miran estos videos.
  • 2:03 - 2:05
    Son niños, niños pequeños.
  • 2:06 - 2:08
    Estos videos son como crac
    para niños pequeños.
  • 2:08 - 2:10
    Hay algo sobre la repetición,
  • 2:10 - 2:12
    el pequeño y constante golpe
    de dopamina de la revelación,
  • 2:12 - 2:14
    que los engancha por completo.
  • 2:14 - 2:19
    Y los niños pequeños miran
    estos videos una y otra y otra vez
  • 2:19 - 2:21
    y lo hacen durante horas, horas y horas.
  • 2:21 - 2:24
    Y si tratas de quitarles la pantalla,
  • 2:24 - 2:26
    gritarán, gritarán y gritarán.
  • 2:26 - 2:27
    Si no me creen
  • 2:27 - 2:29
    --y ya he visto gente
    en la audiencia asintiendo--,
  • 2:29 - 2:33
    si no me creen, busquen a alguien
    con niños pequeños y pregúntenles:
  • 2:33 - 2:35
    y sabrán sobre los videos
    de huevos sorpresa.
  • 2:35 - 2:37
    Aquí es donde comenzamos.
  • 2:37 - 2:41
    Es 2018 mucha gente,
  • 2:41 - 2:44
    usa el mismo mecanismo que
    Facebook e Instagram
  • 2:44 - 2:47
    para que uno siga enganchado
    en esa aplicación,
  • 2:47 - 2:51
    y lo usan en YouTube para hackear
    el cerebro de niños muy pequeños
  • 2:51 - 2:53
    a cambio de ingresos publicitarios.
  • 2:54 - 2:56
    Al menos, espero que sea
    lo que están haciendo.
  • 2:57 - 2:58
    Espero que para eso lo estén haciendo,
  • 2:58 - 3:04
    porque hay formas más fáciles de
    generar ingresos publicitarios en YouTube.
  • 3:04 - 3:06
    Puedes inventar cosas o robar cosas.
  • 3:06 - 3:09
    Si buscas dibujos animados
    populares para niños
  • 3:09 - 3:10
    como "Pepper Pig" o "Paw Patrol"
  • 3:10 - 3:13
    encontrarás millones y millones
    de estos en línea también.
  • 3:13 - 3:17
    Por supuesto, la mayoría no están
    publicados por los creadores originales.
  • 3:17 - 3:20
    Vienen de montones y montones
    de cuentas aleatorias diferentes,
  • 3:20 - 3:22
    y es imposible saber
    quién los está publicando
  • 3:22 - 3:24
    o cuáles podrían ser sus motivos.
  • 3:24 - 3:26
    ¿Suena algo familiar?
  • 3:26 - 3:28
    Porque es exactamente el mismo mecanismo
  • 3:28 - 3:31
    que se da en la mayoría de
    nuestros servicios digitales,
  • 3:31 - 3:34
    en que es imposible saber
    de dónde viene esta información.
  • 3:34 - 3:36
    Básicamente son
    noticias falsas para niños,
  • 3:36 - 3:38
    y los estamos entrenando
    desde el nacimiento
  • 3:38 - 3:41
    para hacer clic en el
    primer enlace que aparece,
  • 3:41 - 3:43
    independientemente de cuál sea la fuente.
  • 3:43 - 3:45
    Esa no parece una idea
    terriblemente buena.
  • 3:46 - 3:49
    Aquí otra cosa que es muy
    importante en YouTube para niños.
  • 3:49 - 3:51
    Esto se llama "Finger Family Song".
  • 3:51 - 3:53
    Alguien acaba de suspirar
    en la audiencia.
  • 3:53 - 3:55
    La "canción de la familia del dedo".
  • 3:55 - 3:57
    Este es el primero que pude encontrar.
  • 3:57 - 4:00
    Es de 2007, y solo tiene 200 000 visitas,
  • 4:00 - 4:02
    que es, como, nada en este juego.
  • 4:02 - 4:04
    Pero tiene una melodía
    increíblemente tierna
  • 4:04 - 4:06
    que no les voy a poner,
  • 4:06 - 4:08
    porque se implantará en su cerebro
  • 4:08 - 4:11
    de la misma manera que
    se incrustó en el mío,
  • 4:11 - 4:12
    y no se lo voy a hacer a Uds.
  • 4:12 - 4:14
    Pero como los huevos sorpresa,
  • 4:14 - 4:16
    está dentro de las cabezas de los niños
  • 4:16 - 4:18
    y los hace adictos a ella.
  • 4:18 - 4:20
    Dentro de unos años,
    estos videos familiares de dedos
  • 4:20 - 4:21
    aparecerán en todas partes,
  • 4:21 - 4:24
    y con versiones en diferentes idiomas
  • 4:24 - 4:26
    con caricaturas populares usando comida
  • 4:26 - 4:28
    o, francamente, cualquier
    tipo de animación
  • 4:28 - 4:31
    que parece que está por ahí.
  • 4:31 - 4:36
    Y una vez más, hay millones,
    millones y millones de estos videos
  • 4:36 - 4:40
    disponibles en línea en todos estos
    tipos de combinaciones insanas.
  • 4:40 - 4:42
    Y cuanto más tiempo pasas con ellos,
  • 4:42 - 4:46
    más loco y loco te sientes que puedes ser.
  • 4:46 - 4:49
    Y ahí es donde me lancé a esto,
  • 4:49 - 4:53
    esa sensación de profunda extrañeza
    y profunda falta de comprensión
  • 4:53 - 4:57
    de cómo se construyó esta cosa que
    parece presentarse a mi alrededor.
  • 4:57 - 5:00
    Porque es imposible saber
    de dónde vienen estas cosas.
  • 5:00 - 5:01
    ¿Quién los hace?
  • 5:01 - 5:04
    Algunos parecen hechos por
    equipos de animadores profesionales.
  • 5:05 - 5:07
    Algunos son simplemente
    ensamblados al azar por software.
  • 5:07 - 5:12
    Algunos son artistas
    jóvenes muy saludables,
  • 5:12 - 5:13
    Y algunos son de personas
  • 5:13 - 5:16
    que claramente no deberían
    estar cerca de los niños.
  • 5:16 - 5:18
    (Risas)
  • 5:19 - 5:24
    Y una vez más, esta imposibilidad de
    descubrir quién hace estas cosas:
  • 5:24 - 5:25
    ¿Se trata de un robot?
  • 5:25 - 5:27
    ¿Es una persona? ¿Es un troll?
  • 5:28 - 5:30
    ¿Qué significa ya no
    poder más ver la diferencia
  • 5:30 - 5:31
    entre estas cosas?
  • 5:32 - 5:36
    Y nuevamente, ¿esa incertidumbre no
    les resulta familiar en este momento?
  • 5:38 - 5:41
    La principal forma para que
    los videos sean vistos
  • 5:41 - 5:43
    --y recuerden, las visualizaciones
    significan dinero--
  • 5:43 - 5:47
    es titulando estos videos
    con estos términos populares.
  • 5:47 - 5:49
    Tomas algo como "huevos sorpresa"
  • 5:49 - 5:51
    y agregas "Paw Patrol", "Huevo de Pascua"
  • 5:51 - 5:52
    o lo que sean
  • 5:52 - 5:55
    todas estas palabras de otros
    videos populares en el título,
  • 5:55 - 5:58
    hasta que terminas con este tipo
    de puré de lenguaje sin sentido
  • 5:58 - 6:01
    que no tiene sentido
    para los humanos en absoluto.
  • 6:01 - 6:04
    Porque, por supuesto, solo los niños
    muy pequeños miran tu video,
  • 6:04 - 6:06
    y ¿qué demonios saben ellos?
  • 6:06 - 6:09
    Tu audiencia real para esto es software.
  • 6:09 - 6:11
    Son los algoritmos.
  • 6:11 - 6:12
    Es el software que usa YouTube
  • 6:12 - 6:15
    para seleccionar qué videos
    que son como otros videos,
  • 6:15 - 6:17
    para hacerlos populares,
    para recomendarlos.
  • 6:17 - 6:21
    Y por eso terminas con este tipo
    de puré completamente sin sentido,
  • 6:21 - 6:23
    tanto de título como de contenido.
  • 6:24 - 6:26
    Pero el caso es que debes recordar,
  • 6:26 - 6:30
    realmente todavía hay personas dentro de
    este sistema optimizado algorítmicamente,
  • 6:30 - 6:33
    personas cada vez
    más forzadas a actuar
  • 6:33 - 6:36
    estas combinaciones cada vez
    más extrañas de palabras,
  • 6:36 - 6:41
    como un artista de improvisación
    desesperado que responde a la vez
  • 6:41 - 6:44
    a los gritos de un
    millón de niños pequeños.
  • 6:45 - 6:48
    Hay personas atrapadas
    dentro de estos sistemas,
  • 6:48 - 6:51
    y eso es otra cosa muy extraña de
    esta cultura guiada algorítmicamente,
  • 6:51 - 6:53
    porque incluso si eres humano,
  • 6:53 - 6:56
    tienes que terminar comportándote
    como una máquina
  • 6:56 - 6:57
    solo para sobrevivir
  • 6:57 - 6:59
    Y también, en el otro lado de la pantalla,
  • 6:59 - 7:02
    todavía hay niños pequeños mirándolo,
  • 7:02 - 7:06
    atrapados, toda su atención atrapada,
    por estos mecanismos extraños.
  • 7:07 - 7:10
    Y estos niños son demasiado pequeños
    para usar un sitio web.
  • 7:10 - 7:13
    Simplemente están martillando
    en la pantalla con sus pequeñas manos.
  • 7:13 - 7:15
    Y existe reproducción automática,
  • 7:15 - 7:18
    y estos videos se siguen reproduciendo
    una y otra y otra vez,
  • 7:18 - 7:20
    interminablemente
    horas y horas a la vez.
  • 7:20 - 7:22
    Y es tan raro el sistema hoy
  • 7:22 - 7:26
    que esa reproducción automática lleva
    a algunos lugares muy extraños.
  • 7:26 - 7:28
    Así es como, en una docena de pasos,
  • 7:28 - 7:31
    puedes pasar de un lindo video
    de un tren de conteo
  • 7:31 - 7:34
    a Mickey Mouse masturbándose.
  • 7:35 - 7:37
    Sí. Lo lamento.
  • 7:37 - 7:39
    Esto empeora.
  • 7:39 - 7:40
    Esto es lo que pasa
  • 7:40 - 7:43
    cuando todas estas
    diferentes palabras clave,
  • 7:43 - 7:45
    todas estas diferentes piezas de atención,
  • 7:45 - 7:48
    esta desesperada generación de contenido,
  • 7:48 - 7:51
    todo se une en un solo lugar.
  • 7:52 - 7:56
    Aquí es donde esas palabras clave muy
    extrañas llegan a casa para descansar.
  • 7:56 - 7:58
    Uno cruza el video de la familia del dedo
  • 7:58 - 8:01
    con algunas cosas de
    superhéroes de acción en vivo,
  • 8:01 - 8:04
    agregas algunas bromas raras
    y trollsas o algo así
  • 8:04 - 8:08
    y de repente, llegas a un lugar
    muy extraño de hecho.
  • 8:08 - 8:09
    Lo que tiende a molestar a los padres
  • 8:09 - 8:13
    es el material que tiene un tipo
    de contenido violento o sexual, ¿verdad?
  • 8:13 - 8:16
    Dibujos animados de niños siendo atacados,
  • 8:16 - 8:18
    siendo asesinados,
  • 8:18 - 8:21
    bromas extrañas que realmente
    aterrorizan a los niños.
  • 8:21 - 8:25
    Lo que tienes es software que tira
    de todas estas influencias diferentes
  • 8:25 - 8:28
    para generar automáticamente
    las peores pesadillas de los niños.
  • 8:28 - 8:31
    Y esto realmente afecta
    a los niños pequeños.
  • 8:31 - 8:34
    Los padres informan que
    sus hijos están traumatizados,
  • 8:34 - 8:35
    tienen miedo a la oscuridad,
  • 8:35 - 8:38
    tienen miedo de sus personajes
    de dibujos animados favoritos.
  • 8:39 - 8:42
    Si se llevan una cosa de esto,
    es que si tienen niños pequeños,
  • 8:42 - 8:44
    manténganlos lejos de YouTube.
  • 8:45 - 8:49
    (Aplausos)
  • 8:51 - 8:54
    Pero otra cosa, lo que realmente
    me atrapa de esto,
  • 8:54 - 8:58
    es que no estoy seguro de que realmente
    comprendamos cómo llegamos a este punto.
  • 8:59 - 9:02
    Hemos tomado toda esta influencia,
    todas estas cosas,
  • 9:02 - 9:05
    y las procesamos de manera
    que nadie realmente pretendía.
  • 9:05 - 9:08
    Y, sin embargo, es también como
    estamos construyendo el mundo entero.
  • 9:08 - 9:10
    Estamos tomando todos estos datos,
  • 9:10 - 9:11
    muchos datos malos,
  • 9:11 - 9:14
    una gran cantidad de
    datos históricos llenos de prejuicios,
  • 9:14 - 9:17
    lleno de todos nuestros peores
    impulsos de la historia,
  • 9:17 - 9:19
    y creamos enormes conjuntos de datos
  • 9:19 - 9:21
    y luego los automatizamos.
  • 9:21 - 9:24
    Y lo estamos procesando
    en cosas como informes de crédito,
  • 9:24 - 9:26
    en primas de seguros,
  • 9:26 - 9:29
    en cosas como sistemas
    de vigilancia predictiva,
  • 9:29 - 9:30
    en pautas de sentencia.
  • 9:30 - 9:33
    Es la forma en que realmente
    construimos el mundo de hoy
  • 9:33 - 9:34
    con estos datos.
  • 9:34 - 9:36
    Y no sé qué es peor,
  • 9:36 - 9:39
    si construir un sistema que parece
    estar completamente optimizado
  • 9:39 - 9:42
    para los peores aspectos absolutos
    del comportamiento humano,
  • 9:42 - 9:45
    o parecer que lo hemos
    hecho por accidente,
  • 9:45 - 9:47
    sin siquiera darnos cuenta
    de que lo hacíamos,
  • 9:47 - 9:50
    porque realmente no entendíamos
    los sistemas que construíamos,
  • 9:50 - 9:54
    y realmente no entendimos
    cómo hacer algo diferente con eso.
  • 9:55 - 9:58
    Hay un par de cosas que creo que
    realmente parecen impulsar esto
  • 9:58 - 9:59
    más plenamente en YouTube,
  • 9:59 - 10:01
    y el primero es la publicidad,
  • 10:01 - 10:04
    que es la monetización de la atención
  • 10:04 - 10:07
    sin otras variables reales de trabajo,
  • 10:07 - 10:11
    sin ningún cuidado de las personas que
    realmente desarrollan este contenido,
  • 10:11 - 10:15
    la centralización del poder,
    la separación de esas cosas.
  • 10:15 - 10:18
    Y creo que lo que sientes sobre
    el uso de la publicidad
  • 10:18 - 10:19
    como apoyo de estas cosas,
  • 10:19 - 10:22
    ver a hombres adultos
    en pañales rodando alrededor de la arena
  • 10:22 - 10:25
    con la esperanza de que un algoritmo
    que realmente no entienden
  • 10:25 - 10:27
    les dará dinero por ello
  • 10:27 - 10:29
    sugiere que esto
    probablemente no es sobre
  • 10:29 - 10:31
    lo que deberíamos basar
    nuestra sociedad y cultura,
  • 10:31 - 10:33
    y la forma en que deberíamos financiarla.
  • 10:34 - 10:37
    Y la otra cosa que es el principal
    impulsor de esto es la automatización,
  • 10:37 - 10:39
    que es el despliegue
    de toda esta tecnología
  • 10:39 - 10:42
    tan pronto como llega,
    sin ningún tipo de supervisión,
  • 10:42 - 10:43
    y cuando está ahí afuera,
  • 10:43 - 10:47
    levantar las manos y decir: "Oye,
    no somos nosotros, es la tecnología".
  • 10:47 - 10:49
    Como, "No estamos involucrados en eso".
  • 10:49 - 10:51
    Eso no es realmente
    lo suficientemente bueno,
  • 10:51 - 10:53
    porque esto no solo
    se rige algorítmicamente,
  • 10:53 - 10:56
    también está controlado algorítmicamente.
  • 10:56 - 10:59
    Cuando YouTube comenzó
    a prestar atención a esto,
  • 10:59 - 11:00
    lo primero que dijo que haría
  • 11:00 - 11:04
    fue que implementaría mejores
    algoritmos de aprendizaje automático
  • 11:04 - 11:05
    para moderar el contenido.
  • 11:05 - 11:08
    Bueno, el aprendizaje automático,
    como cualquier experto en ello les dirá,
  • 11:09 - 11:11
    es básicamente lo que
    hemos comenzado a llamar
  • 11:11 - 11:13
    software que no entendemos cómo funciona.
  • 11:13 - 11:17
    Y creo que ya tenemos suficiente de eso.
  • 11:17 - 11:20
    No deberíamos dejar esto
    en manos de la IA para decidir
  • 11:20 - 11:22
    lo que es apropiado o no,
  • 11:22 - 11:23
    porque sabemos lo que sucede.
  • 11:23 - 11:25
    Comenzará a censurar otras cosas.
  • 11:25 - 11:26
    Comenzará a censurar contenido queer.
  • 11:26 - 11:29
    Comenzará a censurar
    el discurso público legítimo.
  • 11:29 - 11:31
    Lo que se permite en estos discursos,
  • 11:31 - 11:34
    no debería ser algo que haya
    quedado en sistemas inexplicables.
  • 11:34 - 11:37
    Es parte de una discusión
    que todos deberíamos tener.
  • 11:37 - 11:38
    Pero dejaría un recordatorio
  • 11:38 - 11:41
    que la alternativa tampoco
    es muy agradable.
  • 11:41 - 11:42
    YouTube también anunció
  • 11:42 - 11:45
    que va a lanzar una versión
    de la aplicación para niños
  • 11:45 - 11:48
    que sería completamente
    moderada por humanos.
  • 11:48 - 11:52
    Facebook; Zuckerberg dijo
    casi lo mismo en el Congreso,
  • 11:52 - 11:55
    cuando se le preguntó sobre
    cómo iba a moderar sus cosas.
  • 11:55 - 11:57
    Y dijo que tendrían
    humanos haciéndolo.
  • 11:57 - 11:58
    Y lo que realmente significa
  • 11:58 - 12:01
    es que en lugar de tener niños pequeños
    viendo esto por primera vez,
  • 12:01 - 12:04
    van a tener trabajadores
    subcontratados y precarios
  • 12:04 - 12:06
    sin el adecuado apoyo de salud mental
  • 12:06 - 12:07
    siendo afectados también.
  • 12:07 - 12:08
    (Risas)
  • 12:08 - 12:11
    Y creo que todos podemos
    hacer mucho mejor que eso.
  • 12:11 - 12:13
    (Aplausos)
  • 12:14 - 12:19
    La idea, creo, que reúne esas dos cosas,
    realmente, para mí,
  • 12:19 - 12:20
    es agencia.
  • 12:20 - 12:23
    Es como, ¿cuánto entendemos realmente?
    Por agencia, quiero decir:
  • 12:23 - 12:28
    cómo sabemos cómo actuar
    en nuestro propio interés.
  • 12:28 - 12:30
    Lo que es casi imposible de hacer
  • 12:30 - 12:33
    en estos sistemas que realmente
    no comprendemos del todo.
  • 12:33 - 12:36
    La desigualdad de poder
    siempre conduce a la violencia.
  • 12:36 - 12:38
    Y podemos ver dentro de estos sistemas
  • 12:38 - 12:40
    esa desigualdad de
    entendimiento hace lo mismo.
  • 12:41 - 12:44
    Si hay algo que podemos hacer
    para comenzar a mejorar estos sistemas,
  • 12:44 - 12:47
    es hacerlos más legibles para
    las personas que los usan,
  • 12:47 - 12:49
    para que todos tengamos
    un entendimiento común
  • 12:49 - 12:51
    de lo que está sucediendo ahí.
  • 12:52 - 12:55
    La cosa, sin embargo, pienso
    más acerca de estos sistemas
  • 12:55 - 12:59
    es que esto no es, como espero haber
    explicado, realmente sobre YouTube.
  • 12:59 - 13:00
    Se trata de todo.
  • 13:00 - 13:03
    Estos problemas de
    responsabilidad y agencia,
  • 13:03 - 13:05
    de opacidad y complejidad,
  • 13:05 - 13:08
    de la violencia y la explotación
    que resulta inherentemente
  • 13:08 - 13:11
    de la concentración de poder
    en unas pocas manos,
  • 13:11 - 13:13
    estos son problemas mucho,
    mucho más grandes.
  • 13:14 - 13:18
    Y no solo son problemas de YouTube
    y no solo de la tecnología en general,
  • 13:18 - 13:19
    y ni siquiera son nuevos.
  • 13:19 - 13:21
    Han estado con nosotros por siglos.
  • 13:21 - 13:25
    Pero finalmente construimos este sistema,
    este sistema global, Internet,
  • 13:25 - 13:28
    que nos los muestra en realidad
    de esta manera extraordinaria,
  • 13:28 - 13:30
    haciéndolos innegables.
  • 13:30 - 13:33
    La tecnología tiene
    esta extraordinaria capacidad
  • 13:33 - 13:37
    para hacer tangibles y continuos
  • 13:37 - 13:41
    todos nuestros más extraordinarios,
    a menudo ocultos deseos y prejuicios
  • 13:41 - 13:43
    y codificándolos en el mundo,
  • 13:43 - 13:46
    pero también los escribe
    para que podamos verlos,
  • 13:46 - 13:50
    para que no podamos pretender
    que ya no existen.
  • 13:50 - 13:52
    Tenemos que dejar de
    pensar en la tecnología
  • 13:52 - 13:54
    como una solución a
    todos nuestros problemas,
  • 13:54 - 13:57
    y pensarla como una guía de lo que
    esos problemas son en realidad,
  • 13:58 - 14:00
    para que podamos comenzar
    a pensar en ellos adecuadamente
  • 14:00 - 14:02
    y empezar a abordarlos.
  • 14:02 - 14:03
    Muchas gracias.
  • 14:03 - 14:08
    (Aplausos)
  • 14:10 - 14:11
    Gracias.
  • 14:11 - 14:14
    (Aplausos)
  • 14:17 - 14:20
    Helen Walters: James,
    gracias por venir y darnos esa charla.
  • 14:20 - 14:21
    Es interesante:
  • 14:21 - 14:25
    cuando piensas en películas donde jefes
    supremos robóticos toman el control,
  • 14:25 - 14:28
    todo es un poco más glamoroso
    que lo que describes.
  • 14:28 - 14:32
    Pero me pregunto: en esas películas,
    se monta la resistencia.
  • 14:32 - 14:35
    ¿Hay una resistencia contra esto?
  • 14:35 - 14:39
    ¿Ves signos positivos,
    brotes verdes de resistencia?
  • 14:41 - 14:43
    James Bridle: No sé sobre
    la resistencia directa,
  • 14:43 - 14:45
    porque creo que esto es
    a muy largo plazo.
  • 14:45 - 14:48
    Creo que está profundamente
    arraigada en la cultura.
  • 14:48 - 14:50
    Una amiga mía,
    Eleanor Saitta, siempre dice
  • 14:50 - 14:54
    que cualquier problema tecnológico
    de escala y alcance suficientes
  • 14:54 - 14:56
    es un problema político antes que nada.
  • 14:56 - 14:59
    Todas estas cosas en las que estamos
    trabajando para enfrentarnos a esto
  • 14:59 - 15:02
    no van a abordarse solo
    construyendo mejor tecnología,
  • 15:02 - 15:05
    sino cambiando la sociedad
    que está produciendo estas tecnologías.
  • 15:05 - 15:08
    Así que no, hoy, creo que
    tenemos un infierno que recorrer.
  • 15:09 - 15:10
    Pero como dije, creo que al destaparlos,
  • 15:11 - 15:13
    al explicarlos, al hablar
    de ellos superhonestamente,
  • 15:13 - 15:16
    en realidad podemos comenzar
    al menos ese proceso.
  • 15:16 - 15:19
    HW: Y cuando hablas de legibilidad
    y alfabetización digital,
  • 15:19 - 15:21
    me resulta difícil de imaginar
  • 15:21 - 15:25
    que debemos colocar la carga de la
    alfabetización digital en los usuarios.
  • 15:25 - 15:29
    ¿Pero de quién es la educación
    en este nuevo mundo?
  • 15:29 - 15:33
    JB: Nuevamente, creo que esta
    responsabilidad depende de todos nosotros,
  • 15:33 - 15:36
    todo lo que hacemos, todo lo
    que construimos, todo lo que creamos,
  • 15:36 - 15:40
    debe hacerse en una discusión consensuada
  • 15:40 - 15:42
    con todos los que lo evitan;
  • 15:42 - 15:46
    que no estamos construyendo sistemas
    para engañar y sorprender a las personas
  • 15:46 - 15:48
    haciendo lo correcto,
  • 15:48 - 15:52
    pero que en realidad están involucrados
    en cada paso para educarlos,
  • 15:52 - 15:54
    porque cada uno de estos
    sistemas es educativo.
  • 15:54 - 15:57
    Es lo que me da esperanza,
    aun en esta cosa realmente sombría,
  • 15:57 - 15:59
    que si puedes tomarla
    y mirarla correctamente,
  • 15:59 - 16:02
    en realidad es en sí misma
    una pieza educativa
  • 16:02 - 16:05
    que permite comenzar a ver cómo
    los sistemas complejos se unen y funcionan
  • 16:05 - 16:09
    y tal vez ser capaz de aplicar ese
    conocimiento en otro lugar del mundo.
  • 16:09 - 16:11
    HW: James, es una
    discusión tan importante,
  • 16:11 - 16:14
    y sé que muchos aquí están
    realmente abiertos y dispuestos a tenerla,
  • 16:14 - 16:16
    así que gracias por
    comenzar nuestra mañana.
  • 16:16 - 16:17
    JB: Muchas gracias.
  • 16:17 - 16:19
    (Aplausos)
Title:
Los videos de pesadilla del YouTube para niños, y qué está mal en Internet
Speaker:
James Bridle
Description:

El escritor y artista James Bridle descubre un rincón oscuro y extraño de Internet, donde personas desconocidas o grupos en YouTube piratean los cerebros de los niños pequeños a cambio de ingresos publicitarios. Desde "huevo sorpresa" revelados y "Finger Family Song" hasta 'mashups' creados algorítmicamente usando personajes familiares de dibujos animados en situaciones violentas. Estos videos explotan y aterrorizan a las mentes jóvenes, y nos dicen algo sobre hacia dónde se dirige nuestro mundo cada vez más basado en datos. "Tenemos que dejar de pensar en la tecnología como una solución para todos nuestros problemas, y, en cambio, pensar en ella como una guía para saber cuáles son esos problemas en realidad, para que podamos empezar a pensar en ellos adecuadamente y comenzar a abordarlos", dice Bridle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Spanish subtitles

Revisions