Return to Video

Qué saben las empresas tecnológicas de tus hijos

  • 0:01 - 0:05
    Cada día de la semana,
    aceptamos términos y condiciones.
  • 0:05 - 0:07
    Al hacerlo,
  • 0:07 - 0:09
    damos a las empresas el derecho
  • 0:09 - 0:13
    de hacer lo que les plazca
    con nuestra información
  • 0:13 - 0:15
    y con la de nuestros hijos.
  • 0:17 - 0:19
    Y nos preguntamos:
  • 0:20 - 0:22
    "¿cuántas cosas revelamos
    sobre nuestros hijos?"
  • 0:23 - 0:24
    y "¿qué implica esto?".
  • 0:26 - 0:30
    Soy antropóloga
    y también madre de dos niñas.
  • 0:31 - 0:35
    Empecé a interesarme en este tema en 2015,
  • 0:35 - 0:37
    cuando, de pronto, me di cuenta
  • 0:38 - 0:41
    de la casi inconcebible cantidad
    de rastreos digitales
  • 0:41 - 0:44
    con los que se recopila
    información de niños.
  • 0:45 - 0:49
    Por ello, inicié un proyecto
    llamado "Child Data Citizen",
  • 0:49 - 0:51
    con el objetivo de llenar ese vacío.
  • 0:53 - 0:55
    Quizás piensen que vengo a reprocharles
  • 0:56 - 0:58
    que suban fotos de sus hijos
    a las redes sociales.
  • 0:58 - 1:00
    Pero no he venido a eso.
  • 1:01 - 1:04
    Esto es mucho más grave
    que el llamado "sharenting".
  • 1:05 - 1:08
    Esto no va de individuos,
    sino de sistemas.
  • 1:09 - 1:11
    Sus hábitos y Uds.
    no tienen culpa de nada.
  • 1:13 - 1:15
    Por primerísima vez en la historia,
  • 1:16 - 1:20
    rastreamos la información de cada niño
    desde mucho antes de nacer.
  • 1:20 - 1:24
    En ocasiones, antes de la fecundación
    y luego, a lo largo de sus vidas.
  • 1:25 - 1:28
    Cuando los padres deciden tener un hijo,
  • 1:28 - 1:31
    buscan en internet
    "formas de quedar embarazada"
  • 1:31 - 1:34
    o descargan aplicaciones
    para controlar la ovulación.
  • 1:35 - 1:37
    Cuando llega el embarazo,
  • 1:38 - 1:41
    suben ecografías de sus bebés
    a las redes sociales,
  • 1:41 - 1:43
    descargan aplicaciones para embarazadas
  • 1:43 - 1:45
    o preguntan de todo al doctor Google,
  • 1:46 - 1:47
    Todo tipo de cosas, como:
  • 1:48 - 1:51
    "riesgo de aborto en pleno vuelo"
  • 1:51 - 1:53
    o "dolores menstruales
    al inicio del embarazo".
  • 1:54 - 1:57
    Lo sé porque yo lo he hecho,
    y varias veces.
  • 1:58 - 2:03
    Y, al nacer el bebé, hacen un seguimiento
    de cada siesta, toma o acontecimiento
  • 2:04 - 2:05
    en diferentes plataformas.
  • 2:06 - 2:13
    Todas estas plataformas se benefician de
    datos íntimos sobre salud y comportamiento
  • 2:14 - 2:16
    y los comparten entre ellas.
  • 2:17 - 2:19
    Para que entiendan cómo funciona,
  • 2:19 - 2:23
    en 2019, una investigación
    del "British Medical Journal"
  • 2:23 - 2:27
    desveló que, de 24 aplicaciones de salud,
  • 2:27 - 2:31
    19 compartían información con terceros.
  • 2:32 - 2:38
    Y esos terceros compartían información
    con otras 216 organizaciones.
  • 2:39 - 2:45
    De esas 216 organizaciones,
    solo tres pertenecían al sector sanitario.
  • 2:46 - 2:50
    En las demás empresas con acceso a
    esos datos eran gigantes de la tecnología,
  • 2:50 - 2:53
    como Google, Facebook u Oracle,
  • 2:54 - 3:00
    había empresas de publicidad en línea
    y una agencia de crédito al consumo.
  • 3:01 - 3:02
    Para que me entiendan:
  • 3:03 - 3:08
    agencias publicitarias y de crédito
    podrían tener puntos de datos de bebés.
  • 3:09 - 3:13
    Las aplicaciones móviles, redes sociales
    y buscadores solo son
  • 3:13 - 3:15
    "la punta del iceberg",
  • 3:15 - 3:19
    porque se rastrea a los niños a diario
    desde múltiples tecnologías.
  • 3:20 - 3:23
    Se les sigue desde casa con dispositivos
    y asistentes virtuales.
  • 3:24 - 3:28
    Desde el colegio, con herramientas TIC
    y aulas virtuales.
  • 3:28 - 3:32
    Desde la consulta del médico,
    con historiales clínicos y portales web.
  • 3:33 - 3:36
    Los siguen desde sus juguetes
    con conexión a internet, juegos online
  • 3:36 - 3:39
    y muchas otras tecnologías.
  • 3:41 - 3:44
    En mi investigación, muchos padres
    venían a decirme cosas como:
  • 3:44 - 3:45
    "¿Y qué?".
  • 3:46 - 3:49
    "¿Qué importa si rastrean a mis hijos?
  • 3:50 - 3:51
    No tenemos nada que esconder".
  • 3:53 - 3:54
    Pues sí, importa.
  • 3:55 - 4:00
    No solo porque se hagan seguimientos
    de cada persona,
  • 4:01 - 4:04
    sino porque se les clasifica
    de acuerdo con lo recolectado.
  • 4:05 - 4:08
    Con la inteligencia artificial
    y el análisis predictivo
  • 4:08 - 4:12
    se aprovechan al máximo
    los datos de cada individuo
  • 4:13 - 4:14
    de distintas formas:
  • 4:15 - 4:19
    hábitos de compra, historial familiar
    comentarios en redes sociales...
  • 4:19 - 4:24
    Luego, combinan esos datos
    y sacan conclusiones de esa persona.
  • 4:25 - 4:28
    Estas tecnologías se usan en todas partes.
  • 4:28 - 4:30
    Los bancos las usan para dar préstamos.
  • 4:31 - 4:33
    Las aseguradoras las usan para las primas.
  • 4:34 - 4:39
    Las empresas y patrones las usan
    para saber si alguien vale para un puesto.
  • 4:41 - 4:43
    Además, la policía y los juzgados las usan
  • 4:44 - 4:50
    para saber la probabilidad
    de que alguien cometa delito o reincida.
  • 4:52 - 4:56
    No podemos saber ni controlar
  • 4:57 - 5:00
    la forma en la que esta gente que compra,
    vende y procesa nuestros datos
  • 5:00 - 5:03
    traza perfiles sobre nosotros
    y nuestros hijos.
  • 5:04 - 5:08
    Pero estos perfiles pueden afectar
    gravemente nuestros derechos.
  • 5:09 - 5:11
    Pongamos un ejemplo:
  • 5:14 - 5:17
    "The New York Times" publicó en 2018
  • 5:18 - 5:23
    que los datos recogidos en webs
    de planificación educativa,
  • 5:23 - 5:28
    que rellenan millones
    de jóvenes estadounidenses
  • 5:28 - 5:31
    en busca de una beca
    o un plan universitario,
  • 5:31 - 5:34
    se vendieron a brókeres de información.
  • 5:36 - 5:41
    Pues en Fordham se investigó
    a estos brókeres de lo educativo
  • 5:41 - 5:46
    y se descubrió que estas empresas
    clasifican a niños de incluso dos años
  • 5:46 - 5:49
    según diferentes categorías:
  • 5:50 - 5:53
    etnia, religión, riqueza,
  • 5:54 - 5:55
    ansiedad social
  • 5:56 - 5:58
    y muchas más categorías.
  • 5:59 - 6:01
    Y luego venden esos perfiles,
  • 6:01 - 6:06
    con el nombre del niño,
    dirección y datos personales,
  • 6:07 - 6:08
    a distintas empresas,
  • 6:09 - 6:11
    como instituciones educativas
    y de comercio,
  • 6:12 - 6:15
    de servicios de becas
    y cuentas bancarias para estudiantes.
  • 6:17 - 6:18
    Para avanzar en esto,
  • 6:18 - 6:21
    los investigadores de Fordham
    pidieron a uno de estos brókeres
  • 6:22 - 6:27
    que les proporcionase una lista
    de chicas de entre 14 y 15 años
  • 6:28 - 6:31
    a las que les interesase
    un servicio de planificación familiar.
  • 6:32 - 6:34
    El bróker accedió
    a facilitarles esa lista.
  • 6:35 - 6:40
    Imagínense lo mucho que esto invade
    la intimidad de nuestros hijos.
  • 6:41 - 6:45
    Pero estos brókeres de lo educativo
    son solo un ejemplo.
  • 6:45 - 6:49
    Realmente, la forma en la que clasifican
    a nuestros hijos escapa de nuestro control
  • 6:50 - 6:53
    y tiene un gran impacto en su futuro.
  • 6:54 - 6:57
    Así que debemos preguntarnos:
  • 6:58 - 7:02
    ¿se puede confiar en estas tecnologías
    que catalogan a nuestros hijos?
  • 7:02 - 7:04
    ¿Se puede?
  • 7:06 - 7:07
    Yo digo que no.
  • 7:07 - 7:09
    Como antropóloga,
  • 7:09 - 7:12
    creo que la inteligencia artificial
    y el análisis predictivo
  • 7:12 - 7:16
    pueden servir para predecir enfermedades
    o luchar contra el cambio climático.
  • 7:18 - 7:20
    Pero tenemos que abandonar la creencia
  • 7:20 - 7:23
    de que estas tecnologías pueden hacer un
    perfil objetivo de los seres humanos
  • 7:23 - 7:26
    y que podemos confiar en ellas
    para tomar decisiones
  • 7:26 - 7:28
    basadas en datos sobre
    las vidas de los individuos.
  • 7:29 - 7:31
    No pueden clasificar humanos.
  • 7:31 - 7:34
    Los rastreos digitales
    no reflejan quiénes somos.
  • 7:34 - 7:39
    Los humanos piensan una cosa y dicen otra,
    sienten de una forma y actúan diferente.
  • 7:39 - 7:41
    Las predicciones algorítmicas
    de lo que hacemos
  • 7:42 - 7:47
    no tienen en cuenta la impredecibilidad
    y complejidad de la naturaleza humana.
  • 7:48 - 7:50
    Por si fuera poco,
  • 7:50 - 7:56
    estas tecnologías son siempre,
    de un modo u otro, subjetivas.
  • 7:57 - 8:02
    Los algoritmos son, por definición,
    conjuntos de reglas o pasos
  • 8:02 - 8:05
    diseñados para conseguir
    resultados concretos.
  • 8:07 - 8:09
    Pero tales reglas o pasos
    no pueden ser imparciales,
  • 8:10 - 8:13
    porque los han diseñado humanos
    dentro de un marco cultural concreto
  • 8:13 - 8:16
    y están influenciados
    por unos valores concretos.
  • 8:17 - 8:20
    Cuando las máquinas aprenden,
    lo hacen a partir de algoritmos sesgados,
  • 8:22 - 8:25
    y a menudo también aprenden
    de bases de datos sesgadas.
  • 8:26 - 8:29
    Justo ahora podemos ver
    los primeros casos de sesgo algorítmico.
  • 8:30 - 8:33
    Algunos de estos ejemplos
    son francamente aterradores.
  • 8:34 - 8:38
    Este año, el AI Institute de Nueva York
    ha publicado un informe que demuestra
  • 8:39 - 8:44
    que las inteligencias artificiales
    que usa la policía predictiva
  • 8:44 - 8:48
    han aprendido de "datos sucios".
  • 8:48 - 8:55
    Estos son datos recogidos
    de épocas de claro prejuicio racial
  • 8:55 - 8:58
    y acciones policiales poco transparentes.
  • 8:59 - 9:04
    Estas inteligencias, al alimentarse
    de datos sucios, no son objetivas,
  • 9:04 - 9:10
    y los resultados solo dan lugar
    a parcialidad y errores policiales.
  • 9:13 - 9:17
    Creo que nos enfrentamos
    a un problema fundamental de la sociedad.
  • 9:18 - 9:23
    Nos estamos fiando de las tecnologías
    a la hora de clasificar a seres humanos.
  • 9:24 - 9:28
    Ya se sabe que las tecnologías
    siempre van a estar influenciadas
  • 9:29 - 9:31
    y nunca van a ser del todo exactas.
  • 9:32 - 9:35
    Lo que en realidad necesitamos
    es una es una solución política.
  • 9:35 - 9:40
    Que los gobiernos vean que la protección
    de datos es un derecho humano.
  • 9:40 - 9:43
    (Aplausos y vítores)
  • 9:48 - 9:52
    Hasta que esto no ocurra,
    no esperemos un futuro más justo.
  • 9:53 - 9:59
    Me preocupa que mis hijas estén expuestas
    a discriminaciones y errores algorítmicos.
  • 9:59 - 10:04
    Lo que me diferencia de mis hijas
    es que no hay registros de mi infancia.
  • 10:05 - 10:11
    Por supuesto, no se conocen las tonterías
    que decía y pensaba de adolescente.
  • 10:11 - 10:13
    (Risas)
  • 10:14 - 10:17
    Pero, para mis hijas,
    esto podría ser diferente.
  • 10:17 - 10:20
    Los datos que se recogen de ellas ahora
  • 10:20 - 10:24
    pueden usarse en su contra en el futuro
  • 10:24 - 10:27
    Y puede llegar a limitar
    sus sueños y aspiraciones.
  • 10:28 - 10:30
    Creo que es el momento.
  • 10:30 - 10:34
    El momento de dar un paso adelante,
    de empezar a trabajar juntos,
  • 10:34 - 10:38
    como individuos,
    organizaciones e instituciones
  • 10:38 - 10:42
    y exijamos más justicia por nuestros datos
    y los de nuestros hijos.
  • 10:43 - 10:44
    antes de que sea tarde.
  • 10:44 - 10:45
    Gracias.
  • 10:45 - 10:47
    (Aplausos)
Title:
Qué saben las empresas tecnológicas de tus hijos
Speaker:
Veronica Barassi
Description:

Según Veronica Barassi, es posible que las plataformas digitales que tanto nosotros como nuestra familia usamos a diario —desde videojuegos online hasta aplicaciones educativas y portales médicos— estén recopilando y vendiendo la información de nuestros hijos. Con esta reveladora investigación, Barassi insta a los padres a pensárselo dos veces antes de aceptar términos y condiciones y a exigir medidas para evitar que sus futuros se tuerzan.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:01
Ciro Gomez approved Spanish subtitles for What tech companies know about your kids
Ciro Gomez edited Spanish subtitles for What tech companies know about your kids
Lidia Cámara de la Fuente accepted Spanish subtitles for What tech companies know about your kids
Lidia Cámara de la Fuente edited Spanish subtitles for What tech companies know about your kids
Marta Palacio edited Spanish subtitles for What tech companies know about your kids
José María Hernández Vicente edited Spanish subtitles for What tech companies know about your kids
José María Hernández Vicente edited Spanish subtitles for What tech companies know about your kids
José María Hernández Vicente edited Spanish subtitles for What tech companies know about your kids
Show all

Spanish subtitles

Revisions