Return to Video

Qué saben las empresas tecnológicas de tus hijos

  • 0:01 - 0:05
    Cada día de la semana,
    aceptamos términos y condiciones.
  • 0:05 - 0:07
    Al hacerlo,
  • 0:07 - 0:09
    damos a las empresas el derecho
  • 0:09 - 0:13
    de hacer lo que les plazca
    con nuestra información
  • 0:13 - 0:15
    y con la de nuestros hijos.
  • 0:17 - 0:19
    Y nos preguntamos:
  • 0:20 - 0:22
    "¿cuántas cosas revelamos
    sobre nuestros hijos?"
  • 0:23 - 0:24
    y "¿qué implica esto?".
  • 0:26 - 0:30
    Soy antropóloga
    y también madre de dos niñas.
  • 0:31 - 0:35
    Empecé a interesarme en este tema en 2015,
  • 0:35 - 0:37
    cuando, de pronto, me di cuenta
  • 0:38 - 0:41
    de la casi inconcebible cantidad
    de rastreos digitales
  • 0:41 - 0:44
    con los que se recopila
    información de niños.
  • 0:45 - 0:49
    Por ello, inicié un proyecto
    llamado "Child Data Citizen",
  • 0:49 - 0:51
    con el objetivo de llenar ese vacío.
  • 0:53 - 0:55
    Quizás piensen que vengo a reprocharles
  • 0:56 - 0:58
    que suban fotos de sus hijos
    a las redes sociales.
  • 0:58 - 1:00
    Pero no he venido a eso.
  • 1:01 - 1:04
    Esto es mucho más grave
    que el llamado "sharenting".
  • 1:05 - 1:08
    Esto no va de individuos,
    sino de sistemas.
  • 1:09 - 1:11
    Sus hábitos y Uds.
    no tienen culpa de nada.
  • 1:13 - 1:15
    Por primerísima vez en la historia,
  • 1:16 - 1:20
    rastreamos la información de cada niño
    desde mucho antes de nacer.
  • 1:20 - 1:24
    En ocasiones, antes de la fecundación
    y luego, a lo largo de sus vidas.
  • 1:25 - 1:28
    Cuando los padres deciden tener un hijo,
  • 1:28 - 1:31
    buscan en internet
    "formas de quedar embarazada"
  • 1:31 - 1:34
    o descargan aplicaciones
    para controlar la ovulación.
  • 1:35 - 1:37
    Cuando llega el embarazo,
  • 1:38 - 1:41
    suben ecografías de sus bebés
    a las redes sociales,
  • 1:41 - 1:43
    descargan aplicaciones para embarazadas
  • 1:43 - 1:45
    o preguntan de todo al doctor Google,
  • 1:46 - 1:47
    Todo tipo de cosas, como:
  • 1:48 - 1:51
    "riesgo de aborto en pleno vuelo"
  • 1:51 - 1:53
    o "dolores menstruales
    al inicio del embarazo".
  • 1:54 - 1:57
    Lo sé porque yo lo he hecho,
    y varias veces.
  • 1:58 - 2:03
    Y, al nacer el bebé, hacen un seguimiento
    de cada siesta, toma o acontecimiento
  • 2:04 - 2:05
    en diferentes plataformas.
  • 2:06 - 2:13
    Todas estas plataformas se benefician de
    datos íntimos sobre salud y comportamiento
  • 2:14 - 2:16
    y los comparten entre ellas.
  • 2:17 - 2:19
    Para que entiendan cómo funciona,
  • 2:19 - 2:23
    en 2019, una investigación
    del "British Medical Journal"
  • 2:23 - 2:27
    desveló que, de 24 aplicaciones de salud,
  • 2:27 - 2:31
    19 compartían información con terceros.
  • 2:32 - 2:38
    Y esos terceros compartían información
    con otras 216 organizaciones.
  • 2:39 - 2:45
    De esas 216 organizaciones,
    solo tres pertenecían al sector sanitario.
  • 2:46 - 2:50
    En las demás empresas con acceso a
    esos datos eran gigantes de la tecnología,
  • 2:50 - 2:53
    como Google, Facebook u Oracle,
  • 2:54 - 3:00
    había empresas de publicidad en línea
    y una agencia de crédito al consumo.
  • 3:01 - 3:02
    Para que me entiendan:
  • 3:03 - 3:08
    agencias publicitarias y de crédito
    podrían tener puntos de datos de bebés.
  • 3:09 - 3:13
    Las aplicaciones móviles, redes sociales
    y buscadores solo son
  • 3:13 - 3:15
    "la punta del iceberg",
  • 3:15 - 3:19
    porque se rastrea a los niños a diario
    desde múltiples tecnologías.
  • 3:20 - 3:23
    Se les sigue desde casa con dispositivos
    y asistentes virtuales.
  • 3:24 - 3:28
    Desde el colegio, con herramientas TIC
    y aulas virtuales.
  • 3:28 - 3:32
    Desde la consulta del médico,
    con historiales clínicos y portales web.
  • 3:33 - 3:36
    Los siguen desde sus juguetes
    con conexión a internet, juegos online
  • 3:36 - 3:39
    y muchas otras tecnologías.
  • 3:41 - 3:44
    En mi investigación, muchos padres
    venían a decirme cosas como:
  • 3:44 - 3:45
    "¿Y qué?".
  • 3:46 - 3:49
    "¿Qué importa si rastrean a mis hijos?
  • 3:50 - 3:51
    No tenemos nada que esconder".
  • 3:53 - 3:54
    Pues sí, importa.
  • 3:55 - 4:00
    No solo porque se hagan seguimientos
    de cada persona,
  • 4:01 - 4:04
    sino porque se les clasifica
    de acuerdo con lo recolectado.
  • 4:05 - 4:08
    Con la inteligencia artificial
    y el análisis predictivo
  • 4:08 - 4:12
    se aprovechan al máximo
    los datos de cada individuo
  • 4:13 - 4:14
    de distintas formas:
  • 4:15 - 4:19
    hábitos de compra, historial familiar
    comentarios en redes sociales...
  • 4:19 - 4:24
    Luego, combinan esos datos
    y sacan conclusiones de esa persona.
  • 4:25 - 4:28
    Estas tecnologías se usan en todas partes.
  • 4:28 - 4:30
    Los bancos las usan para dar préstamos.
  • 4:31 - 4:33
    Las aseguradoras las usan para las primas.
  • 4:34 - 4:39
    Las empresas y patrones las usan
    para saber si alguien vale para un puesto.
  • 4:41 - 4:43
    Además, la policía y los juzgados las usan
  • 4:44 - 4:50
    para saber la probabilidad
    de que alguien cometa delito o reincida.
  • 4:52 - 4:56
    No podemos saber ni controlar
  • 4:57 - 5:00
    la forma en la que esta gente que compra,
    vende y procesa nuestros datos
  • 5:00 - 5:03
    traza perfiles sobre nosotros
    y nuestros hijos.
  • 5:04 - 5:08
    Pero estos perfiles pueden afectar
    gravemente nuestros derechos.
  • 5:09 - 5:11
    Pongamos un ejemplo:
  • 5:14 - 5:17
    "The New York Times" publicó en 2018
  • 5:18 - 5:23
    que los datos recogidos en webs
    de planificación educativa,
  • 5:23 - 5:28
    que rellenan millones
    de jóvenes estadounidenses
  • 5:28 - 5:31
    en busca de una beca
    o un plan universitario,
  • 5:31 - 5:34
    se vendieron a brókeres de información.
  • 5:36 - 5:41
    Pues en Fordham se investigó
    a estos brókeres de lo educativo
  • 5:41 - 5:46
    y se descubrió que estas empresas
    clasifican a niños de incluso dos años
  • 5:46 - 5:49
    según diferentes categorías:
  • 5:50 - 5:53
    etnia, religión, riqueza,
  • 5:54 - 5:55
    ansiedad social
  • 5:56 - 5:58
    y muchas más categorías.
  • 5:59 - 6:01
    Y luego venden esos perfiles,
  • 6:01 - 6:06
    con el nombre del niño,
    dirección y datos personales,
  • 6:07 - 6:08
    a distintas empresas,
  • 6:09 - 6:11
    como instituciones educativas
    y de comercio,
  • 6:12 - 6:15
    de servicios de becas
    y cuentas bancarias para estudiantes.
  • 6:17 - 6:18
    Para avanzar en esto,
  • 6:18 - 6:21
    los investigadores de Fordham
    pidieron a uno de estos brókeres
  • 6:22 - 6:27
    que les proporcionase una lista
    de chicas de entre 14 y 15 años
  • 6:28 - 6:31
    a las que les interesase
    un servicio de planificación familiar.
  • 6:32 - 6:34
    El bróker accedió
    a facilitarles esa lista.
  • 6:35 - 6:40
    Imagínense lo mucho que esto invade
    la intimidad de nuestros hijos.
  • 6:41 - 6:45
    Pero estos brókeres de lo educativo
    son solo un ejemplo.
  • 6:45 - 6:49
    Realmente, la forma en la que clasifican
    a nuestros hijos escapa de nuestro control
  • 6:50 - 6:53
    y tiene un gran impacto en su futuro.
  • 6:54 - 6:57
    Así que debemos preguntarnos:
  • 6:58 - 7:02
    ¿se puede confiar en estas tecnologías
    que catalogan a nuestros hijos?
  • 7:02 - 7:04
    ¿Se puede?
  • 7:06 - 7:07
    Yo digo que no.
  • 7:07 - 7:09
    Como antropóloga,
  • 7:09 - 7:12
    creo que la inteligencia artificial
    y el análisis predictivo
  • 7:12 - 7:16
    pueden servir para predecir enfermedades
    o luchar contra el cambio climático.
  • 7:18 - 7:20
    Pero tenemos que abandonar la creencia
  • 7:20 - 7:23
    de que estas tecnologías pueden hacer un
    perfil objetivo de los seres humanos
  • 7:23 - 7:26
    y que podemos confiar en ellas
    para tomar decisiones
  • 7:26 - 7:28
    basadas en datos sobre
    las vidas de los individuos.
  • 7:29 - 7:31
    No pueden clasificar humanos.
  • 7:31 - 7:34
    Los rastreos digitales
    no reflejan quiénes somos.
  • 7:34 - 7:39
    Los humanos piensan una cosa y dicen otra,
    sienten de una forma y actúan diferente.
  • 7:39 - 7:41
    Las predicciones algorítmicas
    de lo que hacemos
  • 7:42 - 7:47
    no tienen en cuenta la impredecibilidad
    y complejidad de la naturaleza humana.
  • 7:48 - 7:50
    Por si fuera poco,
  • 7:50 - 7:56
    estas tecnologías son siempre,
    de un modo u otro, subjetivas.
  • 7:57 - 8:02
    Los algoritmos son, por definición,
    conjuntos de reglas o pasos
  • 8:02 - 8:05
    diseñados para conseguir
    resultados concretos.
  • 8:07 - 8:09
    Pero tales reglas o pasos
    no pueden ser imparciales,
  • 8:10 - 8:13
    porque los han diseñado humanos
    dentro de un marco cultural concreto
  • 8:13 - 8:16
    y están influenciados
    por unos valores concretos.
  • 8:17 - 8:20
    Cuando las máquinas aprenden,
    lo hacen a partir de algoritmos sesgados,
  • 8:22 - 8:25
    y a menudo también aprenden
    de bases de datos sesgadas.
  • 8:26 - 8:29
    Justo ahora podemos ver
    los primeros casos de sesgo algorítmico.
  • 8:30 - 8:33
    Algunos de estos ejemplos
    son francamente aterradores.
  • 8:34 - 8:38
    Este año, el AI Institute de Nueva York
    ha publicado un informe que demuestra
  • 8:39 - 8:44
    que las inteligencias artificiales
    que usa la policía predictiva
  • 8:44 - 8:48
    han aprendido de "datos sucios".
  • 8:48 - 8:55
    Estos son datos recogidos
    de épocas de claro prejuicio racial
  • 8:55 - 8:58
    y acciones policiales poco transparentes.
  • 8:59 - 9:04
    Estas inteligencias, al alimentarse
    de datos sucios, no son objetivas,
  • 9:04 - 9:10
    y los resultados solo dan lugar
    a parcialidad y errores policiales.
  • 9:13 - 9:17
    Creo que nos enfrentamos
    a un problema fundamental de la sociedad.
  • 9:18 - 9:23
    Nos estamos fiando de las tecnologías
    a la hora de clasificar a seres humanos.
  • 9:24 - 9:28
    Ya se sabe que las tecnologías
    siempre van a estar influenciadas
  • 9:29 - 9:31
    y nunca van a ser del todo exactas.
  • 9:32 - 9:35
    Lo que en realidad necesitamos
    es una es una solución política.
  • 9:35 - 9:40
    Que los gobiernos vean que la protección
    de datos es un derecho humano.
  • 9:40 - 9:43
    (Aplausos y vítores)
  • 9:48 - 9:52
    Hasta que esto no ocurra,
    no esperemos un futuro más justo.
  • 9:53 - 9:59
    Me preocupa que mis hijas estén expuestas
    a discriminaciones y errores algorítmicos.
  • 9:59 - 10:04
    Lo que me diferencia de mis hijas
    es que no hay registros de mi infancia.
  • 10:05 - 10:11
    Por supuesto, no se conocen las tonterías
    que decía y pensaba de adolescente.
  • 10:11 - 10:13
    (Risas)
  • 10:14 - 10:17
    Pero, para mis hijas,
    esto podría ser diferente.
  • 10:17 - 10:20
    Los datos que se recogen de ellas ahora
  • 10:20 - 10:24
    pueden usarse en su contra en el futuro
  • 10:24 - 10:27
    Y puede llegar a limitar
    sus sueños y aspiraciones.
  • 10:28 - 10:30
    Creo que es el momento.
  • 10:30 - 10:34
    El momento de dar un paso adelante,
    de empezar a trabajar juntos,
  • 10:34 - 10:38
    como individuos,
    organizaciones e instituciones
  • 10:38 - 10:42
    y exijamos más justicia por nuestros datos
    y los de nuestros hijos.
  • 10:43 - 10:44
    antes de que sea tarde.
  • 10:44 - 10:45
    Gracias.
  • 10:45 - 10:47
    (Aplausos)
タイトル:
Qué saben las empresas tecnológicas de tus hijos
話者:
Veronica Barassi
概説:

Según Veronica Barassi, es posible que las plataformas digitales que tanto nosotros como nuestra familia usamos a diario —desde videojuegos online hasta aplicaciones educativas y portales médicos— estén recopilando y vendiendo la información de nuestros hijos. Con esta reveladora investigación, Barassi insta a los padres a pensárselo dos veces antes de aceptar términos y condiciones y a exigir medidas para evitar que sus futuros se tuerzan.

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Spanish subtitles

改訂