Cada día de la semana,
aceptamos términos y condiciones.
Al hacerlo,
damos a las empresas el derecho
de hacer lo que les plazca
con nuestra información
y con la de nuestros hijos.
Y nos preguntamos:
"¿cuántas cosas revelamos
sobre nuestros hijos?"
y "¿qué implica esto?".
Soy antropóloga
y también madre de dos niñas.
Empecé a interesarme en este tema en 2015,
cuando, de pronto, me di cuenta
de la casi inconcebible cantidad
de rastreos digitales
con los que se recopila
información de niños.
Por ello, inicié un proyecto
llamado "Child Data Citizen",
con el objetivo de llenar ese vacío.
Quizás piensen que vengo a reprocharles
que suban fotos de sus hijos
a las redes sociales.
Pero no he venido a eso.
Esto es mucho más grave
que el llamado "sharenting".
Esto no va de individuos,
sino de sistemas.
Sus hábitos y Uds.
no tienen culpa de nada.
Por primerísima vez en la historia,
rastreamos la información de cada niño
desde mucho antes de nacer.
En ocasiones, antes de la fecundación
y luego, a lo largo de sus vidas.
Cuando los padres deciden tener un hijo,
buscan en internet
"formas de quedar embarazada"
o descargan aplicaciones
para controlar la ovulación.
Cuando llega el embarazo,
suben ecografías de sus bebés
a las redes sociales,
descargan aplicaciones para embarazadas
o preguntan de todo al doctor Google,
Todo tipo de cosas, como:
"riesgo de aborto en pleno vuelo"
o "dolores menstruales
al inicio del embarazo".
Lo sé porque yo lo he hecho,
y varias veces.
Y, al nacer el bebé, hacen un seguimiento
de cada siesta, toma o acontecimiento
en diferentes plataformas.
Todas estas plataformas se benefician de
datos íntimos sobre salud y comportamiento
y los comparten entre ellas.
Para que entiendan cómo funciona,
en 2019, una investigación
del "British Medical Journal"
desveló que, de 24 aplicaciones de salud,
19 compartían información con terceros.
Y esos terceros compartían información
con otras 216 organizaciones.
De esas 216 organizaciones,
solo tres pertenecían al sector sanitario.
En las demás empresas con acceso a
esos datos eran gigantes de la tecnología,
como Google, Facebook u Oracle,
había empresas de publicidad en línea
y una agencia de crédito al consumo.
Para que me entiendan:
agencias publicitarias y de crédito
podrían tener puntos de datos de bebés.
Las aplicaciones móviles, redes sociales
y buscadores solo son
"la punta del iceberg",
porque se rastrea a los niños a diario
desde múltiples tecnologías.
Se les sigue desde casa con dispositivos
y asistentes virtuales.
Desde el colegio, con herramientas TIC
y aulas virtuales.
Desde la consulta del médico,
con historiales clínicos y portales web.
Los siguen desde sus juguetes
con conexión a internet, juegos online
y muchas otras tecnologías.
En mi investigación, muchos padres
venían a decirme cosas como:
"¿Y qué?".
"¿Qué importa si rastrean a mis hijos?
No tenemos nada que esconder".
Pues sí, importa.
No solo porque se hagan seguimientos
de cada persona,
sino porque se les clasifica
de acuerdo con lo recolectado.
Con la inteligencia artificial
y el análisis predictivo
se aprovechan al máximo
los datos de cada individuo
de distintas formas:
hábitos de compra, historial familiar
comentarios en redes sociales...
Luego, combinan esos datos
y sacan conclusiones de esa persona.
Estas tecnologías se usan en todas partes.
Los bancos las usan para dar préstamos.
Las aseguradoras las usan para las primas.
Las empresas y patrones las usan
para saber si alguien vale para un puesto.
Además, la policía y los juzgados las usan
para saber la probabilidad
de que alguien cometa delito o reincida.
No podemos saber ni controlar
la forma en la que esta gente que compra,
vende y procesa nuestros datos
traza perfiles sobre nosotros
y nuestros hijos.
Pero estos perfiles pueden afectar
gravemente nuestros derechos.
Pongamos un ejemplo:
"The New York Times" publicó en 2018
que los datos recogidos en webs
de planificación educativa,
que rellenan millones
de jóvenes estadounidenses
en busca de una beca
o un plan universitario,
se vendieron a brókeres de información.
Pues en Fordham se investigó
a estos brókeres de lo educativo
y se descubrió que estas empresas
clasifican a niños de incluso dos años
según diferentes categorías:
etnia, religión, riqueza,
ansiedad social
y muchas más categorías.
Y luego venden esos perfiles,
con el nombre del niño,
dirección y datos personales,
a distintas empresas,
como instituciones educativas
y de comercio,
de servicios de becas
y cuentas bancarias para estudiantes.
Para avanzar en esto,
los investigadores de Fordham
pidieron a uno de estos brókeres
que les proporcionase una lista
de chicas de entre 14 y 15 años
a las que les interesase
un servicio de planificación familiar.
El bróker accedió
a facilitarles esa lista.
Imagínense lo mucho que esto invade
la intimidad de nuestros hijos.
Pero estos brókeres de lo educativo
son solo un ejemplo.
Realmente, la forma en la que clasifican
a nuestros hijos escapa de nuestro control
y tiene un gran impacto en su futuro.
Así que debemos preguntarnos:
¿se puede confiar en estas tecnologías
que catalogan a nuestros hijos?
¿Se puede?
Yo digo que no.
Como antropóloga,
creo que la inteligencia artificial
y el análisis predictivo
pueden servir para predecir enfermedades
o luchar contra el cambio climático.
Pero tenemos que abandonar la creencia
de que estas tecnologías pueden hacer un
perfil objetivo de los seres humanos
y que podemos confiar en ellas
para tomar decisiones
basadas en datos sobre
las vidas de los individuos.
No pueden clasificar humanos.
Los rastreos digitales
no reflejan quiénes somos.
Los humanos piensan una cosa y dicen otra,
sienten de una forma y actúan diferente.
Las predicciones algorítmicas
de lo que hacemos
no tienen en cuenta la impredecibilidad
y complejidad de la naturaleza humana.
Por si fuera poco,
estas tecnologías son siempre,
de un modo u otro, subjetivas.
Los algoritmos son, por definición,
conjuntos de reglas o pasos
diseñados para conseguir
resultados concretos.
Pero tales reglas o pasos
no pueden ser imparciales,
porque los han diseñado humanos
dentro de un marco cultural concreto
y están influenciados
por unos valores concretos.
Cuando las máquinas aprenden,
lo hacen a partir de algoritmos sesgados,
y a menudo también aprenden
de bases de datos sesgadas.
Justo ahora podemos ver
los primeros casos de sesgo algorítmico.
Algunos de estos ejemplos
son francamente aterradores.
Este año, el AI Institute de Nueva York
ha publicado un informe que demuestra
que las inteligencias artificiales
que usa la policía predictiva
han aprendido de "datos sucios".
Estos son datos recogidos
de épocas de claro prejuicio racial
y acciones policiales poco transparentes.
Estas inteligencias, al alimentarse
de datos sucios, no son objetivas,
y los resultados solo dan lugar
a parcialidad y errores policiales.
Creo que nos enfrentamos
a un problema fundamental de la sociedad.
Nos estamos fiando de las tecnologías
a la hora de clasificar a seres humanos.
Ya se sabe que las tecnologías
siempre van a estar influenciadas
y nunca van a ser del todo exactas.
Lo que en realidad necesitamos
es una es una solución política.
Que los gobiernos vean que la protección
de datos es un derecho humano.
(Aplausos y vítores)
Hasta que esto no ocurra,
no esperemos un futuro más justo.
Me preocupa que mis hijas estén expuestas
a discriminaciones y errores algorítmicos.
Lo que me diferencia de mis hijas
es que no hay registros de mi infancia.
Por supuesto, no se conocen las tonterías
que decía y pensaba de adolescente.
(Risas)
Pero, para mis hijas,
esto podría ser diferente.
Los datos que se recogen de ellas ahora
pueden usarse en su contra en el futuro
Y puede llegar a limitar
sus sueños y aspiraciones.
Creo que es el momento.
El momento de dar un paso adelante,
de empezar a trabajar juntos,
como individuos,
organizaciones e instituciones
y exijamos más justicia por nuestros datos
y los de nuestros hijos.
antes de que sea tarde.
Gracias.
(Aplausos)