Qué saben las empresas tecnológicas de tus hijos
-
0:01 - 0:05Cada día de la semana,
aceptamos términos y condiciones. -
0:05 - 0:07Al hacerlo,
-
0:07 - 0:09damos a las empresas el derecho
-
0:09 - 0:13de hacer lo que les plazca
con nuestra información -
0:13 - 0:15y con la de nuestros hijos.
-
0:17 - 0:19Y nos preguntamos:
-
0:20 - 0:22"¿cuántas cosas revelamos
sobre nuestros hijos?" -
0:23 - 0:24y "¿qué implica esto?".
-
0:26 - 0:30Soy antropóloga
y también madre de dos niñas. -
0:31 - 0:35Empecé a interesarme en este tema en 2015,
-
0:35 - 0:37cuando, de pronto, me di cuenta
-
0:38 - 0:41de la casi inconcebible cantidad
de rastreos digitales -
0:41 - 0:44con los que se recopila
información de niños. -
0:45 - 0:49Por ello, inicié un proyecto
llamado "Child Data Citizen", -
0:49 - 0:51con el objetivo de llenar ese vacío.
-
0:53 - 0:55Quizás piensen que vengo a reprocharles
-
0:56 - 0:58que suban fotos de sus hijos
a las redes sociales. -
0:58 - 1:00Pero no he venido a eso.
-
1:01 - 1:04Esto es mucho más grave
que el llamado "sharenting". -
1:05 - 1:08Esto no va de individuos,
sino de sistemas. -
1:09 - 1:11Sus hábitos y Uds.
no tienen culpa de nada. -
1:13 - 1:15Por primerísima vez en la historia,
-
1:16 - 1:20rastreamos la información de cada niño
desde mucho antes de nacer. -
1:20 - 1:24En ocasiones, antes de la fecundación
y luego, a lo largo de sus vidas. -
1:25 - 1:28Cuando los padres deciden tener un hijo,
-
1:28 - 1:31buscan en internet
"formas de quedar embarazada" -
1:31 - 1:34o descargan aplicaciones
para controlar la ovulación. -
1:35 - 1:37Cuando llega el embarazo,
-
1:38 - 1:41suben ecografías de sus bebés
a las redes sociales, -
1:41 - 1:43descargan aplicaciones para embarazadas
-
1:43 - 1:45o preguntan de todo al doctor Google,
-
1:46 - 1:47Todo tipo de cosas, como:
-
1:48 - 1:51"riesgo de aborto en pleno vuelo"
-
1:51 - 1:53o "dolores menstruales
al inicio del embarazo". -
1:54 - 1:57Lo sé porque yo lo he hecho,
y varias veces. -
1:58 - 2:03Y, al nacer el bebé, hacen un seguimiento
de cada siesta, toma o acontecimiento -
2:04 - 2:05en diferentes plataformas.
-
2:06 - 2:13Todas estas plataformas se benefician de
datos íntimos sobre salud y comportamiento -
2:14 - 2:16y los comparten entre ellas.
-
2:17 - 2:19Para que entiendan cómo funciona,
-
2:19 - 2:23en 2019, una investigación
del "British Medical Journal" -
2:23 - 2:27desveló que, de 24 aplicaciones de salud,
-
2:27 - 2:3119 compartían información con terceros.
-
2:32 - 2:38Y esos terceros compartían información
con otras 216 organizaciones. -
2:39 - 2:45De esas 216 organizaciones,
solo tres pertenecían al sector sanitario. -
2:46 - 2:50En las demás empresas con acceso a
esos datos eran gigantes de la tecnología, -
2:50 - 2:53como Google, Facebook u Oracle,
-
2:54 - 3:00había empresas de publicidad en línea
y una agencia de crédito al consumo. -
3:01 - 3:02Para que me entiendan:
-
3:03 - 3:08agencias publicitarias y de crédito
podrían tener puntos de datos de bebés. -
3:09 - 3:13Las aplicaciones móviles, redes sociales
y buscadores solo son -
3:13 - 3:15"la punta del iceberg",
-
3:15 - 3:19porque se rastrea a los niños a diario
desde múltiples tecnologías. -
3:20 - 3:23Se les sigue desde casa con dispositivos
y asistentes virtuales. -
3:24 - 3:28Desde el colegio, con herramientas TIC
y aulas virtuales. -
3:28 - 3:32Desde la consulta del médico,
con historiales clínicos y portales web. -
3:33 - 3:36Los siguen desde sus juguetes
con conexión a internet, juegos online -
3:36 - 3:39y muchas otras tecnologías.
-
3:41 - 3:44En mi investigación, muchos padres
venían a decirme cosas como: -
3:44 - 3:45"¿Y qué?".
-
3:46 - 3:49"¿Qué importa si rastrean a mis hijos?
-
3:50 - 3:51No tenemos nada que esconder".
-
3:53 - 3:54Pues sí, importa.
-
3:55 - 4:00No solo porque se hagan seguimientos
de cada persona, -
4:01 - 4:04sino porque se les clasifica
de acuerdo con lo recolectado. -
4:05 - 4:08Con la inteligencia artificial
y el análisis predictivo -
4:08 - 4:12se aprovechan al máximo
los datos de cada individuo -
4:13 - 4:14de distintas formas:
-
4:15 - 4:19hábitos de compra, historial familiar
comentarios en redes sociales... -
4:19 - 4:24Luego, combinan esos datos
y sacan conclusiones de esa persona. -
4:25 - 4:28Estas tecnologías se usan en todas partes.
-
4:28 - 4:30Los bancos las usan para dar préstamos.
-
4:31 - 4:33Las aseguradoras las usan para las primas.
-
4:34 - 4:39Las empresas y patrones las usan
para saber si alguien vale para un puesto. -
4:41 - 4:43Además, la policía y los juzgados las usan
-
4:44 - 4:50para saber la probabilidad
de que alguien cometa delito o reincida. -
4:52 - 4:56No podemos saber ni controlar
-
4:57 - 5:00la forma en la que esta gente que compra,
vende y procesa nuestros datos -
5:00 - 5:03traza perfiles sobre nosotros
y nuestros hijos. -
5:04 - 5:08Pero estos perfiles pueden afectar
gravemente nuestros derechos. -
5:09 - 5:11Pongamos un ejemplo:
-
5:14 - 5:17"The New York Times" publicó en 2018
-
5:18 - 5:23que los datos recogidos en webs
de planificación educativa, -
5:23 - 5:28que rellenan millones
de jóvenes estadounidenses -
5:28 - 5:31en busca de una beca
o un plan universitario, -
5:31 - 5:34se vendieron a brókeres de información.
-
5:36 - 5:41Pues en Fordham se investigó
a estos brókeres de lo educativo -
5:41 - 5:46y se descubrió que estas empresas
clasifican a niños de incluso dos años -
5:46 - 5:49según diferentes categorías:
-
5:50 - 5:53etnia, religión, riqueza,
-
5:54 - 5:55ansiedad social
-
5:56 - 5:58y muchas más categorías.
-
5:59 - 6:01Y luego venden esos perfiles,
-
6:01 - 6:06con el nombre del niño,
dirección y datos personales, -
6:07 - 6:08a distintas empresas,
-
6:09 - 6:11como instituciones educativas
y de comercio, -
6:12 - 6:15de servicios de becas
y cuentas bancarias para estudiantes. -
6:17 - 6:18Para avanzar en esto,
-
6:18 - 6:21los investigadores de Fordham
pidieron a uno de estos brókeres -
6:22 - 6:27que les proporcionase una lista
de chicas de entre 14 y 15 años -
6:28 - 6:31a las que les interesase
un servicio de planificación familiar. -
6:32 - 6:34El bróker accedió
a facilitarles esa lista. -
6:35 - 6:40Imagínense lo mucho que esto invade
la intimidad de nuestros hijos. -
6:41 - 6:45Pero estos brókeres de lo educativo
son solo un ejemplo. -
6:45 - 6:49Realmente, la forma en la que clasifican
a nuestros hijos escapa de nuestro control -
6:50 - 6:53y tiene un gran impacto en su futuro.
-
6:54 - 6:57Así que debemos preguntarnos:
-
6:58 - 7:02¿se puede confiar en estas tecnologías
que catalogan a nuestros hijos? -
7:02 - 7:04¿Se puede?
-
7:06 - 7:07Yo digo que no.
-
7:07 - 7:09Como antropóloga,
-
7:09 - 7:12creo que la inteligencia artificial
y el análisis predictivo -
7:12 - 7:16pueden servir para predecir enfermedades
o luchar contra el cambio climático. -
7:18 - 7:20Pero tenemos que abandonar la creencia
-
7:20 - 7:23de que estas tecnologías pueden hacer un
perfil objetivo de los seres humanos -
7:23 - 7:26y que podemos confiar en ellas
para tomar decisiones -
7:26 - 7:28basadas en datos sobre
las vidas de los individuos. -
7:29 - 7:31No pueden clasificar humanos.
-
7:31 - 7:34Los rastreos digitales
no reflejan quiénes somos. -
7:34 - 7:39Los humanos piensan una cosa y dicen otra,
sienten de una forma y actúan diferente. -
7:39 - 7:41Las predicciones algorítmicas
de lo que hacemos -
7:42 - 7:47no tienen en cuenta la impredecibilidad
y complejidad de la naturaleza humana. -
7:48 - 7:50Por si fuera poco,
-
7:50 - 7:56estas tecnologías son siempre,
de un modo u otro, subjetivas. -
7:57 - 8:02Los algoritmos son, por definición,
conjuntos de reglas o pasos -
8:02 - 8:05diseñados para conseguir
resultados concretos. -
8:07 - 8:09Pero tales reglas o pasos
no pueden ser imparciales, -
8:10 - 8:13porque los han diseñado humanos
dentro de un marco cultural concreto -
8:13 - 8:16y están influenciados
por unos valores concretos. -
8:17 - 8:20Cuando las máquinas aprenden,
lo hacen a partir de algoritmos sesgados, -
8:22 - 8:25y a menudo también aprenden
de bases de datos sesgadas. -
8:26 - 8:29Justo ahora podemos ver
los primeros casos de sesgo algorítmico. -
8:30 - 8:33Algunos de estos ejemplos
son francamente aterradores. -
8:34 - 8:38Este año, el AI Institute de Nueva York
ha publicado un informe que demuestra -
8:39 - 8:44que las inteligencias artificiales
que usa la policía predictiva -
8:44 - 8:48han aprendido de "datos sucios".
-
8:48 - 8:55Estos son datos recogidos
de épocas de claro prejuicio racial -
8:55 - 8:58y acciones policiales poco transparentes.
-
8:59 - 9:04Estas inteligencias, al alimentarse
de datos sucios, no son objetivas, -
9:04 - 9:10y los resultados solo dan lugar
a parcialidad y errores policiales. -
9:13 - 9:17Creo que nos enfrentamos
a un problema fundamental de la sociedad. -
9:18 - 9:23Nos estamos fiando de las tecnologías
a la hora de clasificar a seres humanos. -
9:24 - 9:28Ya se sabe que las tecnologías
siempre van a estar influenciadas -
9:29 - 9:31y nunca van a ser del todo exactas.
-
9:32 - 9:35Lo que en realidad necesitamos
es una es una solución política. -
9:35 - 9:40Que los gobiernos vean que la protección
de datos es un derecho humano. -
9:40 - 9:43(Aplausos y vítores)
-
9:48 - 9:52Hasta que esto no ocurra,
no esperemos un futuro más justo. -
9:53 - 9:59Me preocupa que mis hijas estén expuestas
a discriminaciones y errores algorítmicos. -
9:59 - 10:04Lo que me diferencia de mis hijas
es que no hay registros de mi infancia. -
10:05 - 10:11Por supuesto, no se conocen las tonterías
que decía y pensaba de adolescente. -
10:11 - 10:13(Risas)
-
10:14 - 10:17Pero, para mis hijas,
esto podría ser diferente. -
10:17 - 10:20Los datos que se recogen de ellas ahora
-
10:20 - 10:24pueden usarse en su contra en el futuro
-
10:24 - 10:27Y puede llegar a limitar
sus sueños y aspiraciones. -
10:28 - 10:30Creo que es el momento.
-
10:30 - 10:34El momento de dar un paso adelante,
de empezar a trabajar juntos, -
10:34 - 10:38como individuos,
organizaciones e instituciones -
10:38 - 10:42y exijamos más justicia por nuestros datos
y los de nuestros hijos. -
10:43 - 10:44antes de que sea tarde.
-
10:44 - 10:45Gracias.
-
10:45 - 10:47(Aplausos)
- Title:
- Qué saben las empresas tecnológicas de tus hijos
- Speaker:
- Veronica Barassi
- Description:
-
Según Veronica Barassi, es posible que las plataformas digitales que tanto nosotros como nuestra familia usamos a diario —desde videojuegos online hasta aplicaciones educativas y portales médicos— estén recopilando y vendiendo la información de nuestros hijos. Con esta reveladora investigación, Barassi insta a los padres a pensárselo dos veces antes de aceptar términos y condiciones y a exigir medidas para evitar que sus futuros se tuerzan.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Ciro Gomez approved Spanish subtitles for What tech companies know about your kids | ||
Ciro Gomez edited Spanish subtitles for What tech companies know about your kids | ||
Lidia Cámara de la Fuente accepted Spanish subtitles for What tech companies know about your kids | ||
Lidia Cámara de la Fuente edited Spanish subtitles for What tech companies know about your kids | ||
Marta Palacio edited Spanish subtitles for What tech companies know about your kids | ||
José María Hernández Vicente edited Spanish subtitles for What tech companies know about your kids | ||
José María Hernández Vicente edited Spanish subtitles for What tech companies know about your kids | ||
José María Hernández Vicente edited Spanish subtitles for What tech companies know about your kids |