WEBVTT 00:00:00.792 --> 00:00:04.899 Cada día de la semana, aceptamos términos y condiciones. 00:00:05.182 --> 00:00:06.548 Al hacerlo, 00:00:06.792 --> 00:00:09.048 damos a las empresas el derecho 00:00:09.292 --> 00:00:12.696 de hacer lo que les plazca con nuestra información 00:00:13.000 --> 00:00:15.375 y con la de nuestros hijos. 00:00:16.792 --> 00:00:19.252 Y nos preguntamos: 00:00:19.792 --> 00:00:22.153 "¿cuántas cosas revelamos sobre nuestros hijos?" 00:00:22.708 --> 00:00:24.408 y "¿qué implica esto?". NOTE Paragraph 00:00:26.500 --> 00:00:29.853 Soy antropóloga y también madre de dos niñas. NOTE Paragraph 00:00:30.542 --> 00:00:34.528 Empecé a interesarme en este tema en 2015, 00:00:35.042 --> 00:00:37.108 cuando, de pronto, me di cuenta 00:00:37.792 --> 00:00:40.579 de la casi inconcebible cantidad de rastreos digitales 00:00:40.833 --> 00:00:44.000 con los que se recopila información de niños. 00:00:44.792 --> 00:00:48.788 Por ello, inicié un proyecto llamado "Child Data Citizen", 00:00:49.292 --> 00:00:51.417 con el objetivo de llenar ese vacío. NOTE Paragraph 00:00:52.583 --> 00:00:55.401 Quizás piensen que vengo a reprocharles 00:00:55.625 --> 00:00:57.959 que suban fotos de sus hijos a las redes sociales. 00:00:58.417 --> 00:01:00.109 Pero no he venido a eso. 00:01:00.583 --> 00:01:03.799 Esto es mucho más grave que el llamado "sharenting". 00:01:04.792 --> 00:01:08.356 Esto no va de individuos, sino de sistemas. 00:01:08.917 --> 00:01:11.208 Sus hábitos y Uds. no tienen culpa de nada. NOTE Paragraph 00:01:12.833 --> 00:01:15.287 Por primerísima vez en la historia, 00:01:15.708 --> 00:01:19.578 rastreamos la información de cada niño desde mucho antes de nacer. 00:01:20.083 --> 00:01:24.408 En ocasiones, antes de la fecundación y luego, a lo largo de sus vidas. 00:01:25.167 --> 00:01:27.948 Cuando los padres deciden tener un hijo, 00:01:28.292 --> 00:01:30.724 buscan en internet "formas de quedar embarazada" 00:01:31.292 --> 00:01:34.042 o descargan aplicaciones para controlar la ovulación. 00:01:35.250 --> 00:01:37.381 Cuando llega el embarazo, 00:01:37.875 --> 00:01:40.572 suben ecografías de sus bebés a las redes sociales, 00:01:40.942 --> 00:01:42.858 descargan aplicaciones para embarazadas 00:01:43.083 --> 00:01:45.361 o preguntan de todo al doctor Google, 00:01:45.583 --> 00:01:47.348 Todo tipo de cosas, como: 00:01:48.271 --> 00:01:50.681 "riesgo de aborto en pleno vuelo" 00:01:51.128 --> 00:01:53.366 o "dolores menstruales al inicio del embarazo". 00:01:53.750 --> 00:01:56.989 Lo sé porque yo lo he hecho, y varias veces. 00:01:58.458 --> 00:02:03.281 Y, al nacer el bebé, hacen un seguimiento de cada siesta, toma o acontecimiento 00:02:03.645 --> 00:02:05.427 en diferentes plataformas. 00:02:06.083 --> 00:02:13.209 Todas estas plataformas se benefician de datos íntimos sobre salud y comportamiento 00:02:13.750 --> 00:02:15.542 y los comparten entre ellas. NOTE Paragraph 00:02:16.583 --> 00:02:18.584 Para que entiendan cómo funciona, 00:02:18.750 --> 00:02:22.719 en 2019, una investigación del "British Medical Journal" 00:02:23.158 --> 00:02:27.025 desveló que, de 24 aplicaciones de salud, 00:02:27.469 --> 00:02:30.969 19 compartían información con terceros. 00:02:32.083 --> 00:02:37.917 Y esos terceros compartían información con otras 216 organizaciones. 00:02:38.875 --> 00:02:44.594 De esas 216 organizaciones, solo tres pertenecían al sector sanitario. 00:02:45.500 --> 00:02:49.768 En las demás empresas con acceso a esos datos eran gigantes de la tecnología, 00:02:50.042 --> 00:02:53.102 como Google, Facebook u Oracle, 00:02:53.583 --> 00:02:59.807 había empresas de publicidad en línea y una agencia de crédito al consumo. 00:03:01.125 --> 00:03:02.319 Para que me entiendan: 00:03:02.583 --> 00:03:07.708 agencias publicitarias y de crédito podrían tener puntos de datos de bebés. 00:03:09.125 --> 00:03:13.013 Las aplicaciones móviles, redes sociales y buscadores solo son 00:03:13.497 --> 00:03:14.828 "la punta del iceberg", 00:03:15.042 --> 00:03:18.898 porque se rastrea a los niños a diario desde múltiples tecnologías. 00:03:19.667 --> 00:03:23.375 Se les sigue desde casa con dispositivos y asistentes virtuales. 00:03:23.833 --> 00:03:27.503 Desde el colegio, con herramientas TIC y aulas virtuales. 00:03:28.042 --> 00:03:32.011 Desde la consulta del médico, con historiales clínicos y portales web. 00:03:32.708 --> 00:03:36.030 Los siguen desde sus juguetes con conexión a internet, juegos online 00:03:36.417 --> 00:03:39.083 y muchas otras tecnologías. NOTE Paragraph 00:03:40.787 --> 00:03:43.856 En mi investigación, muchos padres venían a decirme cosas como: 00:03:44.253 --> 00:03:45.253 "¿Y qué?". 00:03:45.983 --> 00:03:48.918 "¿Qué importa si rastrean a mis hijos? 00:03:49.808 --> 00:03:51.378 No tenemos nada que esconder". 00:03:52.958 --> 00:03:54.458 Pues sí, importa. 00:03:55.083 --> 00:04:00.131 No solo porque se hagan seguimientos de cada persona, 00:04:01.125 --> 00:04:04.316 sino porque se les clasifica de acuerdo con lo recolectado. 00:04:05.250 --> 00:04:07.857 Con la inteligencia artificial y el análisis predictivo 00:04:08.053 --> 00:04:12.266 se aprovechan al máximo los datos de cada individuo 00:04:12.660 --> 00:04:14.171 de distintas formas: 00:04:14.625 --> 00:04:18.521 hábitos de compra, historial familiar comentarios en redes sociales... 00:04:19.167 --> 00:04:23.778 Luego, combinan esos datos y sacan conclusiones de esa persona. 00:04:24.792 --> 00:04:27.816 Estas tecnologías se usan en todas partes. 00:04:28.250 --> 00:04:30.283 Los bancos las usan para dar préstamos. 00:04:30.667 --> 00:04:33.042 Las aseguradoras las usan para las primas. 00:04:34.208 --> 00:04:39.294 Las empresas y patrones las usan para saber si alguien vale para un puesto. 00:04:40.750 --> 00:04:43.489 Además, la policía y los juzgados las usan 00:04:43.875 --> 00:04:49.849 para saber la probabilidad de que alguien cometa delito o reincida. NOTE Paragraph 00:04:52.458 --> 00:04:56.408 No podemos saber ni controlar 00:04:56.542 --> 00:05:00.184 la forma en la que esta gente que compra, vende y procesa nuestros datos 00:05:00.208 --> 00:05:02.917 traza perfiles sobre nosotros y nuestros hijos. 00:05:03.625 --> 00:05:07.667 Pero estos perfiles pueden afectar gravemente nuestros derechos. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 Pongamos un ejemplo: 00:05:13.792 --> 00:05:17.461 "The New York Times" publicó en 2018 00:05:17.875 --> 00:05:22.601 que los datos recogidos en webs de planificación educativa, 00:05:22.958 --> 00:05:27.524 que rellenan millones de jóvenes estadounidenses 00:05:27.708 --> 00:05:31.031 en busca de una beca o un plan universitario, 00:05:31.375 --> 00:05:34.417 se vendieron a brókeres de información. 00:05:35.792 --> 00:05:40.886 Pues en Fordham se investigó a estos brókeres de lo educativo 00:05:41.250 --> 00:05:46.106 y se descubrió que estas empresas clasifican a niños de incluso dos años 00:05:46.500 --> 00:05:48.959 según diferentes categorías: 00:05:49.583 --> 00:05:53.018 etnia, religión, riqueza, 00:05:53.792 --> 00:05:55.461 ansiedad social 00:05:55.875 --> 00:05:58.179 y muchas más categorías. 00:05:58.833 --> 00:06:01.171 Y luego venden esos perfiles, 00:06:01.425 --> 00:06:06.320 con el nombre del niño, dirección y datos personales, 00:06:06.708 --> 00:06:08.249 a distintas empresas, 00:06:08.583 --> 00:06:11.042 como instituciones educativas y de comercio, 00:06:12.083 --> 00:06:15.191 de servicios de becas y cuentas bancarias para estudiantes. 00:06:16.542 --> 00:06:17.743 Para avanzar en esto, 00:06:17.917 --> 00:06:21.324 los investigadores de Fordham pidieron a uno de estos brókeres 00:06:21.750 --> 00:06:27.069 que les proporcionase una lista de chicas de entre 14 y 15 años 00:06:27.583 --> 00:06:30.778 a las que les interesase un servicio de planificación familiar. 00:06:32.208 --> 00:06:34.284 El bróker accedió a facilitarles esa lista. 00:06:34.708 --> 00:06:39.583 Imagínense lo mucho que esto invade la intimidad de nuestros hijos. 00:06:40.833 --> 00:06:44.543 Pero estos brókeres de lo educativo son solo un ejemplo. 00:06:44.833 --> 00:06:49.178 Realmente, la forma en la que clasifican a nuestros hijos escapa de nuestro control 00:06:49.542 --> 00:06:52.958 y tiene un gran impacto en su futuro. NOTE Paragraph 00:06:54.167 --> 00:06:57.163 Así que debemos preguntarnos: 00:06:57.667 --> 00:07:02.030 ¿se puede confiar en estas tecnologías que catalogan a nuestros hijos? 00:07:02.275 --> 00:07:03.625 ¿Se puede? 00:07:05.708 --> 00:07:06.958 Yo digo que no. 00:07:07.462 --> 00:07:08.679 Como antropóloga, 00:07:08.793 --> 00:07:11.711 creo que la inteligencia artificial y el análisis predictivo 00:07:11.915 --> 00:07:16.486 pueden servir para predecir enfermedades o luchar contra el cambio climático. 00:07:17.770 --> 00:07:19.597 Pero tenemos que abandonar la creencia 00:07:19.597 --> 00:07:23.375 de que estas tecnologías pueden hacer un perfil objetivo de los seres humanos 00:07:23.375 --> 00:07:25.990 y que podemos confiar en ellas para tomar decisiones 00:07:26.000 --> 00:07:28.500 basadas en datos sobre las vidas de los individuos. 00:07:28.530 --> 00:07:30.689 No pueden clasificar humanos. 00:07:31.083 --> 00:07:33.864 Los rastreos digitales no reflejan quiénes somos. 00:07:34.308 --> 00:07:38.536 Los humanos piensan una cosa y dicen otra, sienten de una forma y actúan diferente. 00:07:39.042 --> 00:07:41.358 Las predicciones algorítmicas de lo que hacemos 00:07:41.542 --> 00:07:46.708 no tienen en cuenta la impredecibilidad y complejidad de la naturaleza humana. NOTE Paragraph 00:07:48.417 --> 00:07:49.786 Por si fuera poco, 00:07:50.000 --> 00:07:55.764 estas tecnologías son siempre, de un modo u otro, subjetivas. 00:07:57.125 --> 00:08:01.933 Los algoritmos son, por definición, conjuntos de reglas o pasos 00:08:02.208 --> 00:08:05.047 diseñados para conseguir resultados concretos. 00:08:06.833 --> 00:08:09.258 Pero tales reglas o pasos no pueden ser imparciales, 00:08:09.583 --> 00:08:13.040 porque los han diseñado humanos dentro de un marco cultural concreto 00:08:13.400 --> 00:08:15.910 y están influenciados por unos valores concretos. 00:08:16.667 --> 00:08:20.466 Cuando las máquinas aprenden, lo hacen a partir de algoritmos sesgados, 00:08:21.625 --> 00:08:24.833 y a menudo también aprenden de bases de datos sesgadas. NOTE Paragraph 00:08:25.833 --> 00:08:29.108 Justo ahora podemos ver los primeros casos de sesgo algorítmico. 00:08:29.583 --> 00:08:32.983 Algunos de estos ejemplos son francamente aterradores. 00:08:34.500 --> 00:08:38.249 Este año, el AI Institute de Nueva York ha publicado un informe que demuestra 00:08:38.583 --> 00:08:43.946 que las inteligencias artificiales que usa la policía predictiva 00:08:44.500 --> 00:08:47.625 han aprendido de "datos sucios". 00:08:48.333 --> 00:08:54.883 Estos son datos recogidos de épocas de claro prejuicio racial 00:08:55.458 --> 00:08:57.708 y acciones policiales poco transparentes. 00:08:58.542 --> 00:09:03.560 Estas inteligencias, al alimentarse de datos sucios, no son objetivas, 00:09:04.083 --> 00:09:10.029 y los resultados solo dan lugar a parcialidad y errores policiales. NOTE Paragraph 00:09:13.167 --> 00:09:17.361 Creo que nos enfrentamos a un problema fundamental de la sociedad. 00:09:18.000 --> 00:09:22.792 Nos estamos fiando de las tecnologías a la hora de clasificar a seres humanos. 00:09:23.750 --> 00:09:28.496 Ya se sabe que las tecnologías siempre van a estar influenciadas 00:09:29.035 --> 00:09:31.321 y nunca van a ser del todo exactas. 00:09:31.635 --> 00:09:34.699 Lo que en realidad necesitamos es una es una solución política. 00:09:34.833 --> 00:09:39.542 Que los gobiernos vean que la protección de datos es un derecho humano. NOTE Paragraph 00:09:40.082 --> 00:09:42.707 (Aplausos y vítores) NOTE Paragraph 00:09:47.833 --> 00:09:51.917 Hasta que esto no ocurra, no esperemos un futuro más justo. 00:09:52.750 --> 00:09:58.829 Me preocupa que mis hijas estén expuestas a discriminaciones y errores algorítmicos. 00:09:59.250 --> 00:10:04.113 Lo que me diferencia de mis hijas es que no hay registros de mi infancia. 00:10:04.875 --> 00:10:10.963 Por supuesto, no se conocen las tonterías que decía y pensaba de adolescente. NOTE Paragraph 00:10:11.312 --> 00:10:12.812 (Risas) NOTE Paragraph 00:10:13.833 --> 00:10:16.583 Pero, para mis hijas, esto podría ser diferente. 00:10:17.292 --> 00:10:19.986 Los datos que se recogen de ellas ahora 00:10:20.500 --> 00:10:23.639 pueden usarse en su contra en el futuro 00:10:24.333 --> 00:10:27.292 Y puede llegar a limitar sus sueños y aspiraciones. NOTE Paragraph 00:10:28.423 --> 00:10:29.871 Creo que es el momento. 00:10:30.125 --> 00:10:33.688 El momento de dar un paso adelante, de empezar a trabajar juntos, 00:10:34.083 --> 00:10:37.743 como individuos, organizaciones e instituciones 00:10:38.083 --> 00:10:42.388 y exijamos más justicia por nuestros datos y los de nuestros hijos. 00:10:42.625 --> 00:10:43.873 antes de que sea tarde. NOTE Paragraph 00:10:44.167 --> 00:10:45.187 Gracias. NOTE Paragraph 00:10:45.458 --> 00:10:46.875 (Aplausos)