0:00:00.792,0:00:04.899 Cada día de la semana, [br]aceptamos términos y condiciones. 0:00:05.182,0:00:06.548 Al hacerlo, 0:00:06.792,0:00:09.048 damos a las empresas el derecho 0:00:09.292,0:00:12.696 de hacer lo que les plazca[br]con nuestra información 0:00:13.000,0:00:15.375 y con la de nuestros hijos. 0:00:16.792,0:00:19.252 Y nos preguntamos: 0:00:19.792,0:00:22.153 "¿cuántas cosas revelamos[br]sobre nuestros hijos?" 0:00:22.708,0:00:24.408 y "¿qué implica esto?". 0:00:26.500,0:00:29.853 Soy antropóloga[br]y también madre de dos niñas. 0:00:30.542,0:00:34.528 Empecé a interesarme en este tema en 2015, 0:00:35.042,0:00:37.108 cuando, de pronto, me di cuenta 0:00:37.792,0:00:40.579 de la casi inconcebible cantidad[br]de rastreos digitales 0:00:40.833,0:00:44.000 con los que se recopila[br]información de niños. 0:00:44.792,0:00:48.788 Por ello, inicié un proyecto[br]llamado "Child Data Citizen", 0:00:49.292,0:00:51.417 con el objetivo de llenar ese vacío. 0:00:52.583,0:00:55.401 Quizás piensen que vengo a reprocharles 0:00:55.625,0:00:57.959 que suban fotos de sus hijos[br]a las redes sociales. 0:00:58.417,0:01:00.109 Pero no he venido a eso. 0:01:00.583,0:01:03.799 Esto es mucho más grave[br]que el llamado "sharenting". 0:01:04.792,0:01:08.356 Esto no va de individuos,[br]sino de sistemas. 0:01:08.917,0:01:11.208 Sus hábitos y Uds. [br]no tienen culpa de nada. 0:01:12.833,0:01:15.287 Por primerísima vez en la historia, 0:01:15.708,0:01:19.578 rastreamos la información de cada niño[br]desde mucho antes de nacer. 0:01:20.083,0:01:24.408 En ocasiones, antes de la fecundación[br]y luego, a lo largo de sus vidas. 0:01:25.167,0:01:27.948 Cuando los padres deciden tener un hijo, 0:01:28.292,0:01:30.724 buscan en internet[br]"formas de quedar embarazada" 0:01:31.292,0:01:34.042 o descargan aplicaciones[br]para controlar la ovulación. 0:01:35.250,0:01:37.381 Cuando llega el embarazo, 0:01:37.875,0:01:40.572 suben ecografías de sus bebés[br]a las redes sociales, 0:01:40.942,0:01:42.858 descargan aplicaciones para embarazadas 0:01:43.083,0:01:45.361 o preguntan de todo al doctor Google, 0:01:45.583,0:01:47.348 Todo tipo de cosas, como: 0:01:48.271,0:01:50.681 "riesgo de aborto en pleno vuelo" 0:01:51.128,0:01:53.366 o "dolores menstruales[br]al inicio del embarazo". 0:01:53.750,0:01:56.989 Lo sé porque yo lo he hecho,[br]y varias veces. 0:01:58.458,0:02:03.281 Y, al nacer el bebé, hacen un seguimiento[br]de cada siesta, toma o acontecimiento 0:02:03.645,0:02:05.427 en diferentes plataformas. 0:02:06.083,0:02:13.209 Todas estas plataformas se benefician de[br]datos íntimos sobre salud y comportamiento 0:02:13.750,0:02:15.542 y los comparten entre ellas. 0:02:16.583,0:02:18.584 Para que entiendan cómo funciona, 0:02:18.750,0:02:22.719 en 2019, una investigación[br]del "British Medical Journal" 0:02:23.158,0:02:27.025 desveló que, de 24 aplicaciones de salud, 0:02:27.469,0:02:30.969 19 compartían información con terceros. 0:02:32.083,0:02:37.917 Y esos terceros compartían información[br]con otras 216 organizaciones. 0:02:38.875,0:02:44.594 De esas 216 organizaciones,[br]solo tres pertenecían al sector sanitario. 0:02:45.500,0:02:49.768 En las demás empresas con acceso a [br]esos datos eran gigantes de la tecnología, 0:02:50.042,0:02:53.102 como Google, Facebook u Oracle, 0:02:53.583,0:02:59.807 había empresas de publicidad en línea[br]y una agencia de crédito al consumo. 0:03:01.125,0:03:02.319 Para que me entiendan: 0:03:02.583,0:03:07.708 agencias publicitarias y de crédito[br]podrían tener puntos de datos de bebés. 0:03:09.125,0:03:13.013 Las aplicaciones móviles, redes sociales[br]y buscadores solo son 0:03:13.497,0:03:14.828 "la punta del iceberg", 0:03:15.042,0:03:18.898 porque se rastrea a los niños a diario[br]desde múltiples tecnologías. 0:03:19.667,0:03:23.375 Se les sigue desde casa con dispositivos[br]y asistentes virtuales. 0:03:23.833,0:03:27.503 Desde el colegio, con herramientas TIC[br]y aulas virtuales. 0:03:28.042,0:03:32.011 Desde la consulta del médico, [br]con historiales clínicos y portales web. 0:03:32.708,0:03:36.030 Los siguen desde sus juguetes[br]con conexión a internet, juegos online 0:03:36.417,0:03:39.083 y muchas otras tecnologías. 0:03:40.787,0:03:43.856 En mi investigación, muchos padres[br]venían a decirme cosas como: 0:03:44.253,0:03:45.253 "¿Y qué?". 0:03:45.983,0:03:48.918 "¿Qué importa si rastrean a mis hijos? 0:03:49.808,0:03:51.378 No tenemos nada que esconder". 0:03:52.958,0:03:54.458 Pues sí, importa. 0:03:55.083,0:04:00.131 No solo porque se hagan seguimientos[br]de cada persona, 0:04:01.125,0:04:04.316 sino porque se les clasifica[br]de acuerdo con lo recolectado. 0:04:05.250,0:04:07.857 Con la inteligencia artificial[br]y el análisis predictivo 0:04:08.053,0:04:12.266 se aprovechan al máximo[br]los datos de cada individuo 0:04:12.660,0:04:14.171 de distintas formas: 0:04:14.625,0:04:18.521 hábitos de compra, historial familiar [br]comentarios en redes sociales... 0:04:19.167,0:04:23.778 Luego, combinan esos datos[br]y sacan conclusiones de esa persona. 0:04:24.792,0:04:27.816 Estas tecnologías se usan en todas partes. 0:04:28.250,0:04:30.283 Los bancos las usan para dar préstamos. 0:04:30.667,0:04:33.042 Las aseguradoras las usan para las primas. 0:04:34.208,0:04:39.294 Las empresas y patrones las usan[br]para saber si alguien vale para un puesto. 0:04:40.750,0:04:43.489 Además, la policía y los juzgados las usan 0:04:43.875,0:04:49.849 para saber la probabilidad[br]de que alguien cometa delito o reincida. 0:04:52.458,0:04:56.408 No podemos saber ni controlar 0:04:56.542,0:05:00.184 la forma en la que esta gente que compra,[br]vende y procesa nuestros datos 0:05:00.208,0:05:02.917 traza perfiles sobre nosotros[br]y nuestros hijos. 0:05:03.625,0:05:07.667 Pero estos perfiles pueden afectar[br]gravemente nuestros derechos. 0:05:08.917,0:05:11.125 Pongamos un ejemplo: 0:05:13.792,0:05:17.461 "The New York Times" publicó en 2018 0:05:17.875,0:05:22.601 que los datos recogidos en webs[br]de planificación educativa, 0:05:22.958,0:05:27.524 que rellenan millones[br]de jóvenes estadounidenses 0:05:27.708,0:05:31.031 en busca de una beca[br]o un plan universitario, 0:05:31.375,0:05:34.417 se vendieron a brókeres de información. 0:05:35.792,0:05:40.886 Pues en Fordham se investigó[br]a estos brókeres de lo educativo 0:05:41.250,0:05:46.106 y se descubrió que estas empresas[br]clasifican a niños de incluso dos años 0:05:46.500,0:05:48.959 según diferentes categorías: 0:05:49.583,0:05:53.018 etnia, religión, riqueza, 0:05:53.792,0:05:55.461 ansiedad social 0:05:55.875,0:05:58.179 y muchas más categorías. 0:05:58.833,0:06:01.171 Y luego venden esos perfiles, 0:06:01.425,0:06:06.320 con el nombre del niño,[br]dirección y datos personales, 0:06:06.708,0:06:08.249 a distintas empresas, 0:06:08.583,0:06:11.042 como instituciones educativas[br]y de comercio, 0:06:12.083,0:06:15.191 de servicios de becas[br]y cuentas bancarias para estudiantes. 0:06:16.542,0:06:17.743 Para avanzar en esto, 0:06:17.917,0:06:21.324 los investigadores de Fordham[br]pidieron a uno de estos brókeres 0:06:21.750,0:06:27.069 que les proporcionase una lista[br]de chicas de entre 14 y 15 años 0:06:27.583,0:06:30.778 a las que les interesase[br]un servicio de planificación familiar. 0:06:32.208,0:06:34.284 El bróker accedió[br]a facilitarles esa lista. 0:06:34.708,0:06:39.583 Imagínense lo mucho que esto invade[br]la intimidad de nuestros hijos. 0:06:40.833,0:06:44.543 Pero estos brókeres de lo educativo[br]son solo un ejemplo. 0:06:44.833,0:06:49.178 Realmente, la forma en la que clasifican[br]a nuestros hijos escapa de nuestro control 0:06:49.542,0:06:52.958 y tiene un gran impacto en su futuro. 0:06:54.167,0:06:57.163 Así que debemos preguntarnos: 0:06:57.667,0:07:02.030 ¿se puede confiar en estas tecnologías[br]que catalogan a nuestros hijos? 0:07:02.275,0:07:03.625 ¿Se puede? 0:07:05.708,0:07:06.958 Yo digo que no. 0:07:07.462,0:07:08.679 Como antropóloga, 0:07:08.793,0:07:11.711 creo que la inteligencia artificial[br]y el análisis predictivo 0:07:11.915,0:07:16.486 pueden servir para predecir enfermedades[br]o luchar contra el cambio climático. 0:07:17.770,0:07:19.597 Pero tenemos que abandonar la creencia 0:07:19.597,0:07:23.375 de que estas tecnologías pueden hacer un [br]perfil objetivo de los seres humanos 0:07:23.375,0:07:25.990 y que podemos confiar en ellas [br]para tomar decisiones 0:07:26.000,0:07:28.500 basadas en datos sobre [br]las vidas de los individuos. 0:07:28.530,0:07:30.689 No pueden clasificar humanos. 0:07:31.083,0:07:33.864 Los rastreos digitales[br]no reflejan quiénes somos. 0:07:34.308,0:07:38.536 Los humanos piensan una cosa y dicen otra,[br]sienten de una forma y actúan diferente. 0:07:39.042,0:07:41.358 Las predicciones algorítmicas[br]de lo que hacemos 0:07:41.542,0:07:46.708 no tienen en cuenta la impredecibilidad[br]y complejidad de la naturaleza humana. 0:07:48.417,0:07:49.786 Por si fuera poco, 0:07:50.000,0:07:55.764 estas tecnologías son siempre,[br]de un modo u otro, subjetivas. 0:07:57.125,0:08:01.933 Los algoritmos son, por definición,[br]conjuntos de reglas o pasos 0:08:02.208,0:08:05.047 diseñados para conseguir[br]resultados concretos. 0:08:06.833,0:08:09.258 Pero tales reglas o pasos[br]no pueden ser imparciales, 0:08:09.583,0:08:13.040 porque los han diseñado humanos[br]dentro de un marco cultural concreto 0:08:13.400,0:08:15.910 y están influenciados[br]por unos valores concretos. 0:08:16.667,0:08:20.466 Cuando las máquinas aprenden,[br]lo hacen a partir de algoritmos sesgados, 0:08:21.625,0:08:24.833 y a menudo también aprenden[br]de bases de datos sesgadas. 0:08:25.833,0:08:29.108 Justo ahora podemos ver[br]los primeros casos de sesgo algorítmico. 0:08:29.583,0:08:32.983 Algunos de estos ejemplos[br]son francamente aterradores. 0:08:34.500,0:08:38.249 Este año, el AI Institute de Nueva York[br]ha publicado un informe que demuestra 0:08:38.583,0:08:43.946 que las inteligencias artificiales[br]que usa la policía predictiva 0:08:44.500,0:08:47.625 han aprendido de "datos sucios". 0:08:48.333,0:08:54.883 Estos son datos recogidos[br]de épocas de claro prejuicio racial 0:08:55.458,0:08:57.708 y acciones policiales poco transparentes. 0:08:58.542,0:09:03.560 Estas inteligencias, al alimentarse[br]de datos sucios, no son objetivas, 0:09:04.083,0:09:10.029 y los resultados solo dan lugar[br]a parcialidad y errores policiales. 0:09:13.167,0:09:17.361 Creo que nos enfrentamos[br]a un problema fundamental de la sociedad. 0:09:18.000,0:09:22.792 Nos estamos fiando de las tecnologías[br]a la hora de clasificar a seres humanos. 0:09:23.750,0:09:28.496 Ya se sabe que las tecnologías[br]siempre van a estar influenciadas 0:09:29.035,0:09:31.321 y nunca van a ser del todo exactas. 0:09:31.635,0:09:34.699 Lo que en realidad necesitamos[br]es una es una solución política. 0:09:34.833,0:09:39.542 Que los gobiernos vean que la protección[br]de datos es un derecho humano. 0:09:40.082,0:09:42.707 (Aplausos y vítores) 0:09:47.833,0:09:51.917 Hasta que esto no ocurra,[br]no esperemos un futuro más justo. 0:09:52.750,0:09:58.829 Me preocupa que mis hijas estén expuestas[br]a discriminaciones y errores algorítmicos. 0:09:59.250,0:10:04.113 Lo que me diferencia de mis hijas[br]es que no hay registros de mi infancia. 0:10:04.875,0:10:10.963 Por supuesto, no se conocen las tonterías[br]que decía y pensaba de adolescente. 0:10:11.312,0:10:12.812 (Risas) 0:10:13.833,0:10:16.583 Pero, para mis hijas,[br]esto podría ser diferente. 0:10:17.292,0:10:19.986 Los datos que se recogen de ellas ahora 0:10:20.500,0:10:23.639 pueden usarse en su contra en el futuro 0:10:24.333,0:10:27.292 Y puede llegar a limitar[br]sus sueños y aspiraciones. 0:10:28.423,0:10:29.871 Creo que es el momento. 0:10:30.125,0:10:33.688 El momento de dar un paso adelante,[br]de empezar a trabajar juntos, 0:10:34.083,0:10:37.743 como individuos,[br]organizaciones e instituciones 0:10:38.083,0:10:42.388 y exijamos más justicia por nuestros datos[br]y los de nuestros hijos. 0:10:42.625,0:10:43.873 antes de que sea tarde. 0:10:44.167,0:10:45.187 Gracias. 0:10:45.458,0:10:46.875 (Aplausos)