Spanish subtítols

← Qué saben las empresas tecnológicas de tus hijos

Obtén el codi d'incrustació
36 llengües

Showing Revision 13 created 07/26/2020 by Ciro Gomez.

  1. Cada día de la semana,
    aceptamos términos y condiciones.
  2. Al hacerlo,
  3. damos a las empresas el derecho
  4. de hacer lo que les plazca
    con nuestra información
  5. y con la de nuestros hijos.
  6. Y nos preguntamos:
  7. "¿cuántas cosas revelamos
    sobre nuestros hijos?"
  8. y "¿qué implica esto?".
  9. Soy antropóloga
    y también madre de dos niñas.

  10. Empecé a interesarme en este tema en 2015,

  11. cuando, de pronto, me di cuenta
  12. de la casi inconcebible cantidad
    de rastreos digitales
  13. con los que se recopila
    información de niños.
  14. Por ello, inicié un proyecto
    llamado "Child Data Citizen",
  15. con el objetivo de llenar ese vacío.
  16. Quizás piensen que vengo a reprocharles

  17. que suban fotos de sus hijos
    a las redes sociales.
  18. Pero no he venido a eso.
  19. Esto es mucho más grave
    que el llamado "sharenting".
  20. Esto no va de individuos,
    sino de sistemas.
  21. Sus hábitos y Uds.
    no tienen culpa de nada.
  22. Por primerísima vez en la historia,

  23. rastreamos la información de cada niño
    desde mucho antes de nacer.
  24. En ocasiones, antes de la fecundación
    y luego, a lo largo de sus vidas.
  25. Cuando los padres deciden tener un hijo,
  26. buscan en internet
    "formas de quedar embarazada"
  27. o descargan aplicaciones
    para controlar la ovulación.
  28. Cuando llega el embarazo,
  29. suben ecografías de sus bebés
    a las redes sociales,
  30. descargan aplicaciones para embarazadas
  31. o preguntan de todo al doctor Google,
  32. Todo tipo de cosas, como:
  33. "riesgo de aborto en pleno vuelo"
  34. o "dolores menstruales
    al inicio del embarazo".
  35. Lo sé porque yo lo he hecho,
    y varias veces.
  36. Y, al nacer el bebé, hacen un seguimiento
    de cada siesta, toma o acontecimiento
  37. en diferentes plataformas.
  38. Todas estas plataformas se benefician de
    datos íntimos sobre salud y comportamiento
  39. y los comparten entre ellas.
  40. Para que entiendan cómo funciona,

  41. en 2019, una investigación
    del "British Medical Journal"
  42. desveló que, de 24 aplicaciones de salud,
  43. 19 compartían información con terceros.
  44. Y esos terceros compartían información
    con otras 216 organizaciones.
  45. De esas 216 organizaciones,
    solo tres pertenecían al sector sanitario.
  46. En las demás empresas con acceso a
    esos datos eran gigantes de la tecnología,
  47. como Google, Facebook u Oracle,
  48. había empresas de publicidad en línea
    y una agencia de crédito al consumo.
  49. Para que me entiendan:
  50. agencias publicitarias y de crédito
    podrían tener puntos de datos de bebés.
  51. Las aplicaciones móviles, redes sociales
    y buscadores solo son
  52. "la punta del iceberg",
  53. porque se rastrea a los niños a diario
    desde múltiples tecnologías.
  54. Se les sigue desde casa con dispositivos
    y asistentes virtuales.
  55. Desde el colegio, con herramientas TIC
    y aulas virtuales.
  56. Desde la consulta del médico,
    con historiales clínicos y portales web.
  57. Los siguen desde sus juguetes
    con conexión a internet, juegos online
  58. y muchas otras tecnologías.
  59. En mi investigación, muchos padres
    venían a decirme cosas como:

  60. "¿Y qué?".
  61. "¿Qué importa si rastrean a mis hijos?
  62. No tenemos nada que esconder".
  63. Pues sí, importa.
  64. No solo porque se hagan seguimientos
    de cada persona,
  65. sino porque se les clasifica
    de acuerdo con lo recolectado.
  66. Con la inteligencia artificial
    y el análisis predictivo
  67. se aprovechan al máximo
    los datos de cada individuo
  68. de distintas formas:
  69. hábitos de compra, historial familiar
    comentarios en redes sociales...
  70. Luego, combinan esos datos
    y sacan conclusiones de esa persona.
  71. Estas tecnologías se usan en todas partes.
  72. Los bancos las usan para dar préstamos.
  73. Las aseguradoras las usan para las primas.
  74. Las empresas y patrones las usan
    para saber si alguien vale para un puesto.
  75. Además, la policía y los juzgados las usan
  76. para saber la probabilidad
    de que alguien cometa delito o reincida.
  77. No podemos saber ni controlar

  78. la forma en la que esta gente que compra,
    vende y procesa nuestros datos
  79. traza perfiles sobre nosotros
    y nuestros hijos.
  80. Pero estos perfiles pueden afectar
    gravemente nuestros derechos.
  81. Pongamos un ejemplo:

  82. "The New York Times" publicó en 2018
  83. que los datos recogidos en webs
    de planificación educativa,
  84. que rellenan millones
    de jóvenes estadounidenses
  85. en busca de una beca
    o un plan universitario,
  86. se vendieron a brókeres de información.
  87. Pues en Fordham se investigó
    a estos brókeres de lo educativo
  88. y se descubrió que estas empresas
    clasifican a niños de incluso dos años
  89. según diferentes categorías:
  90. etnia, religión, riqueza,
  91. ansiedad social
  92. y muchas más categorías.
  93. Y luego venden esos perfiles,
  94. con el nombre del niño,
    dirección y datos personales,
  95. a distintas empresas,
  96. como instituciones educativas
    y de comercio,
  97. de servicios de becas
    y cuentas bancarias para estudiantes.
  98. Para avanzar en esto,
  99. los investigadores de Fordham
    pidieron a uno de estos brókeres
  100. que les proporcionase una lista
    de chicas de entre 14 y 15 años
  101. a las que les interesase
    un servicio de planificación familiar.
  102. El bróker accedió
    a facilitarles esa lista.
  103. Imagínense lo mucho que esto invade
    la intimidad de nuestros hijos.
  104. Pero estos brókeres de lo educativo
    son solo un ejemplo.
  105. Realmente, la forma en la que clasifican
    a nuestros hijos escapa de nuestro control
  106. y tiene un gran impacto en su futuro.
  107. Así que debemos preguntarnos:

  108. ¿se puede confiar en estas tecnologías
    que catalogan a nuestros hijos?
  109. ¿Se puede?
  110. Yo digo que no.
  111. Como antropóloga,
  112. creo que la inteligencia artificial
    y el análisis predictivo
  113. pueden servir para predecir enfermedades
    o luchar contra el cambio climático.
  114. Pero tenemos que abandonar la creencia
  115. de que estas tecnologías pueden hacer un
    perfil objetivo de los seres humanos
  116. y que podemos confiar en ellas
    para tomar decisiones
  117. basadas en datos sobre
    las vidas de los individuos.
  118. No pueden clasificar humanos.
  119. Los rastreos digitales
    no reflejan quiénes somos.
  120. Los humanos piensan una cosa y dicen otra,
    sienten de una forma y actúan diferente.
  121. Las predicciones algorítmicas
    de lo que hacemos
  122. no tienen en cuenta la impredecibilidad
    y complejidad de la naturaleza humana.
  123. Por si fuera poco,

  124. estas tecnologías son siempre,
    de un modo u otro, subjetivas.
  125. Los algoritmos son, por definición,
    conjuntos de reglas o pasos
  126. diseñados para conseguir
    resultados concretos.
  127. Pero tales reglas o pasos
    no pueden ser imparciales,
  128. porque los han diseñado humanos
    dentro de un marco cultural concreto
  129. y están influenciados
    por unos valores concretos.
  130. Cuando las máquinas aprenden,
    lo hacen a partir de algoritmos sesgados,
  131. y a menudo también aprenden
    de bases de datos sesgadas.
  132. Justo ahora podemos ver
    los primeros casos de sesgo algorítmico.

  133. Algunos de estos ejemplos
    son francamente aterradores.
  134. Este año, el AI Institute de Nueva York
    ha publicado un informe que demuestra
  135. que las inteligencias artificiales
    que usa la policía predictiva
  136. han aprendido de "datos sucios".
  137. Estos son datos recogidos
    de épocas de claro prejuicio racial
  138. y acciones policiales poco transparentes.
  139. Estas inteligencias, al alimentarse
    de datos sucios, no son objetivas,
  140. y los resultados solo dan lugar
    a parcialidad y errores policiales.
  141. Creo que nos enfrentamos
    a un problema fundamental de la sociedad.

  142. Nos estamos fiando de las tecnologías
    a la hora de clasificar a seres humanos.
  143. Ya se sabe que las tecnologías
    siempre van a estar influenciadas
  144. y nunca van a ser del todo exactas.
  145. Lo que en realidad necesitamos
    es una es una solución política.
  146. Que los gobiernos vean que la protección
    de datos es un derecho humano.
  147. (Aplausos y vítores)

  148. Hasta que esto no ocurra,
    no esperemos un futuro más justo.

  149. Me preocupa que mis hijas estén expuestas
    a discriminaciones y errores algorítmicos.
  150. Lo que me diferencia de mis hijas
    es que no hay registros de mi infancia.
  151. Por supuesto, no se conocen las tonterías
    que decía y pensaba de adolescente.
  152. (Risas)

  153. Pero, para mis hijas,
    esto podría ser diferente.

  154. Los datos que se recogen de ellas ahora
  155. pueden usarse en su contra en el futuro
  156. Y puede llegar a limitar
    sus sueños y aspiraciones.
  157. Creo que es el momento.

  158. El momento de dar un paso adelante,
    de empezar a trabajar juntos,
  159. como individuos,
    organizaciones e instituciones
  160. y exijamos más justicia por nuestros datos
    y los de nuestros hijos.
  161. antes de que sea tarde.
  162. Gracias.

  163. (Aplausos)