French 字幕

← Ce que les GAFA savent sur vos enfants

埋め込みコードを取得する
36言語

Showing Revision 4 created 06/17/2020 by Claire Ghyselen.

  1. Chaque jour, chaque semaine,
  2. nous acceptons des CGU.
  3. Et ce faisant,
  4. nous donnons aux entreprises le droit
  5. de faire ce qu'elles veulent
    avec nos données
  6. et celles de nos enfants.
  7. Ce qui nous amène à nous demander :
  8. quelle quantité de données
    donnons-nous sur nos enfants,
  9. et quelles en sont les implications ?
  10. Je suis anthropologue,
  11. et je suis aussi la mère
    de deux petites filles.
  12. J'ai commencé à m'intéresser
    à cette question en 2015
  13. lorsque j'ai soudain réalisé
    qu'il y avait de vastes,
  14. et presqu'innombrables,
    quantités de données
  15. produites et collectées sur les enfants.
  16. J'ai donc lancé un projet de recherche,
  17. appelé « Child Data Citizen »,
  18. et j'ai cherché à remplir le vide.
  19. Vous pensez peut-être
    que je suis ici pour vous reprocher
  20. de publier des photos de vos enfants
    sur les médias sociaux,
  21. mais là n'est pas la question.
  22. Le problème est bien plus important
    que le soi-disant « sharenting ».
  23. Il s'agit de systèmes et non d'individus.
  24. Vous et vos habitudes
    ne sont pas à blâmer.
  25. Pour la toute première
    fois dans l'Histoire,
  26. nous suivons
    les données individuelles des enfants
  27. bien avant leur naissance -
  28. parfois dès la conception,
  29. puis tout au long de leur vie.
  30. Vous voyez, lorsque les parents
    décident de concevoir,
  31. ils vont chercher sur Internet
    des « moyens de tomber enceinte »
  32. ou les femmes téléchargent
    des applications de suivi de l'ovulation.
  33. Lorsqu'elles tombent enceintes,
  34. elles publient les échographies
    sur les médias sociaux,
  35. téléchargent des applications de grossesse
  36. ou consultent Dr Google
    pour toutes sortes de choses,
  37. comme, vous savez...
  38. « le risque de fausse couche en avion »
  39. ou « les crampes abdominales
    en début de grossesse ».
  40. Je le sais parce que je l'ai fait -
  41. et plusieurs fois.
  42. Et puis, quand le bébé est né,
    elles suivent chaque sieste,
  43. chaque repas,
  44. chaque événement de la vie
    sur différentes technologies.
  45. Et toutes ces technologies
    font de l'argent
  46. avec les données les plus intimes
    du bébé - son comportement et sa santé -
  47. en les partageant avec d'autres.
  48. Pour vous montrer comment cela fonctionne,
  49. en 2019, le British Medical Journal
    a publié une étude qui a montré
  50. que sur 24 applications de santé mobiles,
  51. 19 partageaient des informations
    avec des tierces parties,
  52. qui elles-mêmes les partageaient
    avec 216 autres entités.
  53. Sur ces 216 entités,
  54. seules trois appartenaient
    au secteur de la santé.
  55. Les autres entreprises étaient
    de grandes sociétés de la tech
  56. comme Google, Facebook ou Oracle,
  57. des agences de publicité digitale,
  58. ainsi qu'une agence de renseignements
    sur le crédit à la consommation.
  59. Vous avez bien compris :
  60. les agences de publicité et de crédit
    ont déjà des données sur les bébés.
  61. Mais les apps, les moteurs
    de recherche et les médias sociaux
  62. ne sont en réalité que la
    partie visible de l'iceberg,
  63. car les enfants sont suivis
    par de multiples technologies
  64. dans leur vie quotidienne.
  65. Ils sont suivis chez eux par la domotique
    et les assistants virtuels ;
  66. par les plates-formes éducatives
  67. et les technologies éducatives
    à leur école ;
  68. par leur dossier médical
  69. et des portails en ligne
    chez leur médecin ;
  70. par leurs jouets connectés à Internet,
  71. leurs jeux en ligne
  72. et beaucoup, beaucoup,
    beaucoup, beaucoup d'autres technologies.
  73. Donc, pendant mes recherches,
  74. beaucoup de parents sont venus me voir
    et m'ont dit : « Et alors ?
  75. Quel est le problème
    que mes enfants soient surveillés ?
  76. Nous n'avons rien à cacher. »
  77. Eh bien, c'est important.
  78. C'est important car aujourd'hui, les
    individus ne sont pas seulement suivis,
  79. ils sont aussi profilés
    selon leurs données.
  80. L'intelligence artificielle et
    l'analyse prédictive sont utilisées
  81. pour exploiter le plus grand nombre
    possible de données sur un individu
  82. provenant de différentes sources :
  83. histoire familiale, habitudes d'achat,
    commentaires dans les médias sociaux.
  84. Puis ils rassemblent ces données
  85. pour prendre des décisions fondées
    sur des données concernant l'individu.
  86. Et ces technologies
    sont utilisées partout.
  87. Les banques les utilisent
    pour décider des prêts.
  88. Les assurances les utilisent
    pour décider des primes.
  89. Les recruteurs et les employeurs
    les utilisent
  90. pour décider si une personne
    est apte à occuper un emploi ou non.
  91. La police et les tribunaux
    les utilisent également
  92. pour déterminer
    si une personne est un criminel potentiel
  93. ou si elle est susceptible de récidiver.
  94. Nous n'avons aucune connaissance
    ni aucun contrôle
  95. sur la manière dont ceux qui achètent,
    vendent et traitent nos données
  96. établissent notre profil
    et celui de nos enfants.
  97. Mais ces profils peuvent avoir
    un impact significatif sur nos droits.
  98. Pour vous donner un exemple,
  99. en 2018, le New York Times
    a publié un article
  100. sur les données
    qui avaient été recueillies
  101. par le service de planification
    des études universitaires -
  102. celles saisies par les millions
    de lycéens à travers les États-Unis
  103. qui cherchent un programme universitaire
    ou une bourse.
  104. Elles avaient été vendues à des
    courtiers en données éducatives.
  105. Or, les chercheurs de Fordham qui ont
    étudié les courtiers en données éducatives
  106. ont révélé qu'ils établissaient le
    profil des enfants dès l'âge de deux ans
  107. sur la base de différentes catégories :
  108. ethnicité, religion, richesse,
  109. inaptitudes sociales
  110. et bien d'autres catégories aléatoires.
  111. Ils vendent ensuite ces profils,
    accompagnés du nom de l'enfant,
  112. de son adresse et de ses coordonnées,
  113. à différentes entreprises,
  114. notamment des sociétés commerciales,
    des sociétés de recrutement,
  115. des sociétés gérant des prêts étudiants
    et de cartes de crédit pour étudiants.
  116. Pour aller au fond du sujet,
  117. les chercheurs de Fordham ont demandé
    à un courtier en données éducatives
  118. de leur fournir une liste de jeunes filles
    de 14-15 ans
  119. intéressées par les services
    de planning familial.
  120. Le courtier a accepté
    de leur fournir la liste.
  121. Imaginez donc à quel point
    c'est intime et intrusif pour nos enfants.
  122. Mais les courtiers en données éducatives
    ne sont en réalité qu'un exemple.
  123. La vérité est que
    nos enfants sont profilés
  124. d'une manière que nous
    ne pouvons pas contrôler
  125. mais qui peut avoir un impact significatif
    sur leurs chances dans la vie.
  126. Nous devons donc nous demander :
  127. peut-on faire confiance à ces technologies
    lorsqu'il s'agit de profiler nos enfants ?
  128. Vraiment ?
  129. Ma réponse est non.
  130. En tant qu'anthropologue,
  131. je pense que l'IA et l'analyse
    prédictive peuvent être très utiles
  132. pour prédire l'évolution d'une maladie
  133. ou pour lutter contre
    le changement climatique.
  134. Mais nous devons arrêter de croire
  135. que ces technologies peuvent
    établir un profil objectif des humains
  136. et qu'on peut s'appuyer sur elles
    pour prendre des décisions
  137. concernant la vie des individus.
  138. Parce qu'on ne peut pas
    profiler les êtres humains.
  139. Les traces de données ne sont pas
    le miroir de qui nous sommes.
  140. On pense une chose et on dit le contraire,
  141. on ressent une chose
    et on agit différemment.
  142. Les prédictions algorithmiques
  143. ne peuvent rendre compte
    de l'imprévisibilité
  144. et de la complexité
    de l'expérience humaine.
  145. Mais en plus de cela,
  146. ces technologies sont toujours -
  147. toujours -
  148. d'une manière ou d'une autre, biaisées.
  149. Les algorithmes sont par définition
    des ensembles de règles ou d'étapes
  150. qui ont été conçus pour atteindre
    un résultat spécifique.
  151. Mais ces ensembles de règles
    ne peuvent pas être objectifs,
  152. car ils ont été conçus
    par des êtres humains
  153. dans un contexte culturel spécifique
  154. et sont façonnés
    par des valeurs culturelles spécifiques.
  155. Lorsque les machines apprennent,
  156. elles apprennent à partir
    d'algorithmes biaisés,
  157. et elles apprennent souvent aussi
    à partir de bases de données biaisées.
  158. En ce moment, nous voyons les
    premiers exemples de biais algorithmiques.
  159. Et certains de ces exemples
    sont franchement terrifiants.
  160. Cette année, l'AI Now Institute
    de New York a publié un rapport
  161. qui révèle que les technologies d'IA
  162. utilisées pour la police prédictive
  163. ont été formées sur des données « sales ».
  164. Il s'agit essentiellement
    de données recueillies
  165. au cours de périodes de préjugés raciaux
  166. et de pratiques policières
    non transparentes.
  167. Comme ces technologies
    sont formées avec des données sales,
  168. elles ne sont pas objectives
  169. et leurs résultats ne font
    qu'amplifier et perpétuer
  170. les préjugés et les erreurs de la police.
  171. Je pense donc que nous sommes confrontés
    à un problème fondamental
  172. dans notre société.
  173. Nous commençons
    à faire confiance aux technologies
  174. pour profiler des êtres humains.
  175. Nous savons qu'en établissant
    le profil des humains,
  176. ces technologies seront toujours biaisées
  177. et ne seront jamais vraiment précises.
  178. Ce dont nous avons besoin,
    c'est d'une solution politique :
  179. les gouvernements doivent reconnaître que
  180. nos droits en matière de données
    sont des droits humains.
  181. (Applaudissements et acclamations)
  182. Tant que cela ne sera pas le cas, nous ne
    pourrons pas espérer un avenir plus juste.
  183. Je crains que mes filles soient exposées
  184. à toutes sortes de discriminations
    et d'erreurs algorithmiques.
  185. La différence entre mes filles et moi,
  186. c'est qu'il n'y a pas d'archives
    publiques de mon enfance.
  187. Certainement pas de données sur toutes
    les choses stupides que j'ai faites
  188. et pensées quand j'étais adolescente.
  189. (Rires)
  190. Mais pour mes filles,
    c'est peut-être différent.
  191. Les données qui sont recueillies
    auprès d'elles aujourd'hui
  192. peuvent être utilisées
    pour les juger à l'avenir
  193. et pourraient peut-être altérer
    leurs espoirs et leurs rêves.
  194. Je pense qu'il est temps
  195. que nous nous engagions tous,
  196. que nous commencions à travailler ensemble
  197. en tant qu'individus,
  198. organisations et institutions,
  199. et exigions une plus grande justice
    en matière de données pour nous
  200. et pour nos enfants
  201. avant qu'il ne soit trop tard.
  202. Je vous remercie.
  203. (Applaudissements)