Greek 字幕

← Τι γνωρίζουν οι εταιρίες τεχνολογίας για τα παιδιά σας

埋め込みコードを取得する
36言語

Showing Revision 7 created 07/19/2020 by Lucas Kaimaras.

  1. Κάθε μέρα, κάθε εβδομάδα,
  2. αποδεχόμαστε όρους και προϋποθέσεις.
  3. Και όταν το κάνουμε αυτό,
  4. παρέχουμε σε εταιρίες
    το νόμιμο δικαίωμά τους
  5. να κάνουν ό,τι θέλουν με τα δεδομένα μας
  6. και τα δεδομένα των παιδιών μας.
  7. Κάτι που μας κάνει να αναρωτηθούμε:
  8. πόσα δεδομένα των παιδιών δίνουμε
  9. και ποιο είναι το αντίκτυπό τους;
  10. Είμαι ανθρωπολόγος
    και μητέρα δύο μικρών κοριτσιών.
  11. Άρχισα να ενδιαφέρομαι
    γι' αυτό το ερώτημα το 2015
  12. όταν συνειδητοποίησα ξαφνικά
    ότι υπήρχε ένας αχανής,
  13. σχεδόν αδιανόητος όγκος από ίχνη δεδομένων
  14. που δημιουργείται και συλλέγεται
    σχετικά με τα παιδιά.
  15. Έτσι, ξεκίνησα ένα ερευνητικό έργο
  16. που ονομάζεται Child Data Citizen,
  17. κι ο στόχος του είναι να καλύψει τα κενά.
  18. Τώρα ίσως νομίζετε ότι είμαι εδώ
    για να σας ρίξω το φταίξιμο
  19. που ανεβάζετε φωτογραφίες
    των παιδιών σας στα κοινωνικά μέσα,
  20. αλλά δεν είναι αυτό το θέμα.
  21. Το θέμα είναι πολύ μεγαλύτερο
    από τους γονείς που μοιράζονται τα πάντα.
  22. Έχει να κάνει με τα συστήματα,
    όχι με μεμονωμένα άτομα.
  23. Δεν φταίτε εσείς και οι συνήθειές σας.
  24. Για πρώτη φορά στην ιστορία
  25. παρακολουθούμε τα μεμονωμένα δεδομένα
    των παιδιών πολύ πριν τη γέννησή τους.
  26. Μερικές φορές από τη στιγμή της σύλληψης
  27. και μετά σε όλη τους τη ζωή.
  28. Όταν οι γονείς αποφασίζουν
    να κάνουν παιδιά,
  29. μπαίνουν στο ίντερνετ ψάχνοντας
    τρόπους για την εγκυμοσύνη
  30. ή κατεβάζουν εφαρμογές
    παρακολούθησης ωορρηξίας.
  31. Όταν μείνουν έγκυες,
  32. ανεβάζουν τους υπερήχους
    από το μωρό τους στα κοινωνικά μέσα,
  33. κατεβάζουν εφαρμογές εγκυμοσύνης
  34. ή παίρνουν συμβουλές
    από τον Δρ Google για διάφορα,
  35. όπως για «κινδύνους αποβολής σε αεροπλάνο»
  36. ή «κοιλιακές κράμπες
    στην αρχή της εγκυμοσύνης».
  37. Το ξέρω επειδή το έχω κάνει πολλές φορές.
  38. Και μετά, όταν γεννιέται το μωρό,
    καταγράφουν κάθε υπνάκο, κάθε τάισμα,
  39. κάθε γεγονός σε διάφορες τεχνολογίες.
  40. Κι όλες αυτές οι τεχνολογίες μεταμορφώνουν
  41. τα πιο ενδόμυχα δεδομένα συμπεριφοράς
    και υγείας του μωρού σε κέρδος,
  42. μοιράζοντάς τα με άλλους.
  43. Για να σας δώσω μια ιδέα
    πώς λειτουργεί αυτό,
  44. το 2019 το Βρετανικό Ιατρικό Περιοδικό
    δημοσίευσε μια έρευνα που έδειξε
  45. ότι από τις 24 εφαρμογές
    υγείας για κινητό,
  46. οι 19 μοιράζονταν πληροφορίες με τρίτους.
  47. Και αυτοί οι τρίτοι μοιράζονταν
    πληροφορίες με άλλους 216 οργανισμούς.
  48. Από αυτούς τους 216 τέταρτους,
  49. μόνο οι τρεις ανήκαν
    στον τομέα της υγείας.
  50. Οι άλλες εταιρίες που είχαν
    πρόσβαση σ' αυτά τα δεδομένα
  51. ήταν μεγάλες τεχνολογικές εταιρίες
    όπως η Google, το Facebook ή η Oracle,
  52. ήταν ψηφιακές διαφημιστικές εταιρίες
  53. και επίσης υπήρχε μια εταιρία
    αναφοράς πίστωσης καταναλωτών.
  54. Πολύ σωστά καταλάβατε.
  55. Διαφημιστικές και πιστωτικές εταιρίες ίσως
    έχουν ήδη σημεία δεδομένων από μικρά μωρά.
  56. Αλλά οι εφαρμογές, οι αναζητήσεις
    και τα κοινωνικά μέσα
  57. είναι μόνο η κορυφή του παγόβουνου,
  58. επειδή τα παιδιά παρακολουθούνται
    από πολλαπλές τεχνολογίες
  59. στην καθημερινότητά τους.
  60. Παρακολουθούνται από οικιακές τεχνολογίες
    και ψηφιακούς βοηθούς στα σπίτια τους,
  61. παρακολουθούνται
    από εκπαιδευτικές πλατφόρμες
  62. και εκπαιδευτικές τεχνολογίες
    στα σχολεία τους.
  63. Παρακολουθούνται από διαδικτυακά αρχεία
  64. και διαδικτυακά πόρταλ
    στο γραφείο του γιατρού τους.
  65. Από τα παιχνίδια τους
    που συνδέονται στο διαδίκτυο,
  66. τα διαδικτυακά τους παιχνίδια
    και πάρα πολλές άλλες τεχνολογίες.
  67. Κατά τη διάρκεια της έρευνάς μου,
    πολλοί γονείς ήρθαν και μου είπαν,

  68. «Και τι έγινε;
  69. Τι σημασία έχει αν
    παρακολουθούνται τα παιδιά μου;
  70. Δεν έχουμε κάτι να κρύψουμε».
  71. Έχει σημασία όμως.
  72. Έχει σημασία επειδή τα άτομα σήμερα
    δεν παρακολουθούνται μόνο,
  73. σκιαγραφείται και το προφίλ τους
    βάσει του ίχνους των δεδομένων τους.
  74. Η τεχνητή νοημοσύνη και τα προγνωστικά
    αναλυτικά στοιχεία χρησιμοποιούνται
  75. για να συλλέξουν όσο περισσότερα
    δεδομένα γίνεται για τη ζωή ενός ατόμου
  76. από διάφορες πηγές:
  77. οικογενειακό ιστορικό,
  78. καταναλωτικές συνήθειες,
    σχόλια στα κοινωνικά μέσα.
  79. Και μετά ενώνουν αυτά τα δεδομένα
  80. για να πάρουν αποφάσεις
    σύμφωνα μ' αυτά για το άτομο.
  81. Και αυτές οι τεχνολογίες
    χρησιμοποιούνται παντού.
  82. Από τράπεζες για την έγκριση δανείων,
  83. από ασφαλιστικές
    για τον υπολογισμό των ασφαλίστρων.
  84. Από γραφεία ευρέσεως εργασίας κι εργοδότες
  85. για να αποφασίσουν αν κάποιος
    είναι κατάλληλος για μια θέση.
  86. Τα χρησιμοποιούν επίσης
    η αστυνομία και τα δικαστήρια
  87. για να αποφασίζουν αν κάποιος
    είναι ένας δυνητικός εγκληματίας
  88. ή είναι πιθανόν
    να διαπράξει πάλι ένα έγκλημα.
  89. Δεν γνωρίζουμε ούτε ελέγχουμε
  90. τους τρόπους που αυτοί που αγοράζουν,
    πωλούν και επεξεργάζονται τα δεδομένα μας
  91. σκιαγραφούν τα δικά μας προφίλ
    και των παιδιών μας.
  92. Αλλά αυτά τα προφίλ μπορούν να επηρεάσουν
    τα δικαιώματά μας με σημαντικούς τρόπους.
  93. Για να σας δώσω ένα παράδειγμα,
  94. το 2018 οι New York Times
    δημοσίευσαν ένα άρθρο
  95. ότι τα δεδομένα που συλλέχθηκαν
  96. μέσω διαδικτυακών υπηρεσιών
    σχεδιασμού κολεγίου,
  97. τα οποία συμπληρώθηκαν από εκατομμύρια
    μαθητές λυκείου στις ΗΠΑ
  98. που ψάχνουν για ένα πρόγραμμα
    κολεγίου ή μια υποτροφία,
  99. πωλήθηκαν σε μεσίτες
    εκπαιδευτικών δεδομένων.
  100. Τώρα, ερευνητές στο Φόρνταμ που μελέτησαν
    μεσίτες εκπαιδευτικών δεδομένων,
  101. αποκάλυψαν ότι αυτές οι εταιρίες
  102. σκιαγραφούσαν προφίλ παιδιών
    έως και δύο ετών
  103. σύμφωνα με διάφορες κατηγορίες:
  104. εθνικότητα, θρησκεία, ευημερία,
  105. κοινωνική αδεξιότητα,
  106. και πολλές άλλες τυχαίες κατηγορίες.
  107. Μετά πωλούν αυτά τα προφίλ
    μαζί με το όνομα του παιδιού,
  108. τη διεύθυνσή τους
    και τα στοιχεία επικοινωνίας
  109. σε διάφορες εταιρίες,
  110. συμπεριλαμβανομένων οργανισμών
    εμπορίου και καριέρας,
  111. εταιρίες για φοιτητικά δάνεια
    και φοιτητικές πιστωτικές κάρτες.
  112. Για να ξεπεράσουν τα όρια,
  113. οι ερευνητές στo Φόρνταμ ζήτησαν
    από έναν μεσίτη εκπαιδευτικών δεδομένων
  114. να τους δώσει μια λίστα
    από κορίτσια 14 με 15 ετών
  115. που ενδιαφέρθηκαν για υπηρεσίες
    οικογενειακού προγραμματισμού.
  116. Ο μεσίτης δεδομένων συμφώνησε
    να τους παρέχει τη λίστα.
  117. Φανταστείτε πόσο ενδόμυχο και παρεμβατικό
    είναι αυτό για τα παιδιά μας.
  118. Αλλά οι μεσίτες εκπαιδευτικών δεδομένων
    είναι μόνο ένα παράδειγμα.
  119. Η αλήθεια είναι ότι σκιαγραφούν
    το προφίλ των παιδιών μας
  120. με τρόπους που δεν ελέγχουμε,
  121. αλλά που μπορούν να επηρεάσουν
    σημαντικά τις ευκαιρίες τους στη ζωή.
  122. Έτσι, πρέπει να αναρωτηθούμε:

  123. μπορούμε να εμπιστευτούμε
    αυτές τις τεχνολογίες
  124. με τη σκιαγράφηση
    του προφίλ των παιδιών μας;
  125. Μπορούμε;
  126. Η απάντησή μου είναι όχι.
  127. Ως ανθρωπολόγος,
  128. πιστεύω ότι η τεχνητή νοημοσύνη
    και τα προγνωστικά αναλυτικά στοιχεία
  129. είναι σπουδαία στην πρόβλεψη
    της πορείας μιας ασθένειας
  130. ή στην καταπολέμηση
    της κλιματικής αλλαγής.
  131. Αλλά πρέπει να εγκαταλείψουμε
    την πεποίθηση
  132. ότι αυτές οι τεχνολογίες μπορούν
    να δημιουργήσουν αντικειμενικά προφίλ
  133. και ότι μπορούμε να βασιστούμε πάνω τους
    για να πάρουμε αποφάσεις βάσει δεδομένων
  134. για μεμονωμένες ζωές.
  135. Επειδή δεν μπορούν
    να σκιαγραφήσουν προφίλ ανθρώπων.
  136. Τα ίχνη των δεδομένων δεν είναι
    ο καθρέφτης αυτού που είμαστε.
  137. Οι άνθρωποι σκέφτονται
    ένα πράγμα και λένε κάτι άλλο,
  138. νιώθουν κάπως αλλά πράττουν διαφορετικά.
  139. Οι αλγοριθμικές προβλέψεις
    ή οι ψηφιακές μας πρακτικές
  140. δεν μπορούν να εξηγήσουν
    τη μη προβλεψιμότητα
  141. και την πολυπλοκότητα
    της ανθρώπινης εμπειρίας.
  142. Αλλά πάνω απ' όλα,

  143. αυτές οι τεχνολογίες είναι πάντα,
  144. μα πάντα,
  145. με τον έναν ή τον άλλο τρόπο,
    προκατειλημμένες.
  146. Βλέπετε, οι αλγόριθμοι είναι εξ ορισμού
    ένα σύνολο κανόνων ή βημάτων
  147. που έχουν σχεδιαστεί για να επιτύχουν
    ένα συγκεκριμένο αποτέλεσμα, εντάξει;
  148. Αλλά αυτό το σύνολο κανόνων
    ή βημάτων δεν είναι αντικειμενικό,
  149. επειδή έχουν σχεδιαστεί από ανθρώπους
  150. σε ένα συγκεκριμένο πολιτισμικό πλαίσιο
  151. και διαμορφώνονται από
    συγκεκριμένες πολιτισμικές αξίες.
  152. Έτσι, όταν μαθαίνουν οι μηχανές,
  153. μαθαίνουν από αλγόριθμους
    που είναι προκατειλημμένοι,
  154. και συχνά μαθαίνουν και από
    προκατειλημμένες βάσεις δεδομένων.
  155. Αυτήν τη στιγμή βλέπουμε τα πρώτα
    παραδείγματα αλγοριθμικής προκατάληψης.
  156. Και μερικά από αυτά τα παραδείγματα
    είναι πραγματικά τρομακτικά.
  157. Φέτος, το Ινστιτούτο AI Now
    στη Νέα Υόρκη δημοσίευσε μια αναφορά
  158. που αποκάλυψε ότι οι τεχνολογίες ΤΝ
  159. που χρησιμοποιούνται
    για προγνωστική αστυνόμευση
  160. εκπαιδεύτηκαν με «βρόμικα» δεδομένα.
  161. Βασικά, αυτά είναι δεδομένα
    που συλλέχθηκαν
  162. κατά τη διάρκεια ιστορικών περιόδων
    με γνωστές ρατσιστικές προκαταλήψεις
  163. και μη διαφανείς πρακτικές αστυνόμευσης.
  164. Επειδή αυτές οι τεχνολογίες
    έχουν εκπαιδευτεί με βρόμικα δεδομένα,
  165. δεν είναι αντικειμενικές,
  166. και τα αποτελέσματά τους οδηγούν μόνο
  167. στην ενίσχυση της αστυνομικής
    προκατάληψης και τη διάπραξη λαθών.
  168. Νομίζω λοιπόν ότι αντιμετωπίζουμε
    ένα ουσιαστικό πρόβλημα

  169. στην κοινωνία μας.
  170. Αρχίζουμε να εμπιστευόμαστε τεχνολογίες
    για τη σκιαγράφηση προφίλ ανθρώπων.
  171. Γνωρίζουμε ότι στη σκιαγράφηση
    προφίλ ανθρώπων
  172. αυτές οι τεχνολογίες πάντα
    θα είναι προκατειλημμένες
  173. και ποτέ δεν θα είναι πραγματικά ακριβείς.
  174. Αυτό που χρειαζόμαστε τώρα
    είναι μια πολιτική λύση.
  175. Πρέπει οι κυβερνήσεις να αναγνωρίσουν
  176. ότι τα δικαιώματα στα δεδομένα μας
    είναι ανθρώπινα δικαιώματα.
  177. (Χειροκρότημα και επευφημίες)

  178. Μέχρι να γίνει αυτό, δεν μπορούμε
    να ελπίζουμε για ένα πιο δίκαιο μέλλον.

  179. Ανησυχώ ότι οι κόρες μου θα εκτεθούν
  180. σε διάφορες αλγοριθμικές
    προκαταλήψεις και λάθη.
  181. Η διαφορά ανάμεσα
    σε μένα και τις κόρες μου
  182. είναι ότι δεν υπάρχει δημόσιο αρχείο
    εκεί έξω για την παιδική μου ηλικία.
  183. Σίγουρα δεν υπάρχει βάση δεδομένων
  184. με όλες τις χαζομάρες που έκανα
    και σκέφτηκα όταν ήμουν έφηβη.
  185. (Γέλια)

  186. Αλλά για τις κόρες μου
    ίσως είναι διαφορετικά.
  187. Τα δεδομένα που συλλέγονται
    σήμερα από αυτές
  188. μπορεί να χρησιμοποιηθούν
    για να τις κρίνει στο μέλλον
  189. και μπορεί να τις αποτρέψει
    από τις ελπίδες και τα όνειρά τους.
  190. Νομίζω ότι είναι καιρός.
  191. Είναι καιρός να επιταχύνουμε.
  192. Είναι καιρός να αρχίσουμε
    να συνεργαζόμαστε
  193. ως μεμονωμένα άτομα,
  194. ως οργανισμοί και θεσμοί,
  195. και να απαιτήσουμε μεγαλύτερη
    δικαιοσύνη δεδομένων για εμάς
  196. και για τα παιδιά μας
  197. πριν είναι πολύ αργά.
  198. Σας ευχαριστώ.

  199. (Χειροκρότημα)