Return to Video

Τι γνωρίζουν οι εταιρίες τεχνολογίας για τα παιδιά σας

  • 0:01 - 0:03
    Κάθε μέρα, κάθε εβδομάδα,
  • 0:03 - 0:05
    αποδεχόμαστε όρους και προϋποθέσεις.
  • 0:05 - 0:07
    Και όταν το κάνουμε αυτό,
  • 0:07 - 0:09
    παρέχουμε σε εταιρίες
    το νόμιμο δικαίωμά τους
  • 0:09 - 0:13
    να κάνουν ό,τι θέλουν με τα δεδομένα μας
  • 0:13 - 0:15
    και τα δεδομένα των παιδιών μας.
  • 0:17 - 0:19
    Κάτι που μας κάνει να αναρωτηθούμε:
  • 0:20 - 0:23
    πόσα δεδομένα των παιδιών δίνουμε
  • 0:23 - 0:25
    και ποιο είναι το αντίκτυπό τους;
  • 0:26 - 0:30
    Είμαι ανθρωπολόγος
    και μητέρα δύο μικρών κοριτσιών.
  • 0:31 - 0:35
    Άρχισα να ενδιαφέρομαι
    γι' αυτό το ερώτημα το 2015
  • 0:35 - 0:38
    όταν συνειδητοποίησα ξαφνικά
    ότι υπήρχε ένας αχανής,
  • 0:38 - 0:41
    σχεδόν αδιανόητος όγκος από ίχνη δεδομένων
  • 0:41 - 0:44
    που δημιουργείται και συλλέγεται
    σχετικά με τα παιδιά.
  • 0:45 - 0:47
    Έτσι, ξεκίνησα ένα ερευνητικό έργο
  • 0:47 - 0:49
    που ονομάζεται Child Data Citizen,
  • 0:49 - 0:52
    κι ο στόχος του είναι να καλύψει τα κενά.
  • 0:53 - 0:56
    Τώρα ίσως νομίζετε ότι είμαι εδώ
    για να σας ρίξω το φταίξιμο
  • 0:56 - 0:59
    που ανεβάζετε φωτογραφίες
    των παιδιών σας στα κοινωνικά μέσα,
  • 0:59 - 1:00
    αλλά δεν είναι αυτό το θέμα.
  • 1:01 - 1:04
    Το θέμα είναι πολύ μεγαλύτερο
    από τους γονείς που μοιράζονται τα πάντα.
  • 1:05 - 1:09
    Έχει να κάνει με τα συστήματα,
    όχι με μεμονωμένα άτομα.
  • 1:09 - 1:11
    Δεν φταίτε εσείς και οι συνήθειές σας.
  • 1:13 - 1:15
    Για πρώτη φορά στην ιστορία
  • 1:16 - 1:20
    παρακολουθούμε τα μεμονωμένα δεδομένα
    των παιδιών πολύ πριν τη γέννησή τους.
  • 1:20 - 1:23
    Μερικές φορές από τη στιγμή της σύλληψης
  • 1:23 - 1:25
    και μετά σε όλη τους τη ζωή.
  • 1:25 - 1:28
    Όταν οι γονείς αποφασίζουν
    να κάνουν παιδιά,
  • 1:28 - 1:31
    μπαίνουν στο ίντερνετ ψάχνοντας
    τρόπους για την εγκυμοσύνη
  • 1:32 - 1:34
    ή κατεβάζουν εφαρμογές
    παρακολούθησης ωορρηξίας.
  • 1:35 - 1:37
    Όταν μείνουν έγκυες,
  • 1:38 - 1:41
    ανεβάζουν τους υπερήχους
    από το μωρό τους στα κοινωνικά μέσα,
  • 1:41 - 1:43
    κατεβάζουν εφαρμογές εγκυμοσύνης
  • 1:43 - 1:47
    ή παίρνουν συμβουλές
    από τον Δρ Google για διάφορα,
  • 1:47 - 1:51
    όπως για «κινδύνους αποβολής σε αεροπλάνο»
  • 1:51 - 1:54
    ή «κοιλιακές κράμπες
    στην αρχή της εγκυμοσύνης».
  • 1:54 - 1:57
    Το ξέρω επειδή το έχω κάνει πολλές φορές.
  • 1:58 - 2:02
    Και μετά, όταν γεννιέται το μωρό,
    καταγράφουν κάθε υπνάκο, κάθε τάισμα,
  • 2:02 - 2:05
    κάθε γεγονός σε διάφορες τεχνολογίες.
  • 2:06 - 2:08
    Κι όλες αυτές οι τεχνολογίες μεταμορφώνουν
  • 2:08 - 2:13
    τα πιο ενδόμυχα δεδομένα συμπεριφοράς
    και υγείας του μωρού σε κέρδος,
  • 2:14 - 2:16
    μοιράζοντάς τα με άλλους.
  • 2:17 - 2:19
    Για να σας δώσω μια ιδέα
    πώς λειτουργεί αυτό,
  • 2:19 - 2:24
    το 2019 το Βρετανικό Ιατρικό Περιοδικό
    δημοσίευσε μια έρευνα που έδειξε
  • 2:24 - 2:27
    ότι από τις 24 εφαρμογές
    υγείας για κινητό,
  • 2:28 - 2:31
    οι 19 μοιράζονταν πληροφορίες με τρίτους.
  • 2:32 - 2:38
    Και αυτοί οι τρίτοι μοιράζονταν
    πληροφορίες με άλλους 216 οργανισμούς.
  • 2:39 - 2:42
    Από αυτούς τους 216 τέταρτους,
  • 2:42 - 2:45
    μόνο οι τρεις ανήκαν
    στον τομέα της υγείας.
  • 2:46 - 2:48
    Οι άλλες εταιρίες που είχαν
    πρόσβαση σ' αυτά τα δεδομένα
  • 2:48 - 2:53
    ήταν μεγάλες τεχνολογικές εταιρίες
    όπως η Google, το Facebook ή η Oracle,
  • 2:54 - 2:56
    ήταν ψηφιακές διαφημιστικές εταιρίες
  • 2:56 - 3:00
    και επίσης υπήρχε μια εταιρία
    αναφοράς πίστωσης καταναλωτών.
  • 3:01 - 3:02
    Πολύ σωστά καταλάβατε.
  • 3:03 - 3:08
    Διαφημιστικές και πιστωτικές εταιρίες ίσως
    έχουν ήδη σημεία δεδομένων από μικρά μωρά.
  • 3:09 - 3:12
    Αλλά οι εφαρμογές, οι αναζητήσεις
    και τα κοινωνικά μέσα
  • 3:12 - 3:15
    είναι μόνο η κορυφή του παγόβουνου,
  • 3:15 - 3:18
    επειδή τα παιδιά παρακολουθούνται
    από πολλαπλές τεχνολογίες
  • 3:18 - 3:19
    στην καθημερινότητά τους.
  • 3:20 - 3:24
    Παρακολουθούνται από οικιακές τεχνολογίες
    και ψηφιακούς βοηθούς στα σπίτια τους,
  • 3:24 - 3:26
    παρακολουθούνται
    από εκπαιδευτικές πλατφόρμες
  • 3:26 - 3:28
    και εκπαιδευτικές τεχνολογίες
    στα σχολεία τους.
  • 3:28 - 3:30
    Παρακολουθούνται από διαδικτυακά αρχεία
  • 3:30 - 3:33
    και διαδικτυακά πόρταλ
    στο γραφείο του γιατρού τους.
  • 3:33 - 3:35
    Από τα παιχνίδια τους
    που συνδέονται στο διαδίκτυο,
  • 3:35 - 3:39
    τα διαδικτυακά τους παιχνίδια
    και πάρα πολλές άλλες τεχνολογίες.
  • 3:41 - 3:44
    Κατά τη διάρκεια της έρευνάς μου,
    πολλοί γονείς ήρθαν και μου είπαν,
  • 3:44 - 3:46
    «Και τι έγινε;
  • 3:46 - 3:49
    Τι σημασία έχει αν
    παρακολουθούνται τα παιδιά μου;
  • 3:50 - 3:51
    Δεν έχουμε κάτι να κρύψουμε».
  • 3:53 - 3:54
    Έχει σημασία όμως.
  • 3:55 - 4:01
    Έχει σημασία επειδή τα άτομα σήμερα
    δεν παρακολουθούνται μόνο,
  • 4:01 - 4:05
    σκιαγραφείται και το προφίλ τους
    βάσει του ίχνους των δεδομένων τους.
  • 4:05 - 4:09
    Η τεχνητή νοημοσύνη και τα προγνωστικά
    αναλυτικά στοιχεία χρησιμοποιούνται
  • 4:09 - 4:13
    για να συλλέξουν όσο περισσότερα
    δεδομένα γίνεται για τη ζωή ενός ατόμου
  • 4:13 - 4:14
    από διάφορες πηγές:
  • 4:15 - 4:16
    οικογενειακό ιστορικό,
  • 4:16 - 4:19
    καταναλωτικές συνήθειες,
    σχόλια στα κοινωνικά μέσα.
  • 4:19 - 4:21
    Και μετά ενώνουν αυτά τα δεδομένα
  • 4:21 - 4:24
    για να πάρουν αποφάσεις
    σύμφωνα μ' αυτά για το άτομο.
  • 4:25 - 4:28
    Και αυτές οι τεχνολογίες
    χρησιμοποιούνται παντού.
  • 4:28 - 4:30
    Από τράπεζες για την έγκριση δανείων,
  • 4:31 - 4:33
    από ασφαλιστικές
    για τον υπολογισμό των ασφαλίστρων.
  • 4:34 - 4:37
    Από γραφεία ευρέσεως εργασίας κι εργοδότες
  • 4:37 - 4:40
    για να αποφασίσουν αν κάποιος
    είναι κατάλληλος για μια θέση.
  • 4:41 - 4:44
    Τα χρησιμοποιούν επίσης
    η αστυνομία και τα δικαστήρια
  • 4:44 - 4:47
    για να αποφασίζουν αν κάποιος
    είναι ένας δυνητικός εγκληματίας
  • 4:47 - 4:50
    ή είναι πιθανόν
    να διαπράξει πάλι ένα έγκλημα.
  • 4:52 - 4:57
    Δεν γνωρίζουμε ούτε ελέγχουμε
  • 4:57 - 5:00
    τους τρόπους που αυτοί που αγοράζουν,
    πωλούν και επεξεργάζονται τα δεδομένα μας
  • 5:00 - 5:03
    σκιαγραφούν τα δικά μας προφίλ
    και των παιδιών μας.
  • 5:04 - 5:08
    Αλλά αυτά τα προφίλ μπορούν να επηρεάσουν
    τα δικαιώματά μας με σημαντικούς τρόπους.
  • 5:09 - 5:12
    Για να σας δώσω ένα παράδειγμα,
  • 5:14 - 5:18
    το 2018 οι New York Times
    δημοσίευσαν ένα άρθρο
  • 5:18 - 5:20
    ότι τα δεδομένα που συλλέχθηκαν
  • 5:20 - 5:23
    μέσω διαδικτυακών υπηρεσιών
    σχεδιασμού κολεγίου,
  • 5:23 - 5:28
    τα οποία συμπληρώθηκαν από εκατομμύρια
    μαθητές λυκείου στις ΗΠΑ
  • 5:28 - 5:31
    που ψάχνουν για ένα πρόγραμμα
    κολεγίου ή μια υποτροφία,
  • 5:31 - 5:35
    πωλήθηκαν σε μεσίτες
    εκπαιδευτικών δεδομένων.
  • 5:36 - 5:41
    Τώρα, ερευνητές στο Φόρνταμ που μελέτησαν
    μεσίτες εκπαιδευτικών δεδομένων,
  • 5:41 - 5:43
    αποκάλυψαν ότι αυτές οι εταιρίες
  • 5:43 - 5:46
    σκιαγραφούσαν προφίλ παιδιών
    έως και δύο ετών
  • 5:46 - 5:49
    σύμφωνα με διάφορες κατηγορίες:
  • 5:50 - 5:53
    εθνικότητα, θρησκεία, ευημερία,
  • 5:54 - 5:56
    κοινωνική αδεξιότητα,
  • 5:56 - 5:58
    και πολλές άλλες τυχαίες κατηγορίες.
  • 5:59 - 6:04
    Μετά πωλούν αυτά τα προφίλ
    μαζί με το όνομα του παιδιού,
  • 6:04 - 6:07
    τη διεύθυνσή τους
    και τα στοιχεία επικοινωνίας
  • 6:07 - 6:09
    σε διάφορες εταιρίες,
  • 6:09 - 6:12
    συμπεριλαμβανομένων οργανισμών
    εμπορίου και καριέρας,
  • 6:12 - 6:16
    εταιρίες για φοιτητικά δάνεια
    και φοιτητικές πιστωτικές κάρτες.
  • 6:17 - 6:18
    Για να ξεπεράσουν τα όρια,
  • 6:18 - 6:22
    οι ερευνητές στo Φόρνταμ ζήτησαν
    από έναν μεσίτη εκπαιδευτικών δεδομένων
  • 6:22 - 6:27
    να τους δώσει μια λίστα
    από κορίτσια 14 με 15 ετών
  • 6:28 - 6:31
    που ενδιαφέρθηκαν για υπηρεσίες
    οικογενειακού προγραμματισμού.
  • 6:32 - 6:35
    Ο μεσίτης δεδομένων συμφώνησε
    να τους παρέχει τη λίστα.
  • 6:35 - 6:40
    Φανταστείτε πόσο ενδόμυχο και παρεμβατικό
    είναι αυτό για τα παιδιά μας.
  • 6:41 - 6:45
    Αλλά οι μεσίτες εκπαιδευτικών δεδομένων
    είναι μόνο ένα παράδειγμα.
  • 6:45 - 6:48
    Η αλήθεια είναι ότι σκιαγραφούν
    το προφίλ των παιδιών μας
  • 6:48 - 6:50
    με τρόπους που δεν ελέγχουμε,
  • 6:50 - 6:53
    αλλά που μπορούν να επηρεάσουν
    σημαντικά τις ευκαιρίες τους στη ζωή.
  • 6:54 - 6:57
    Έτσι, πρέπει να αναρωτηθούμε:
  • 6:58 - 7:00
    μπορούμε να εμπιστευτούμε
    αυτές τις τεχνολογίες
  • 7:00 - 7:02
    με τη σκιαγράφηση
    του προφίλ των παιδιών μας;
  • 7:02 - 7:03
    Μπορούμε;
  • 7:06 - 7:07
    Η απάντησή μου είναι όχι.
  • 7:08 - 7:09
    Ως ανθρωπολόγος,
  • 7:09 - 7:12
    πιστεύω ότι η τεχνητή νοημοσύνη
    και τα προγνωστικά αναλυτικά στοιχεία
  • 7:12 - 7:15
    είναι σπουδαία στην πρόβλεψη
    της πορείας μιας ασθένειας
  • 7:15 - 7:17
    ή στην καταπολέμηση
    της κλιματικής αλλαγής.
  • 7:18 - 7:20
    Αλλά πρέπει να εγκαταλείψουμε
    την πεποίθηση
  • 7:20 - 7:23
    ότι αυτές οι τεχνολογίες μπορούν
    να δημιουργήσουν αντικειμενικά προφίλ
  • 7:23 - 7:27
    και ότι μπορούμε να βασιστούμε πάνω τους
    για να πάρουμε αποφάσεις βάσει δεδομένων
  • 7:27 - 7:28
    για μεμονωμένες ζωές.
  • 7:28 - 7:31
    Επειδή δεν μπορούν
    να σκιαγραφήσουν προφίλ ανθρώπων.
  • 7:31 - 7:34
    Τα ίχνη των δεδομένων δεν είναι
    ο καθρέφτης αυτού που είμαστε.
  • 7:34 - 7:37
    Οι άνθρωποι σκέφτονται
    ένα πράγμα και λένε κάτι άλλο,
  • 7:37 - 7:39
    νιώθουν κάπως αλλά πράττουν διαφορετικά.
  • 7:39 - 7:42
    Οι αλγοριθμικές προβλέψεις
    ή οι ψηφιακές μας πρακτικές
  • 7:42 - 7:45
    δεν μπορούν να εξηγήσουν
    τη μη προβλεψιμότητα
  • 7:45 - 7:47
    και την πολυπλοκότητα
    της ανθρώπινης εμπειρίας.
  • 7:48 - 7:50
    Αλλά πάνω απ' όλα,
  • 7:50 - 7:52
    αυτές οι τεχνολογίες είναι πάντα,
  • 7:53 - 7:54
    μα πάντα,
  • 7:54 - 7:56
    με τον έναν ή τον άλλο τρόπο,
    προκατειλημμένες.
  • 7:57 - 8:02
    Βλέπετε, οι αλγόριθμοι είναι εξ ορισμού
    ένα σύνολο κανόνων ή βημάτων
  • 8:02 - 8:06
    που έχουν σχεδιαστεί για να επιτύχουν
    ένα συγκεκριμένο αποτέλεσμα, εντάξει;
  • 8:07 - 8:10
    Αλλά αυτό το σύνολο κανόνων
    ή βημάτων δεν είναι αντικειμενικό,
  • 8:10 - 8:12
    επειδή έχουν σχεδιαστεί από ανθρώπους
  • 8:12 - 8:14
    σε ένα συγκεκριμένο πολιτισμικό πλαίσιο
  • 8:14 - 8:16
    και διαμορφώνονται από
    συγκεκριμένες πολιτισμικές αξίες.
  • 8:17 - 8:18
    Έτσι, όταν μαθαίνουν οι μηχανές,
  • 8:18 - 8:21
    μαθαίνουν από αλγόριθμους
    που είναι προκατειλημμένοι,
  • 8:22 - 8:25
    και συχνά μαθαίνουν και από
    προκατειλημμένες βάσεις δεδομένων.
  • 8:26 - 8:29
    Αυτήν τη στιγμή βλέπουμε τα πρώτα
    παραδείγματα αλγοριθμικής προκατάληψης.
  • 8:30 - 8:33
    Και μερικά από αυτά τα παραδείγματα
    είναι πραγματικά τρομακτικά.
  • 8:34 - 8:39
    Φέτος, το Ινστιτούτο AI Now
    στη Νέα Υόρκη δημοσίευσε μια αναφορά
  • 8:39 - 8:41
    που αποκάλυψε ότι οι τεχνολογίες ΤΝ
  • 8:41 - 8:44
    που χρησιμοποιούνται
    για προγνωστική αστυνόμευση
  • 8:44 - 8:48
    εκπαιδεύτηκαν με «βρόμικα» δεδομένα.
  • 8:48 - 8:51
    Βασικά, αυτά είναι δεδομένα
    που συλλέχθηκαν
  • 8:51 - 8:55
    κατά τη διάρκεια ιστορικών περιόδων
    με γνωστές ρατσιστικές προκαταλήψεις
  • 8:55 - 8:58
    και μη διαφανείς πρακτικές αστυνόμευσης.
  • 8:59 - 9:02
    Επειδή αυτές οι τεχνολογίες
    έχουν εκπαιδευτεί με βρόμικα δεδομένα,
  • 9:03 - 9:04
    δεν είναι αντικειμενικές,
  • 9:04 - 9:07
    και τα αποτελέσματά τους οδηγούν μόνο
  • 9:07 - 9:11
    στην ενίσχυση της αστυνομικής
    προκατάληψης και τη διάπραξη λαθών.
  • 9:13 - 9:16
    Νομίζω λοιπόν ότι αντιμετωπίζουμε
    ένα ουσιαστικό πρόβλημα
  • 9:16 - 9:18
    στην κοινωνία μας.
  • 9:18 - 9:23
    Αρχίζουμε να εμπιστευόμαστε τεχνολογίες
    για τη σκιαγράφηση προφίλ ανθρώπων.
  • 9:24 - 9:26
    Γνωρίζουμε ότι στη σκιαγράφηση
    προφίλ ανθρώπων
  • 9:26 - 9:29
    αυτές οι τεχνολογίες πάντα
    θα είναι προκατειλημμένες
  • 9:29 - 9:31
    και ποτέ δεν θα είναι πραγματικά ακριβείς.
  • 9:32 - 9:35
    Αυτό που χρειαζόμαστε τώρα
    είναι μια πολιτική λύση.
  • 9:35 - 9:37
    Πρέπει οι κυβερνήσεις να αναγνωρίσουν
  • 9:37 - 9:40
    ότι τα δικαιώματα στα δεδομένα μας
    είναι ανθρώπινα δικαιώματα.
  • 9:40 - 9:45
    (Χειροκρότημα και επευφημίες)
  • 9:48 - 9:52
    Μέχρι να γίνει αυτό, δεν μπορούμε
    να ελπίζουμε για ένα πιο δίκαιο μέλλον.
  • 9:53 - 9:55
    Ανησυχώ ότι οι κόρες μου θα εκτεθούν
  • 9:56 - 9:59
    σε διάφορες αλγοριθμικές
    προκαταλήψεις και λάθη.
  • 9:59 - 10:01
    Η διαφορά ανάμεσα
    σε μένα και τις κόρες μου
  • 10:01 - 10:05
    είναι ότι δεν υπάρχει δημόσιο αρχείο
    εκεί έξω για την παιδική μου ηλικία.
  • 10:05 - 10:07
    Σίγουρα δεν υπάρχει βάση δεδομένων
  • 10:07 - 10:11
    με όλες τις χαζομάρες που έκανα
    και σκέφτηκα όταν ήμουν έφηβη.
  • 10:11 - 10:13
    (Γέλια)
  • 10:14 - 10:17
    Αλλά για τις κόρες μου
    ίσως είναι διαφορετικά.
  • 10:17 - 10:20
    Τα δεδομένα που συλλέγονται
    σήμερα από αυτές
  • 10:20 - 10:24
    μπορεί να χρησιμοποιηθούν
    για να τις κρίνει στο μέλλον
  • 10:24 - 10:27
    και μπορεί να τις αποτρέψει
    από τις ελπίδες και τα όνειρά τους.
  • 10:29 - 10:30
    Νομίζω ότι είναι καιρός.
  • 10:30 - 10:32
    Είναι καιρός να επιταχύνουμε.
  • 10:32 - 10:34
    Είναι καιρός να αρχίσουμε
    να συνεργαζόμαστε
  • 10:34 - 10:36
    ως μεμονωμένα άτομα,
  • 10:36 - 10:38
    ως οργανισμοί και θεσμοί,
  • 10:38 - 10:41
    και να απαιτήσουμε μεγαλύτερη
    δικαιοσύνη δεδομένων για εμάς
  • 10:41 - 10:43
    και για τα παιδιά μας
  • 10:43 - 10:44
    πριν είναι πολύ αργά.
  • 10:44 - 10:45
    Σας ευχαριστώ.
  • 10:45 - 10:47
    (Χειροκρότημα)
タイトル:
Τι γνωρίζουν οι εταιρίες τεχνολογίας για τα παιδιά σας
話者:
Βερόνικα Μπαράσι
概説:

Οι ψηφιακές πλατφόρμες που χρησιμοποιείτε εσείς και η οικογένειά σας -- από διαδικτυακά παιχνίδια έως εκπαιδευτικές εφαρμογές και ιατρικά πόρταλ - μπορεί να συλλέγουν και να πωλούν τα δεδομένα των παιδιών σας, λέει η ανθρωπολόγος Βερόνικα Μπαράσι. Καθώς μοιράζεται την αποκαλυπτική της έρευνα, η Μπαράσι προτρέπει τους γονείς να ξαναδούν τους ψηφιακούς όρους και προϋποθέσεις αντί να τους αποδέχονται στα τυφλά -- και να απαιτούν προστασίες που διασφαλίζουν ότι τα δεδομένα των παιδιών τους δεν αλλάξει το μέλλον τους.

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Greek subtitles

改訂