Τι γνωρίζουν οι εταιρίες τεχνολογίας για τα παιδιά σας
-
0:01 - 0:03Κάθε μέρα, κάθε εβδομάδα,
-
0:03 - 0:05αποδεχόμαστε όρους και προϋποθέσεις.
-
0:05 - 0:07Και όταν το κάνουμε αυτό,
-
0:07 - 0:09παρέχουμε σε εταιρίες
το νόμιμο δικαίωμά τους -
0:09 - 0:13να κάνουν ό,τι θέλουν με τα δεδομένα μας
-
0:13 - 0:15και τα δεδομένα των παιδιών μας.
-
0:17 - 0:19Κάτι που μας κάνει να αναρωτηθούμε:
-
0:20 - 0:23πόσα δεδομένα των παιδιών δίνουμε
-
0:23 - 0:25και ποιο είναι το αντίκτυπό τους;
-
0:26 - 0:30Είμαι ανθρωπολόγος
και μητέρα δύο μικρών κοριτσιών. -
0:31 - 0:35Άρχισα να ενδιαφέρομαι
γι' αυτό το ερώτημα το 2015 -
0:35 - 0:38όταν συνειδητοποίησα ξαφνικά
ότι υπήρχε ένας αχανής, -
0:38 - 0:41σχεδόν αδιανόητος όγκος από ίχνη δεδομένων
-
0:41 - 0:44που δημιουργείται και συλλέγεται
σχετικά με τα παιδιά. -
0:45 - 0:47Έτσι, ξεκίνησα ένα ερευνητικό έργο
-
0:47 - 0:49που ονομάζεται Child Data Citizen,
-
0:49 - 0:52κι ο στόχος του είναι να καλύψει τα κενά.
-
0:53 - 0:56Τώρα ίσως νομίζετε ότι είμαι εδώ
για να σας ρίξω το φταίξιμο -
0:56 - 0:59που ανεβάζετε φωτογραφίες
των παιδιών σας στα κοινωνικά μέσα, -
0:59 - 1:00αλλά δεν είναι αυτό το θέμα.
-
1:01 - 1:04Το θέμα είναι πολύ μεγαλύτερο
από τους γονείς που μοιράζονται τα πάντα. -
1:05 - 1:09Έχει να κάνει με τα συστήματα,
όχι με μεμονωμένα άτομα. -
1:09 - 1:11Δεν φταίτε εσείς και οι συνήθειές σας.
-
1:13 - 1:15Για πρώτη φορά στην ιστορία
-
1:16 - 1:20παρακολουθούμε τα μεμονωμένα δεδομένα
των παιδιών πολύ πριν τη γέννησή τους. -
1:20 - 1:23Μερικές φορές από τη στιγμή της σύλληψης
-
1:23 - 1:25και μετά σε όλη τους τη ζωή.
-
1:25 - 1:28Όταν οι γονείς αποφασίζουν
να κάνουν παιδιά, -
1:28 - 1:31μπαίνουν στο ίντερνετ ψάχνοντας
τρόπους για την εγκυμοσύνη -
1:32 - 1:34ή κατεβάζουν εφαρμογές
παρακολούθησης ωορρηξίας. -
1:35 - 1:37Όταν μείνουν έγκυες,
-
1:38 - 1:41ανεβάζουν τους υπερήχους
από το μωρό τους στα κοινωνικά μέσα, -
1:41 - 1:43κατεβάζουν εφαρμογές εγκυμοσύνης
-
1:43 - 1:47ή παίρνουν συμβουλές
από τον Δρ Google για διάφορα, -
1:47 - 1:51όπως για «κινδύνους αποβολής σε αεροπλάνο»
-
1:51 - 1:54ή «κοιλιακές κράμπες
στην αρχή της εγκυμοσύνης». -
1:54 - 1:57Το ξέρω επειδή το έχω κάνει πολλές φορές.
-
1:58 - 2:02Και μετά, όταν γεννιέται το μωρό,
καταγράφουν κάθε υπνάκο, κάθε τάισμα, -
2:02 - 2:05κάθε γεγονός σε διάφορες τεχνολογίες.
-
2:06 - 2:08Κι όλες αυτές οι τεχνολογίες μεταμορφώνουν
-
2:08 - 2:13τα πιο ενδόμυχα δεδομένα συμπεριφοράς
και υγείας του μωρού σε κέρδος, -
2:14 - 2:16μοιράζοντάς τα με άλλους.
-
2:17 - 2:19Για να σας δώσω μια ιδέα
πώς λειτουργεί αυτό, -
2:19 - 2:24το 2019 το Βρετανικό Ιατρικό Περιοδικό
δημοσίευσε μια έρευνα που έδειξε -
2:24 - 2:27ότι από τις 24 εφαρμογές
υγείας για κινητό, -
2:28 - 2:31οι 19 μοιράζονταν πληροφορίες με τρίτους.
-
2:32 - 2:38Και αυτοί οι τρίτοι μοιράζονταν
πληροφορίες με άλλους 216 οργανισμούς. -
2:39 - 2:42Από αυτούς τους 216 τέταρτους,
-
2:42 - 2:45μόνο οι τρεις ανήκαν
στον τομέα της υγείας. -
2:46 - 2:48Οι άλλες εταιρίες που είχαν
πρόσβαση σ' αυτά τα δεδομένα -
2:48 - 2:53ήταν μεγάλες τεχνολογικές εταιρίες
όπως η Google, το Facebook ή η Oracle, -
2:54 - 2:56ήταν ψηφιακές διαφημιστικές εταιρίες
-
2:56 - 3:00και επίσης υπήρχε μια εταιρία
αναφοράς πίστωσης καταναλωτών. -
3:01 - 3:02Πολύ σωστά καταλάβατε.
-
3:03 - 3:08Διαφημιστικές και πιστωτικές εταιρίες ίσως
έχουν ήδη σημεία δεδομένων από μικρά μωρά. -
3:09 - 3:12Αλλά οι εφαρμογές, οι αναζητήσεις
και τα κοινωνικά μέσα -
3:12 - 3:15είναι μόνο η κορυφή του παγόβουνου,
-
3:15 - 3:18επειδή τα παιδιά παρακολουθούνται
από πολλαπλές τεχνολογίες -
3:18 - 3:19στην καθημερινότητά τους.
-
3:20 - 3:24Παρακολουθούνται από οικιακές τεχνολογίες
και ψηφιακούς βοηθούς στα σπίτια τους, -
3:24 - 3:26παρακολουθούνται
από εκπαιδευτικές πλατφόρμες -
3:26 - 3:28και εκπαιδευτικές τεχνολογίες
στα σχολεία τους. -
3:28 - 3:30Παρακολουθούνται από διαδικτυακά αρχεία
-
3:30 - 3:33και διαδικτυακά πόρταλ
στο γραφείο του γιατρού τους. -
3:33 - 3:35Από τα παιχνίδια τους
που συνδέονται στο διαδίκτυο, -
3:35 - 3:39τα διαδικτυακά τους παιχνίδια
και πάρα πολλές άλλες τεχνολογίες. -
3:41 - 3:44Κατά τη διάρκεια της έρευνάς μου,
πολλοί γονείς ήρθαν και μου είπαν, -
3:44 - 3:46«Και τι έγινε;
-
3:46 - 3:49Τι σημασία έχει αν
παρακολουθούνται τα παιδιά μου; -
3:50 - 3:51Δεν έχουμε κάτι να κρύψουμε».
-
3:53 - 3:54Έχει σημασία όμως.
-
3:55 - 4:01Έχει σημασία επειδή τα άτομα σήμερα
δεν παρακολουθούνται μόνο, -
4:01 - 4:05σκιαγραφείται και το προφίλ τους
βάσει του ίχνους των δεδομένων τους. -
4:05 - 4:09Η τεχνητή νοημοσύνη και τα προγνωστικά
αναλυτικά στοιχεία χρησιμοποιούνται -
4:09 - 4:13για να συλλέξουν όσο περισσότερα
δεδομένα γίνεται για τη ζωή ενός ατόμου -
4:13 - 4:14από διάφορες πηγές:
-
4:15 - 4:16οικογενειακό ιστορικό,
-
4:16 - 4:19καταναλωτικές συνήθειες,
σχόλια στα κοινωνικά μέσα. -
4:19 - 4:21Και μετά ενώνουν αυτά τα δεδομένα
-
4:21 - 4:24για να πάρουν αποφάσεις
σύμφωνα μ' αυτά για το άτομο. -
4:25 - 4:28Και αυτές οι τεχνολογίες
χρησιμοποιούνται παντού. -
4:28 - 4:30Από τράπεζες για την έγκριση δανείων,
-
4:31 - 4:33από ασφαλιστικές
για τον υπολογισμό των ασφαλίστρων. -
4:34 - 4:37Από γραφεία ευρέσεως εργασίας κι εργοδότες
-
4:37 - 4:40για να αποφασίσουν αν κάποιος
είναι κατάλληλος για μια θέση. -
4:41 - 4:44Τα χρησιμοποιούν επίσης
η αστυνομία και τα δικαστήρια -
4:44 - 4:47για να αποφασίζουν αν κάποιος
είναι ένας δυνητικός εγκληματίας -
4:47 - 4:50ή είναι πιθανόν
να διαπράξει πάλι ένα έγκλημα. -
4:52 - 4:57Δεν γνωρίζουμε ούτε ελέγχουμε
-
4:57 - 5:00τους τρόπους που αυτοί που αγοράζουν,
πωλούν και επεξεργάζονται τα δεδομένα μας -
5:00 - 5:03σκιαγραφούν τα δικά μας προφίλ
και των παιδιών μας. -
5:04 - 5:08Αλλά αυτά τα προφίλ μπορούν να επηρεάσουν
τα δικαιώματά μας με σημαντικούς τρόπους. -
5:09 - 5:12Για να σας δώσω ένα παράδειγμα,
-
5:14 - 5:18το 2018 οι New York Times
δημοσίευσαν ένα άρθρο -
5:18 - 5:20ότι τα δεδομένα που συλλέχθηκαν
-
5:20 - 5:23μέσω διαδικτυακών υπηρεσιών
σχεδιασμού κολεγίου, -
5:23 - 5:28τα οποία συμπληρώθηκαν από εκατομμύρια
μαθητές λυκείου στις ΗΠΑ -
5:28 - 5:31που ψάχνουν για ένα πρόγραμμα
κολεγίου ή μια υποτροφία, -
5:31 - 5:35πωλήθηκαν σε μεσίτες
εκπαιδευτικών δεδομένων. -
5:36 - 5:41Τώρα, ερευνητές στο Φόρνταμ που μελέτησαν
μεσίτες εκπαιδευτικών δεδομένων, -
5:41 - 5:43αποκάλυψαν ότι αυτές οι εταιρίες
-
5:43 - 5:46σκιαγραφούσαν προφίλ παιδιών
έως και δύο ετών -
5:46 - 5:49σύμφωνα με διάφορες κατηγορίες:
-
5:50 - 5:53εθνικότητα, θρησκεία, ευημερία,
-
5:54 - 5:56κοινωνική αδεξιότητα,
-
5:56 - 5:58και πολλές άλλες τυχαίες κατηγορίες.
-
5:59 - 6:04Μετά πωλούν αυτά τα προφίλ
μαζί με το όνομα του παιδιού, -
6:04 - 6:07τη διεύθυνσή τους
και τα στοιχεία επικοινωνίας -
6:07 - 6:09σε διάφορες εταιρίες,
-
6:09 - 6:12συμπεριλαμβανομένων οργανισμών
εμπορίου και καριέρας, -
6:12 - 6:16εταιρίες για φοιτητικά δάνεια
και φοιτητικές πιστωτικές κάρτες. -
6:17 - 6:18Για να ξεπεράσουν τα όρια,
-
6:18 - 6:22οι ερευνητές στo Φόρνταμ ζήτησαν
από έναν μεσίτη εκπαιδευτικών δεδομένων -
6:22 - 6:27να τους δώσει μια λίστα
από κορίτσια 14 με 15 ετών -
6:28 - 6:31που ενδιαφέρθηκαν για υπηρεσίες
οικογενειακού προγραμματισμού. -
6:32 - 6:35Ο μεσίτης δεδομένων συμφώνησε
να τους παρέχει τη λίστα. -
6:35 - 6:40Φανταστείτε πόσο ενδόμυχο και παρεμβατικό
είναι αυτό για τα παιδιά μας. -
6:41 - 6:45Αλλά οι μεσίτες εκπαιδευτικών δεδομένων
είναι μόνο ένα παράδειγμα. -
6:45 - 6:48Η αλήθεια είναι ότι σκιαγραφούν
το προφίλ των παιδιών μας -
6:48 - 6:50με τρόπους που δεν ελέγχουμε,
-
6:50 - 6:53αλλά που μπορούν να επηρεάσουν
σημαντικά τις ευκαιρίες τους στη ζωή. -
6:54 - 6:57Έτσι, πρέπει να αναρωτηθούμε:
-
6:58 - 7:00μπορούμε να εμπιστευτούμε
αυτές τις τεχνολογίες -
7:00 - 7:02με τη σκιαγράφηση
του προφίλ των παιδιών μας; -
7:02 - 7:03Μπορούμε;
-
7:06 - 7:07Η απάντησή μου είναι όχι.
-
7:08 - 7:09Ως ανθρωπολόγος,
-
7:09 - 7:12πιστεύω ότι η τεχνητή νοημοσύνη
και τα προγνωστικά αναλυτικά στοιχεία -
7:12 - 7:15είναι σπουδαία στην πρόβλεψη
της πορείας μιας ασθένειας -
7:15 - 7:17ή στην καταπολέμηση
της κλιματικής αλλαγής. -
7:18 - 7:20Αλλά πρέπει να εγκαταλείψουμε
την πεποίθηση -
7:20 - 7:23ότι αυτές οι τεχνολογίες μπορούν
να δημιουργήσουν αντικειμενικά προφίλ -
7:23 - 7:27και ότι μπορούμε να βασιστούμε πάνω τους
για να πάρουμε αποφάσεις βάσει δεδομένων -
7:27 - 7:28για μεμονωμένες ζωές.
-
7:28 - 7:31Επειδή δεν μπορούν
να σκιαγραφήσουν προφίλ ανθρώπων. -
7:31 - 7:34Τα ίχνη των δεδομένων δεν είναι
ο καθρέφτης αυτού που είμαστε. -
7:34 - 7:37Οι άνθρωποι σκέφτονται
ένα πράγμα και λένε κάτι άλλο, -
7:37 - 7:39νιώθουν κάπως αλλά πράττουν διαφορετικά.
-
7:39 - 7:42Οι αλγοριθμικές προβλέψεις
ή οι ψηφιακές μας πρακτικές -
7:42 - 7:45δεν μπορούν να εξηγήσουν
τη μη προβλεψιμότητα -
7:45 - 7:47και την πολυπλοκότητα
της ανθρώπινης εμπειρίας. -
7:48 - 7:50Αλλά πάνω απ' όλα,
-
7:50 - 7:52αυτές οι τεχνολογίες είναι πάντα,
-
7:53 - 7:54μα πάντα,
-
7:54 - 7:56με τον έναν ή τον άλλο τρόπο,
προκατειλημμένες. -
7:57 - 8:02Βλέπετε, οι αλγόριθμοι είναι εξ ορισμού
ένα σύνολο κανόνων ή βημάτων -
8:02 - 8:06που έχουν σχεδιαστεί για να επιτύχουν
ένα συγκεκριμένο αποτέλεσμα, εντάξει; -
8:07 - 8:10Αλλά αυτό το σύνολο κανόνων
ή βημάτων δεν είναι αντικειμενικό, -
8:10 - 8:12επειδή έχουν σχεδιαστεί από ανθρώπους
-
8:12 - 8:14σε ένα συγκεκριμένο πολιτισμικό πλαίσιο
-
8:14 - 8:16και διαμορφώνονται από
συγκεκριμένες πολιτισμικές αξίες. -
8:17 - 8:18Έτσι, όταν μαθαίνουν οι μηχανές,
-
8:18 - 8:21μαθαίνουν από αλγόριθμους
που είναι προκατειλημμένοι, -
8:22 - 8:25και συχνά μαθαίνουν και από
προκατειλημμένες βάσεις δεδομένων. -
8:26 - 8:29Αυτήν τη στιγμή βλέπουμε τα πρώτα
παραδείγματα αλγοριθμικής προκατάληψης. -
8:30 - 8:33Και μερικά από αυτά τα παραδείγματα
είναι πραγματικά τρομακτικά. -
8:34 - 8:39Φέτος, το Ινστιτούτο AI Now
στη Νέα Υόρκη δημοσίευσε μια αναφορά -
8:39 - 8:41που αποκάλυψε ότι οι τεχνολογίες ΤΝ
-
8:41 - 8:44που χρησιμοποιούνται
για προγνωστική αστυνόμευση -
8:44 - 8:48εκπαιδεύτηκαν με «βρόμικα» δεδομένα.
-
8:48 - 8:51Βασικά, αυτά είναι δεδομένα
που συλλέχθηκαν -
8:51 - 8:55κατά τη διάρκεια ιστορικών περιόδων
με γνωστές ρατσιστικές προκαταλήψεις -
8:55 - 8:58και μη διαφανείς πρακτικές αστυνόμευσης.
-
8:59 - 9:02Επειδή αυτές οι τεχνολογίες
έχουν εκπαιδευτεί με βρόμικα δεδομένα, -
9:03 - 9:04δεν είναι αντικειμενικές,
-
9:04 - 9:07και τα αποτελέσματά τους οδηγούν μόνο
-
9:07 - 9:11στην ενίσχυση της αστυνομικής
προκατάληψης και τη διάπραξη λαθών. -
9:13 - 9:16Νομίζω λοιπόν ότι αντιμετωπίζουμε
ένα ουσιαστικό πρόβλημα -
9:16 - 9:18στην κοινωνία μας.
-
9:18 - 9:23Αρχίζουμε να εμπιστευόμαστε τεχνολογίες
για τη σκιαγράφηση προφίλ ανθρώπων. -
9:24 - 9:26Γνωρίζουμε ότι στη σκιαγράφηση
προφίλ ανθρώπων -
9:26 - 9:29αυτές οι τεχνολογίες πάντα
θα είναι προκατειλημμένες -
9:29 - 9:31και ποτέ δεν θα είναι πραγματικά ακριβείς.
-
9:32 - 9:35Αυτό που χρειαζόμαστε τώρα
είναι μια πολιτική λύση. -
9:35 - 9:37Πρέπει οι κυβερνήσεις να αναγνωρίσουν
-
9:37 - 9:40ότι τα δικαιώματα στα δεδομένα μας
είναι ανθρώπινα δικαιώματα. -
9:40 - 9:45(Χειροκρότημα και επευφημίες)
-
9:48 - 9:52Μέχρι να γίνει αυτό, δεν μπορούμε
να ελπίζουμε για ένα πιο δίκαιο μέλλον. -
9:53 - 9:55Ανησυχώ ότι οι κόρες μου θα εκτεθούν
-
9:56 - 9:59σε διάφορες αλγοριθμικές
προκαταλήψεις και λάθη. -
9:59 - 10:01Η διαφορά ανάμεσα
σε μένα και τις κόρες μου -
10:01 - 10:05είναι ότι δεν υπάρχει δημόσιο αρχείο
εκεί έξω για την παιδική μου ηλικία. -
10:05 - 10:07Σίγουρα δεν υπάρχει βάση δεδομένων
-
10:07 - 10:11με όλες τις χαζομάρες που έκανα
και σκέφτηκα όταν ήμουν έφηβη. -
10:11 - 10:13(Γέλια)
-
10:14 - 10:17Αλλά για τις κόρες μου
ίσως είναι διαφορετικά. -
10:17 - 10:20Τα δεδομένα που συλλέγονται
σήμερα από αυτές -
10:20 - 10:24μπορεί να χρησιμοποιηθούν
για να τις κρίνει στο μέλλον -
10:24 - 10:27και μπορεί να τις αποτρέψει
από τις ελπίδες και τα όνειρά τους. -
10:29 - 10:30Νομίζω ότι είναι καιρός.
-
10:30 - 10:32Είναι καιρός να επιταχύνουμε.
-
10:32 - 10:34Είναι καιρός να αρχίσουμε
να συνεργαζόμαστε -
10:34 - 10:36ως μεμονωμένα άτομα,
-
10:36 - 10:38ως οργανισμοί και θεσμοί,
-
10:38 - 10:41και να απαιτήσουμε μεγαλύτερη
δικαιοσύνη δεδομένων για εμάς -
10:41 - 10:43και για τα παιδιά μας
-
10:43 - 10:44πριν είναι πολύ αργά.
-
10:44 - 10:45Σας ευχαριστώ.
-
10:45 - 10:47(Χειροκρότημα)
- Title:
- Τι γνωρίζουν οι εταιρίες τεχνολογίας για τα παιδιά σας
- Speaker:
- Βερόνικα Μπαράσι
- Description:
-
Οι ψηφιακές πλατφόρμες που χρησιμοποιείτε εσείς και η οικογένειά σας -- από διαδικτυακά παιχνίδια έως εκπαιδευτικές εφαρμογές και ιατρικά πόρταλ - μπορεί να συλλέγουν και να πωλούν τα δεδομένα των παιδιών σας, λέει η ανθρωπολόγος Βερόνικα Μπαράσι. Καθώς μοιράζεται την αποκαλυπτική της έρευνα, η Μπαράσι προτρέπει τους γονείς να ξαναδούν τους ψηφιακούς όρους και προϋποθέσεις αντί να τους αποδέχονται στα τυφλά -- και να απαιτούν προστασίες που διασφαλίζουν ότι τα δεδομένα των παιδιών τους δεν αλλάξει το μέλλον τους.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Lucas Kaimaras approved Greek subtitles for What tech companies know about your kids | ||
Lucas Kaimaras edited Greek subtitles for What tech companies know about your kids | ||
Thanasis Zantrimas accepted Greek subtitles for What tech companies know about your kids | ||
Thanasis Zantrimas edited Greek subtitles for What tech companies know about your kids | ||
Chryssa R. Takahashi edited Greek subtitles for What tech companies know about your kids | ||
Chryssa R. Takahashi edited Greek subtitles for What tech companies know about your kids | ||
Chryssa R. Takahashi edited Greek subtitles for What tech companies know about your kids | ||
Chryssa R. Takahashi edited Greek subtitles for What tech companies know about your kids |