1 00:00:00,792 --> 00:00:03,059 Κάθε μέρα, κάθε εβδομάδα, 2 00:00:03,083 --> 00:00:05,268 αποδεχόμαστε όρους και προϋποθέσεις. 3 00:00:05,292 --> 00:00:06,768 Και όταν το κάνουμε αυτό, 4 00:00:06,792 --> 00:00:09,268 παρέχουμε σε εταιρίες το νόμιμο δικαίωμά τους 5 00:00:09,292 --> 00:00:12,796 να κάνουν ό,τι θέλουν με τα δεδομένα μας 6 00:00:13,000 --> 00:00:15,345 και τα δεδομένα των παιδιών μας. 7 00:00:16,792 --> 00:00:19,478 Κάτι που μας κάνει να αναρωτηθούμε: 8 00:00:19,792 --> 00:00:22,594 πόσα δεδομένα των παιδιών δίνουμε 9 00:00:22,708 --> 00:00:24,708 και ποιο είναι το αντίκτυπό τους; 10 00:00:26,500 --> 00:00:29,933 Είμαι ανθρωπολόγος και μητέρα δύο μικρών κοριτσιών. 11 00:00:31,312 --> 00:00:34,748 Άρχισα να ενδιαφέρομαι γι' αυτό το ερώτημα το 2015 12 00:00:34,982 --> 00:00:37,518 όταν συνειδητοποίησα ξαφνικά ότι υπήρχε ένας αχανής, 13 00:00:37,792 --> 00:00:40,919 σχεδόν αδιανόητος όγκος από ίχνη δεδομένων 14 00:00:40,943 --> 00:00:44,080 που δημιουργείται και συλλέγεται σχετικά με τα παιδιά. 15 00:00:44,792 --> 00:00:46,768 Έτσι, ξεκίνησα ένα ερευνητικό έργο 16 00:00:46,792 --> 00:00:49,238 που ονομάζεται Child Data Citizen, 17 00:00:49,292 --> 00:00:51,757 κι ο στόχος του είναι να καλύψει τα κενά. 18 00:00:52,583 --> 00:00:55,601 Τώρα ίσως νομίζετε ότι είμαι εδώ για να σας ρίξω το φταίξιμο 19 00:00:55,621 --> 00:00:58,527 που ανεβάζετε φωτογραφίες των παιδιών σας στα κοινωνικά μέσα, 20 00:00:58,547 --> 00:01:00,389 αλλά δεν είναι αυτό το θέμα. 21 00:01:00,583 --> 00:01:04,140 Το θέμα είναι πολύ μεγαλύτερο από τους γονείς που μοιράζονται τα πάντα. 22 00:01:04,792 --> 00:01:08,653 Έχει να κάνει με τα συστήματα, όχι με μεμονωμένα άτομα. 23 00:01:08,917 --> 00:01:11,298 Δεν φταίτε εσείς και οι συνήθειές σας. 24 00:01:12,833 --> 00:01:15,384 Για πρώτη φορά στην ιστορία 25 00:01:15,708 --> 00:01:19,998 παρακολουθούμε τα μεμονωμένα δεδομένα των παιδιών πολύ πριν τη γέννησή τους. 26 00:01:20,083 --> 00:01:22,578 Μερικές φορές από τη στιγμή της σύλληψης 27 00:01:22,792 --> 00:01:24,793 και μετά σε όλη τους τη ζωή. 28 00:01:25,167 --> 00:01:28,248 Όταν οι γονείς αποφασίζουν να κάνουν παιδιά, 29 00:01:28,292 --> 00:01:31,438 μπαίνουν στο ίντερνετ ψάχνοντας τρόπους για την εγκυμοσύνη 30 00:01:31,552 --> 00:01:34,392 ή κατεβάζουν εφαρμογές παρακολούθησης ωορρηξίας. 31 00:01:35,250 --> 00:01:37,401 Όταν μείνουν έγκυες, 32 00:01:37,875 --> 00:01:40,768 ανεβάζουν τους υπερήχους από το μωρό τους στα κοινωνικά μέσα, 33 00:01:41,042 --> 00:01:42,949 κατεβάζουν εφαρμογές εγκυμοσύνης 34 00:01:43,083 --> 00:01:46,809 ή παίρνουν συμβουλές από τον Δρ Google για διάφορα, 35 00:01:46,833 --> 00:01:50,978 όπως για «κινδύνους αποβολής σε αεροπλάνο» 36 00:01:50,998 --> 00:01:53,606 ή «κοιλιακές κράμπες στην αρχή της εγκυμοσύνης». 37 00:01:53,750 --> 00:01:57,059 Το ξέρω επειδή το έχω κάνει πολλές φορές. 38 00:01:58,458 --> 00:02:02,135 Και μετά, όταν γεννιέται το μωρό, καταγράφουν κάθε υπνάκο, κάθε τάισμα, 39 00:02:02,173 --> 00:02:05,167 κάθε γεγονός σε διάφορες τεχνολογίες. 40 00:02:06,083 --> 00:02:08,163 Κι όλες αυτές οι τεχνολογίες μεταμορφώνουν 41 00:02:08,183 --> 00:02:13,216 τα πιο ενδόμυχα δεδομένα συμπεριφοράς και υγείας του μωρού σε κέρδος, 42 00:02:13,750 --> 00:02:15,852 μοιράζοντάς τα με άλλους. 43 00:02:16,583 --> 00:02:18,726 Για να σας δώσω μια ιδέα πώς λειτουργεί αυτό, 44 00:02:18,750 --> 00:02:23,934 το 2019 το Βρετανικό Ιατρικό Περιοδικό δημοσίευσε μια έρευνα που έδειξε 45 00:02:23,958 --> 00:02:27,231 ότι από τις 24 εφαρμογές υγείας για κινητό, 46 00:02:27,625 --> 00:02:31,233 οι 19 μοιράζονταν πληροφορίες με τρίτους. 47 00:02:32,083 --> 00:02:37,917 Και αυτοί οι τρίτοι μοιράζονταν πληροφορίες με άλλους 216 οργανισμούς. 48 00:02:38,875 --> 00:02:42,109 Από αυτούς τους 216 τέταρτους, 49 00:02:42,333 --> 00:02:44,996 μόνο οι τρεις ανήκαν στον τομέα της υγείας. 50 00:02:45,500 --> 00:02:48,368 Οι άλλες εταιρίες που είχαν πρόσβαση σ' αυτά τα δεδομένα 51 00:02:48,388 --> 00:02:53,449 ήταν μεγάλες τεχνολογικές εταιρίες όπως η Google, το Facebook ή η Oracle, 52 00:02:53,583 --> 00:02:56,004 ήταν ψηφιακές διαφημιστικές εταιρίες 53 00:02:56,208 --> 00:03:00,463 και επίσης υπήρχε μια εταιρία αναφοράς πίστωσης καταναλωτών. 54 00:03:01,125 --> 00:03:02,499 Πολύ σωστά καταλάβατε. 55 00:03:02,583 --> 00:03:07,918 Διαφημιστικές και πιστωτικές εταιρίες ίσως έχουν ήδη σημεία δεδομένων από μικρά μωρά. 56 00:03:09,125 --> 00:03:11,893 Αλλά οι εφαρμογές, οι αναζητήσεις και τα κοινωνικά μέσα 57 00:03:11,917 --> 00:03:15,018 είναι μόνο η κορυφή του παγόβουνου, 58 00:03:15,042 --> 00:03:17,893 επειδή τα παιδιά παρακολουθούνται από πολλαπλές τεχνολογίες 59 00:03:17,917 --> 00:03:19,423 στην καθημερινότητά τους. 60 00:03:19,667 --> 00:03:23,589 Παρακολουθούνται από οικιακές τεχνολογίες και ψηφιακούς βοηθούς στα σπίτια τους, 61 00:03:23,637 --> 00:03:25,786 παρακολουθούνται από εκπαιδευτικές πλατφόρμες 62 00:03:25,833 --> 00:03:28,032 και εκπαιδευτικές τεχνολογίες στα σχολεία τους. 63 00:03:28,042 --> 00:03:29,907 Παρακολουθούνται από διαδικτυακά αρχεία 64 00:03:29,927 --> 00:03:32,534 και διαδικτυακά πόρταλ στο γραφείο του γιατρού τους. 65 00:03:32,708 --> 00:03:35,193 Από τα παιχνίδια τους που συνδέονται στο διαδίκτυο, 66 00:03:35,263 --> 00:03:38,907 τα διαδικτυακά τους παιχνίδια και πάρα πολλές άλλες τεχνολογίες. 67 00:03:40,760 --> 00:03:44,113 Κατά τη διάρκεια της έρευνάς μου, πολλοί γονείς ήρθαν και μου είπαν, 68 00:03:44,137 --> 00:03:45,749 «Και τι έγινε; 69 00:03:46,083 --> 00:03:49,360 Τι σημασία έχει αν παρακολουθούνται τα παιδιά μου; 70 00:03:49,932 --> 00:03:51,475 Δεν έχουμε κάτι να κρύψουμε». 71 00:03:52,958 --> 00:03:54,268 Έχει σημασία όμως. 72 00:03:55,083 --> 00:04:00,531 Έχει σημασία επειδή τα άτομα σήμερα δεν παρακολουθούνται μόνο, 73 00:04:01,125 --> 00:04:05,056 σκιαγραφείται και το προφίλ τους βάσει του ίχνους των δεδομένων τους. 74 00:04:05,250 --> 00:04:09,059 Η τεχνητή νοημοσύνη και τα προγνωστικά αναλυτικά στοιχεία χρησιμοποιούνται 75 00:04:09,083 --> 00:04:12,646 για να συλλέξουν όσο περισσότερα δεδομένα γίνεται για τη ζωή ενός ατόμου 76 00:04:12,750 --> 00:04:14,121 από διάφορες πηγές: 77 00:04:14,565 --> 00:04:16,049 οικογενειακό ιστορικό, 78 00:04:16,123 --> 00:04:18,593 καταναλωτικές συνήθειες, σχόλια στα κοινωνικά μέσα. 79 00:04:19,167 --> 00:04:21,018 Και μετά ενώνουν αυτά τα δεδομένα 80 00:04:21,042 --> 00:04:23,902 για να πάρουν αποφάσεις σύμφωνα μ' αυτά για το άτομο. 81 00:04:24,792 --> 00:04:28,106 Και αυτές οι τεχνολογίες χρησιμοποιούνται παντού. 82 00:04:28,226 --> 00:04:30,487 Από τράπεζες για την έγκριση δανείων, 83 00:04:30,757 --> 00:04:33,312 από ασφαλιστικές για τον υπολογισμό των ασφαλίστρων. 84 00:04:34,208 --> 00:04:36,684 Από γραφεία ευρέσεως εργασίας κι εργοδότες 85 00:04:36,708 --> 00:04:39,535 για να αποφασίσουν αν κάποιος είναι κατάλληλος για μια θέση. 86 00:04:40,925 --> 00:04:43,781 Τα χρησιμοποιούν επίσης η αστυνομία και τα δικαστήρια 87 00:04:43,875 --> 00:04:47,313 για να αποφασίζουν αν κάποιος είναι ένας δυνητικός εγκληματίας 88 00:04:47,417 --> 00:04:50,352 ή είναι πιθανόν να διαπράξει πάλι ένα έγκλημα. 89 00:04:52,458 --> 00:04:56,518 Δεν γνωρίζουμε ούτε ελέγχουμε 90 00:04:56,548 --> 00:05:00,285 τους τρόπους που αυτοί που αγοράζουν, πωλούν και επεξεργάζονται τα δεδομένα μας 91 00:05:00,375 --> 00:05:02,977 σκιαγραφούν τα δικά μας προφίλ και των παιδιών μας. 92 00:05:03,625 --> 00:05:07,667 Αλλά αυτά τα προφίλ μπορούν να επηρεάσουν τα δικαιώματά μας με σημαντικούς τρόπους. 93 00:05:08,917 --> 00:05:11,695 Για να σας δώσω ένα παράδειγμα, 94 00:05:13,792 --> 00:05:17,661 το 2018 οι New York Times δημοσίευσαν ένα άρθρο 95 00:05:17,875 --> 00:05:19,971 ότι τα δεδομένα που συλλέχθηκαν 96 00:05:20,005 --> 00:05:22,814 μέσω διαδικτυακών υπηρεσιών σχεδιασμού κολεγίου, 97 00:05:22,958 --> 00:05:27,684 τα οποία συμπληρώθηκαν από εκατομμύρια μαθητές λυκείου στις ΗΠΑ 98 00:05:27,708 --> 00:05:31,071 που ψάχνουν για ένα πρόγραμμα κολεγίου ή μια υποτροφία, 99 00:05:31,375 --> 00:05:35,077 πωλήθηκαν σε μεσίτες εκπαιδευτικών δεδομένων. 100 00:05:35,792 --> 00:05:40,906 Τώρα, ερευνητές στο Φόρνταμ που μελέτησαν μεσίτες εκπαιδευτικών δεδομένων, 101 00:05:41,250 --> 00:05:43,228 αποκάλυψαν ότι αυτές οι εταιρίες 102 00:05:43,268 --> 00:05:46,146 σκιαγραφούσαν προφίλ παιδιών έως και δύο ετών 103 00:05:46,500 --> 00:05:49,059 σύμφωνα με διάφορες κατηγορίες: 104 00:05:49,583 --> 00:05:53,268 εθνικότητα, θρησκεία, ευημερία, 105 00:05:53,792 --> 00:05:55,521 κοινωνική αδεξιότητα, 106 00:05:55,875 --> 00:05:58,439 και πολλές άλλες τυχαίες κατηγορίες. 107 00:05:58,833 --> 00:06:03,551 Μετά πωλούν αυτά τα προφίλ μαζί με το όνομα του παιδιού, 108 00:06:03,875 --> 00:06:06,594 τη διεύθυνσή τους και τα στοιχεία επικοινωνίας 109 00:06:06,708 --> 00:06:08,559 σε διάφορες εταιρίες, 110 00:06:08,583 --> 00:06:11,592 συμπεριλαμβανομένων οργανισμών εμπορίου και καριέρας, 111 00:06:11,973 --> 00:06:15,545 εταιρίες για φοιτητικά δάνεια και φοιτητικές πιστωτικές κάρτες. 112 00:06:16,542 --> 00:06:17,893 Για να ξεπεράσουν τα όρια, 113 00:06:17,917 --> 00:06:21,586 οι ερευνητές στo Φόρνταμ ζήτησαν από έναν μεσίτη εκπαιδευτικών δεδομένων 114 00:06:21,750 --> 00:06:27,419 να τους δώσει μια λίστα από κορίτσια 14 με 15 ετών 115 00:06:27,583 --> 00:06:30,828 που ενδιαφέρθηκαν για υπηρεσίες οικογενειακού προγραμματισμού. 116 00:06:32,208 --> 00:06:34,788 Ο μεσίτης δεδομένων συμφώνησε να τους παρέχει τη λίστα. 117 00:06:34,838 --> 00:06:39,583 Φανταστείτε πόσο ενδόμυχο και παρεμβατικό είναι αυτό για τα παιδιά μας. 118 00:06:40,833 --> 00:06:44,809 Αλλά οι μεσίτες εκπαιδευτικών δεδομένων είναι μόνο ένα παράδειγμα. 119 00:06:44,833 --> 00:06:47,635 Η αλήθεια είναι ότι σκιαγραφούν το προφίλ των παιδιών μας 120 00:06:47,645 --> 00:06:49,518 με τρόπους που δεν ελέγχουμε, 121 00:06:49,542 --> 00:06:52,958 αλλά που μπορούν να επηρεάσουν σημαντικά τις ευκαιρίες τους στη ζωή. 122 00:06:54,167 --> 00:06:57,323 Έτσι, πρέπει να αναρωτηθούμε: 123 00:06:57,667 --> 00:06:59,869 μπορούμε να εμπιστευτούμε αυτές τις τεχνολογίες 124 00:06:59,919 --> 00:07:02,345 με τη σκιαγράφηση του προφίλ των παιδιών μας; 125 00:07:02,385 --> 00:07:03,395 Μπορούμε; 126 00:07:05,708 --> 00:07:06,958 Η απάντησή μου είναι όχι. 127 00:07:07,792 --> 00:07:08,829 Ως ανθρωπολόγος, 128 00:07:08,869 --> 00:07:12,115 πιστεύω ότι η τεχνητή νοημοσύνη και τα προγνωστικά αναλυτικά στοιχεία 129 00:07:12,190 --> 00:07:14,967 είναι σπουδαία στην πρόβλεψη της πορείας μιας ασθένειας 130 00:07:15,097 --> 00:07:17,150 ή στην καταπολέμηση της κλιματικής αλλαγής. 131 00:07:17,970 --> 00:07:19,987 Αλλά πρέπει να εγκαταλείψουμε την πεποίθηση 132 00:07:20,017 --> 00:07:23,311 ότι αυτές οι τεχνολογίες μπορούν να δημιουργήσουν αντικειμενικά προφίλ 133 00:07:23,311 --> 00:07:27,173 και ότι μπορούμε να βασιστούμε πάνω τους για να πάρουμε αποφάσεις βάσει δεδομένων 134 00:07:27,173 --> 00:07:28,476 για μεμονωμένες ζωές. 135 00:07:28,500 --> 00:07:30,959 Επειδή δεν μπορούν να σκιαγραφήσουν προφίλ ανθρώπων. 136 00:07:31,083 --> 00:07:34,054 Τα ίχνη των δεδομένων δεν είναι ο καθρέφτης αυτού που είμαστε. 137 00:07:34,204 --> 00:07:36,770 Οι άνθρωποι σκέφτονται ένα πράγμα και λένε κάτι άλλο, 138 00:07:36,770 --> 00:07:38,983 νιώθουν κάπως αλλά πράττουν διαφορετικά. 139 00:07:39,082 --> 00:07:41,612 Οι αλγοριθμικές προβλέψεις ή οι ψηφιακές μας πρακτικές 140 00:07:41,642 --> 00:07:44,545 δεν μπορούν να εξηγήσουν τη μη προβλεψιμότητα 141 00:07:44,595 --> 00:07:47,178 και την πολυπλοκότητα της ανθρώπινης εμπειρίας. 142 00:07:48,417 --> 00:07:49,976 Αλλά πάνω απ' όλα, 143 00:07:50,000 --> 00:07:52,304 αυτές οι τεχνολογίες είναι πάντα, 144 00:07:52,708 --> 00:07:53,896 μα πάντα, 145 00:07:53,950 --> 00:07:56,137 με τον έναν ή τον άλλο τρόπο, προκατειλημμένες. 146 00:07:57,125 --> 00:08:02,184 Βλέπετε, οι αλγόριθμοι είναι εξ ορισμού ένα σύνολο κανόνων ή βημάτων 147 00:08:02,208 --> 00:08:05,857 που έχουν σχεδιαστεί για να επιτύχουν ένα συγκεκριμένο αποτέλεσμα, εντάξει; 148 00:08:06,813 --> 00:08:09,753 Αλλά αυτό το σύνολο κανόνων ή βημάτων δεν είναι αντικειμενικό, 149 00:08:09,773 --> 00:08:11,616 επειδή έχουν σχεδιαστεί από ανθρώπους 150 00:08:11,674 --> 00:08:13,560 σε ένα συγκεκριμένο πολιτισμικό πλαίσιο 151 00:08:13,580 --> 00:08:16,280 και διαμορφώνονται από συγκεκριμένες πολιτισμικές αξίες. 152 00:08:16,667 --> 00:08:18,393 Έτσι, όταν μαθαίνουν οι μηχανές, 153 00:08:18,417 --> 00:08:21,017 μαθαίνουν από αλγόριθμους που είναι προκατειλημμένοι, 154 00:08:21,625 --> 00:08:24,953 και συχνά μαθαίνουν και από προκατειλημμένες βάσεις δεδομένων. 155 00:08:25,833 --> 00:08:29,429 Αυτήν τη στιγμή βλέπουμε τα πρώτα παραδείγματα αλγοριθμικής προκατάληψης. 156 00:08:29,583 --> 00:08:33,083 Και μερικά από αυτά τα παραδείγματα είναι πραγματικά τρομακτικά. 157 00:08:34,500 --> 00:08:38,559 Φέτος, το Ινστιτούτο AI Now στη Νέα Υόρκη δημοσίευσε μια αναφορά 158 00:08:38,583 --> 00:08:40,976 που αποκάλυψε ότι οι τεχνολογίες ΤΝ 159 00:08:41,000 --> 00:08:44,386 που χρησιμοποιούνται για προγνωστική αστυνόμευση 160 00:08:44,500 --> 00:08:47,625 εκπαιδεύτηκαν με «βρόμικα» δεδομένα. 161 00:08:48,283 --> 00:08:51,226 Βασικά, αυτά είναι δεδομένα που συλλέχθηκαν 162 00:08:51,250 --> 00:08:55,434 κατά τη διάρκεια ιστορικών περιόδων με γνωστές ρατσιστικές προκαταλήψεις 163 00:08:55,458 --> 00:08:57,878 και μη διαφανείς πρακτικές αστυνόμευσης. 164 00:08:58,542 --> 00:09:02,461 Επειδή αυτές οι τεχνολογίες έχουν εκπαιδευτεί με βρόμικα δεδομένα, 165 00:09:02,625 --> 00:09:04,059 δεν είναι αντικειμενικές, 166 00:09:04,083 --> 00:09:06,671 και τα αποτελέσματά τους οδηγούν μόνο 167 00:09:06,671 --> 00:09:10,940 στην ενίσχυση της αστυνομικής προκατάληψης και τη διάπραξη λαθών. 168 00:09:13,167 --> 00:09:16,309 Νομίζω λοιπόν ότι αντιμετωπίζουμε ένα ουσιαστικό πρόβλημα 169 00:09:16,333 --> 00:09:17,976 στην κοινωνία μας. 170 00:09:18,000 --> 00:09:22,792 Αρχίζουμε να εμπιστευόμαστε τεχνολογίες για τη σκιαγράφηση προφίλ ανθρώπων. 171 00:09:23,750 --> 00:09:26,268 Γνωρίζουμε ότι στη σκιαγράφηση προφίλ ανθρώπων 172 00:09:26,292 --> 00:09:29,101 αυτές οι τεχνολογίες πάντα θα είναι προκατειλημμένες 173 00:09:29,125 --> 00:09:31,481 και ποτέ δεν θα είναι πραγματικά ακριβείς. 174 00:09:31,875 --> 00:09:34,599 Αυτό που χρειαζόμαστε τώρα είναι μια πολιτική λύση. 175 00:09:34,723 --> 00:09:36,506 Πρέπει οι κυβερνήσεις να αναγνωρίσουν 176 00:09:36,506 --> 00:09:39,961 ότι τα δικαιώματα στα δεδομένα μας είναι ανθρώπινα δικαιώματα. 177 00:09:40,292 --> 00:09:44,565 (Χειροκρότημα και επευφημίες) 178 00:09:47,833 --> 00:09:51,917 Μέχρι να γίνει αυτό, δεν μπορούμε να ελπίζουμε για ένα πιο δίκαιο μέλλον. 179 00:09:52,750 --> 00:09:55,476 Ανησυχώ ότι οι κόρες μου θα εκτεθούν 180 00:09:55,500 --> 00:09:58,972 σε διάφορες αλγοριθμικές προκαταλήψεις και λάθη. 181 00:09:59,226 --> 00:10:01,237 Η διαφορά ανάμεσα σε μένα και τις κόρες μου 182 00:10:01,257 --> 00:10:04,685 είναι ότι δεν υπάρχει δημόσιο αρχείο εκεί έξω για την παιδική μου ηλικία. 183 00:10:05,115 --> 00:10:06,846 Σίγουρα δεν υπάρχει βάση δεδομένων 184 00:10:06,846 --> 00:10:11,059 με όλες τις χαζομάρες που έκανα και σκέφτηκα όταν ήμουν έφηβη. 185 00:10:11,083 --> 00:10:12,583 (Γέλια) 186 00:10:13,833 --> 00:10:16,583 Αλλά για τις κόρες μου ίσως είναι διαφορετικά. 187 00:10:17,292 --> 00:10:20,476 Τα δεδομένα που συλλέγονται σήμερα από αυτές 188 00:10:20,500 --> 00:10:24,079 μπορεί να χρησιμοποιηθούν για να τις κρίνει στο μέλλον 189 00:10:24,333 --> 00:10:27,432 και μπορεί να τις αποτρέψει από τις ελπίδες και τα όνειρά τους. 190 00:10:28,583 --> 00:10:30,101 Νομίζω ότι είναι καιρός. 191 00:10:30,125 --> 00:10:31,559 Είναι καιρός να επιταχύνουμε. 192 00:10:31,583 --> 00:10:34,059 Είναι καιρός να αρχίσουμε να συνεργαζόμαστε 193 00:10:34,083 --> 00:10:35,518 ως μεμονωμένα άτομα, 194 00:10:35,542 --> 00:10:38,059 ως οργανισμοί και θεσμοί, 195 00:10:38,083 --> 00:10:41,184 και να απαιτήσουμε μεγαλύτερη δικαιοσύνη δεδομένων για εμάς 196 00:10:41,208 --> 00:10:42,601 και για τα παιδιά μας 197 00:10:42,625 --> 00:10:44,143 πριν είναι πολύ αργά. 198 00:10:44,167 --> 00:10:45,434 Σας ευχαριστώ. 199 00:10:45,458 --> 00:10:46,875 (Χειροκρότημα)