Πώς μπορούμε να εξαφανίσουμε το υλικό σεξουαλικής κακοποίησης παιδιών από το διαδίκτυο
-
0:01 - 0:03[Αυτή η ομιλία περιέχει
υλικό για ενήλικες] -
0:06 - 0:07Πριν από πέντε χρόνια,
-
0:07 - 0:11έλαβα ένα τηλεφώνημα
που θα άλλαζε τη ζωή μου. -
0:12 - 0:14Θυμάμαι τόσο καλά εκείνη τη μέρα.
-
0:15 - 0:17Ήταν περίπου τέτοια εποχή,
-
0:17 - 0:19και καθόμουν στο γραφείο μου.
-
0:20 - 0:23Θυμάμαι ο ήλιος έμπαινε από το παράθυρο.
-
0:24 - 0:25Και χτύπησε το τηλέφωνό μου.
-
0:26 - 0:27Και το σήκωσα,
-
0:28 - 0:32και ήταν δύο ομοσπονδιακοί πράκτορες,
που ήθελαν τη βοήθειά μου -
0:32 - 0:34για να αναγνωρίσουν ένα μικρό κορίτσι
-
0:34 - 0:38που εμφανιζόταν σε εκατοντάδες εικόνες
παιδικής σεξουαλικής κακοποίησης, -
0:38 - 0:40που είχαν βρει στο διαδίκτυο.
-
0:41 - 0:44Είχαν μόλις ξεκινήσει
να εργάζονται στην υπόθεση, -
0:44 - 0:47αλλά αυτό που ήξεραν ήταν
-
0:47 - 0:51πως η κακοποίησή της αναμεταδίδοταν
στον κόσμο για χρόνια, -
0:51 - 0:57σε σελίδες του σκοτεινού διαδικτύου
ειδικές στη σεξουαλική κακοποίηση παιδιών. -
0:58 - 1:02Και η κακοποίησή της ήταν
ιδιαίτερα περίπλοκη τεχνολογικά: -
1:02 - 1:07νέες εικόνες και βίντεο
κάθε μερικές εβδομάδες, -
1:07 - 1:11αλλά ελάχιστα στοιχεία
σχετικά με την ταυτότητά της, -
1:11 - 1:12ή το πού βρισκόταν.
-
1:13 - 1:15Και έτσι, μας πήραν τηλέφωνο,
-
1:15 - 1:17επειδή είχαν ακούσει
πως ήμασταν μια νέα ΜΚΟ -
1:17 - 1:19που έφτιαχνε τεχνολογία
-
1:19 - 1:21για την καταπολέμηση
της παιδικής σεξουαλικής κακοποίησης. -
1:21 - 1:24Αλλά ήμασταν μόνο δύο χρόνων ως εταιρεία,
-
1:24 - 1:28και είχαμε δουλέψει μόνο πάνω
στη διακίνηση παιδιών για σεξ. -
1:28 - 1:31Και αναγκάστηκα να τους πω
πως δεν είχαμε τίποτα. -
1:32 - 1:36Δεν είχαμε τίποτα που μπορούσε να τους
βοηθήσει να σταματήσει αυτή η κακοποίηση. -
1:37 - 1:41Τους πήρε ακόμα έναν χρόνο
-
1:41 - 1:44να εντοπίσουν τελικά αυτό το παιδί.
-
1:45 - 1:47Και μέχρι να διασωθεί,
-
1:47 - 1:54εκατοντάδες εικόνες και βίντεο
του βιασμού της είχαν γίνει διαδοθεί, -
1:54 - 1:55από το σκοτεινό διαδίκτυο,
-
1:55 - 1:58σε δίκτυα ομότιμων χρηστών,
ιδιωτικά φόρουμ συζητήσεων -
1:58 - 2:04και ιστοσελίδες που εσείς κι εγώ
χρησιμοποιούμε κάθε μέρα. -
2:05 - 2:09Και σήμερα, καθώς παλεύει να αναρρώσει,
-
2:09 - 2:13ζει με το γεγονός πως χιλιάδες
άνθρωποι σε όλον τον κόσμο -
2:13 - 2:16συνεχίζουν να παρακολουθούν
την κακοποίησή της. -
2:18 - 2:20Τα τελευταία πέντε χρόνια συνειδητοποίησα
-
2:20 - 2:23πως αυτή η περίπτωση
δεν ήταν καθόλου μοναδική. -
2:24 - 2:28Πώς φτάσαμε σε αυτό το σημείο ως κοινωνία;
-
2:29 - 2:33Στα τέλη της δεκαετίας του '80,
η παιδική πορνογραφία -- -
2:33 - 2:39ή αυτό που βασικά είναι, υλικό
σεξουαλικής κακοποίησης παιδιών -- -
2:39 - 2:40είχε σχεδόν εξαφανιστεί.
-
2:41 - 2:46Νέοι νόμοι και αυξημένες ποινές
καθιστούσαν ιδιαίτερα επικίνδυνο -
2:46 - 2:47το εμπόριο μέσω ταχυδρομείου.
-
2:48 - 2:52Και έπειτα ήρθε το διαδίκτυο,
και η αγορά εκτοξέυτηκε. -
2:53 - 2:57Η ποσότητα του περιεχομένου
που κυκλοφορεί πλέον, -
2:57 - 3:00είναι τεράστια και μεγαλώνει.
-
3:00 - 3:04Το πρόβλημα είναι πραγματικά παγκόσμιο,
-
3:04 - 3:06αλλά αν κοιτάξουμε μόνο στις ΗΠΑ:
-
3:06 - 3:08στις ΗΠΑ, μόνο τον περασμένο χρόνο,
-
3:08 - 3:14περισσότερο από 45 εκατομμύρια εικόνες
και βίντεο με υλικό παιδικής κακοποίησης -
3:14 - 3:17καταγγέλθηκαν στο Εθνικό Κέντρο
Αγνοούμενων και Κακοποιημένων παιδιών, -
3:17 - 3:22και ο αριθμός είναι σχεδόν διπλάσιος
από τον περασμένο χρόνο. -
3:23 - 3:28Είναι πολύ δύσκολο να αναλογιστούμε
τις λεπτομέρειες πίσω από τους αριθμούς, -
3:28 - 3:34με περισσότερο από το 60% των εικόνων
να δείχνει παιδιά μικρότερα των 12 χρόνων, -
3:34 - 3:38και την πλειονότητα του υλικού
να συμπεριλαμβάνει ακραία σεξουαλική βία. -
3:39 - 3:41Οι δράστες επαινούνται
σε δωμάτια συζήτησης -
3:41 - 3:44αφιερωμένα στην κακοποίηση παιδιών,
-
3:44 - 3:47όπου κερδίζουν βαθμούς και φήμη
-
3:47 - 3:50μεσω περισσότερης κακοποίησης
και περισσότερων θυμάτων. -
3:50 - 3:53Σε αυτή την αγορά,
-
3:53 - 3:57το νόμισμα είναι το ίδιο το περιεχόμενο.
-
3:58 - 4:02Είναι ξεκάθαρο πως οι δράστες είναι
πολύ γρήγοροι στη χρήση νέων τεχνολογιών, -
4:02 - 4:05αλλά η απάντησή μας
σαν κοινωνία, δεν είναι. -
4:06 - 4:10Αυτοί οι δράστες δεν διαβάζουν
τις συμφωνίες χρήστη των ιστότοπων, -
4:10 - 4:14και το περιεχόμενο δεν διατηρεί
τις συμφωνίες γεωγραφικών ορίων. -
4:15 - 4:21Και κερδίζουν εάν κοιτάμε
ένα μόνο κομμάτι του παζλ κάθε φορά, -
4:21 - 4:25το οποίο είναι ακριβώς το πώς
έχει σχεδιαστεί η απάντησή μας σήμερα. -
4:25 - 4:28Οι αρχές επιβολής του νόμου
λειτουργούν με μία δικαιοδοσία. -
4:28 - 4:32Οι εταιρείες κοιτάνε απλώς
τη δική τους πλατφόρμα. -
4:32 - 4:34Και σπάνια μοιράζονται
όποια δεδομένα μαθαίνουν -
4:35 - 4:37σε αυτή τη διαδικασία.
-
4:37 - 4:43Είναι ξεκάθαρο πως αυτή
η αποσυνδεδεμένη προσέγγιση δεν αποδίδει. -
4:44 - 4:48Πρέπει να σχεδιάσουμε ξανά
την απάντησή μας σε αυτή την επιδημία -
4:48 - 4:49στην ψηφιακή εποχή.
-
4:50 - 4:53Και αυτό ακριβώς κάνουμε στη Thorn.
-
4:53 - 4:57Δημιουργούμε τεχνολογία
που συνδέει αυτές τις τελείες, -
4:57 - 4:59ώστε να εξοπλίσει τον καθένα
στην πρώτη γραμμή -- -
4:59 - 5:02τους εφαρμοστές του νόμου,
ΜΚΟ και εταιρείες -- -
5:02 - 5:06με τα εφόδια που χρειάζονται
ώστε τελικά να εξαφανίσουν -
5:06 - 5:09το περιεχόμενο σεξουαλικής
κακοποίησης παιδιών από το διαδίκτυο. -
5:10 - 5:11Ας μιλήσουμε για λίγο --
-
5:11 - 5:12(Χειροκρότημα)
-
5:12 - 5:14Ευχαριστώ.
-
5:14 - 5:16(Χειροκρότημα)
-
5:18 - 5:20Ας μιλήσουμε για λίγο
σχετικά με αυτές τις τελείες. -
5:21 - 5:25Όπως φαντάζεστε,
το περιεχόμενο είναι φρικιαστικό. -
5:25 - 5:28Εάν δεν χρειάζεται να το δεις,
δεν θέλεις να το δεις. -
5:28 - 5:33Έτσι, οι περισσότερες εταιρείες
ή οι υπηρεσίες επιβολής του νόμου -
5:33 - 5:35που έχουν αυτό το περιεχόμενο
-
5:35 - 5:39μπορούν να μεταφράσουν κάθε αρχείο
σε μια μοναδική ακολουθία αριθμών. -
5:39 - 5:40Αυτό ονομάζεται «hash».
-
5:40 - 5:42Είναι ουσιαστικά ένα δακτυλικό αποτύπωμα
-
5:42 - 5:45του κάθε αρχείου ή του κάθε βίντεο.
-
5:45 - 5:49Αυτό τους επιτρέπει να χρησιμοποιήσουν
την πληροφορία σε έρευνες -
5:49 - 5:52ή να διαγράψουν το αρχείο
από τον ιστότοπο της εταιρείας, -
5:52 - 5:58χωρίς να χρειάζεται να κοιτάνε
κάθε φορά κάθε εικόνα και κάθε βίντεο. -
5:58 - 6:00Το πρόβλημα σήμερα, ωστόσο, είναι
-
6:00 - 6:04πως υπάρχουν εκατοντάδες εκατομμύρια
από αυτά τα αποτυπώματα -
6:04 - 6:08σε απομονωμένες βάσεις δεδομένων
ανά τον κόσμο. -
6:08 - 6:09Η απομόνωση,
-
6:09 - 6:12ίσως αποδίδει για μία εταιρεία
επειδή προσφέρει καλύτερο έλεγχο, -
6:12 - 6:17αλλά με το να μη συνδέουμε τα στοιχεία δεν
μπορούμε να ξέρουμε πόσα είναι ξεχωριστά. -
6:17 - 6:20Δεν ξέρουμε ποια δείχνουν παιδιά
που έχουν ήδη διασωθεί -
6:20 - 6:23ή που ακόμα πρέπει να αναγνωριστούν.
-
6:23 - 6:27Επομένως, η πρώτη βασική αρχή μας
είναι πως όλα αυτά τα στοιχεία -
6:27 - 6:30πρέπει να ενωθούν.
-
6:30 - 6:36Τα στοιχεία αυτά, σε συνδυασμό
με λογισμικό σε παγκόσμιο επίπεδο, -
6:37 - 6:40μπορούν να έχουν δραματική επίδραση
με δύο τρόπους. -
6:40 - 6:43Ο πρώτος είναι η επιβολή του νόμου:
-
6:43 - 6:47βοηθώντας να αναγνωριστούν
τα θύματα γρηγορότερα, -
6:47 - 6:48σταματώντας την κακοποίση
-
6:48 - 6:51και σταματώντας εκείνους
που παράγουν αυτό το περιεχόμενο. -
6:51 - 6:54Ο δεύτερος είναι με τις εταιρείες:
-
6:54 - 6:58χρησιμοποιώντας τα σαν στοιχεία ώστε να
εντοπιστούν εκατοντάδες εκατομμύρια αρχεία -
6:58 - 6:59που κυκλοφορούν σήμερα,
-
6:59 - 7:01κατεβάζοντάς τα
-
7:01 - 7:07και σταματώντας την ανάρτηση
νέου υλικού, προτού γίνει δημοφιλές. -
7:10 - 7:11Πριν τέσσερα χρόνια,
-
7:11 - 7:13όταν ολοκληρώθηκε αυτή η υπόθεση,
-
7:14 - 7:18η ομάδα μας ήταν εκεί
και αισθανόμασταν αυτή, χμ... -
7:20 - 7:23τη βαθιά αίσθηση αποτυχίας, θα έλεγα,
-
7:23 - 7:27επειδή παρακολουθούσαμε
ολόκληρη τη χρονιά, -
7:27 - 7:28ενώ οι έρευνες συνεχίζονταν.
-
7:28 - 7:32Και είδαμε κάθε κομμάτι της έρευνας
-
7:32 - 7:34όπου, εάν υπήρχε η τεχνολογία,
-
7:34 - 7:37θα μπορούσαν να την είχαν
βρει γρηγορότερα. -
7:38 - 7:40Και έτσι, φύγαμε από αυτό
-
7:40 - 7:43και πήγαμε και κάναμε
το μόνο πράγμα που ξέραμε: -
7:43 - 7:45ξεκινήσαμε να δημιουργούμε λογισμικό.
-
7:46 - 7:48Ξεκινήσαμε με την επιβολή του νόμου.
-
7:48 - 7:52Το όνειρό μας ήταν ένα ξυπνητήρι
στα γραφεία αστυνομικών παγκοσμίως -
7:52 - 7:57ώστε εάν κάποιος τολμούσε
να αναρτήσει ένα νέο θύμα στο διαδίκτυο, -
7:57 - 8:00κάποιος να ξεκινούσε αμέσως
να τους αναζητά. -
8:01 - 8:04Προφανώς δεν μπορώ να μιλήσω
για τις λεπτομέρειες του λογισμικού, -
8:04 - 8:07αλλά σήμερα χρησιμοποιείται σε 38 χώρες,
-
8:07 - 8:10και έχει μειώσει τον χρόνο
ανεύρεσης ενός παιδιού -
8:10 - 8:12πάνω από 65%.
-
8:12 - 8:17(Χειροκρότημα)
-
8:21 - 8:24Και τώρα ξεκινάμε προς τον δεύτερο στόχο:
-
8:24 - 8:30δημιουργία λογισμικού που βοηθά εταιρείες
να εντοπίζουν και να διαγράφουν το υλικό. -
8:31 - 8:34Ας μιλήσουμε λίγο για αυτές τις εταιρείες.
-
8:34 - 8:40Όπως σας είπα -- 45 εκατομμύρια
εικόνες και βίντεο, στις ΗΠΑ μόνο πέρυσι. -
8:40 - 8:44Αυτά προήλθαν από 12 μόνο εταιρείες.
-
8:46 - 8:52Δώδεκα εταιρείες, 45 εκατομμύρια αρχεία
με υλικό σεξουαλικής κακοποίησης παιδιών. -
8:52 - 8:55Προήλθαν από εταιρείες
που έχουν τα χρήματα -
8:55 - 9:00να χτίσουν τις δομές που χρειάζεται
ώστε να κατεβάζουν αυτό το υλικό. -
9:00 - 9:02Αλλά υπάρχουν εκατοντάδες άλλες,
-
9:02 - 9:05μικρομεσαίες επιχειρήσεις παγκοσμίως
-
9:05 - 9:07που χρειάζεται να κάνουν αυτή τη δουλειά
-
9:07 - 9:12αλλά: 1) δεν φαντάζονται
πως θα τις χρησιμοποιούσαν για κακοποίηση -
9:12 - 9:18ή 2) δεν έχουν τα χρήματα για κάτι
που δεν τους προσφέρει έσοδα. -
9:19 - 9:22Έτσι χτίσαμε εμείς
αυτό το λογισμικό για αυτές, -
9:22 - 9:27και το σύστημα αυτό γίνεται καλύτερο
όσο συμμετέχουν περισσότερες εταιρείες. -
9:28 - 9:30Ας δώσω ένα παράδειγμα.
-
9:30 - 9:34Ο πρώτος μας συνεργάτης,
η Imgur -- εάν δεν τη γνωρίζετε -
9:34 - 9:38είναι μία από τις πιο δημοφιλής
ιστοσελίδες στις ΗΠΑ -- -
9:38 - 9:43είχε εκατομμύρια κομμάτια υλικού
χρηστών, που αναρτώνταν καθημερινά -
9:43 - 9:45στην αποστολή τους να κάνουν
το διαδίκτυο πιο διασκεδαστικό. -
9:46 - 9:48Συνεργάστηκαν πρώτα μαζί μας.
-
9:48 - 9:51Μέσα σε 20 λεπτά από τη στιγμή
που ξεκίνησαν στο σύστημά μας, -
9:51 - 9:55κάποιος προσπάθησε να ανεβάσει
ένα γνωστό κομμάτι κακοποιητικού υλικού. -
9:55 - 9:57Μπόρεσαν να το σταματήσουν
να το κατεβάσουν, -
9:57 - 10:00το κατήγγειλαν στο Εθνικό Κέντρο
για Αγνοούμενα και Εκμεταλλευόμενα Παιδιά. -
10:00 - 10:02Αλλά πήγαν και ένα βήμα παρακάτω,
-
10:02 - 10:07και ερεύνησαν τον λογαριασμό
του χρήστη που το ανήρτησε. -
10:07 - 10:12Εκατοντάδες άλλα κομμάτια με υλικό
από σεξουαλική κακοποίηση παιδιών -
10:12 - 10:14τα οποία δεν είχαμε δει ποτέ.
-
10:14 - 10:18Και έτσι ξεκινάμε να βλέπουμε
εκθετική επιρροή. -
10:18 - 10:19Κατεβάζουμε αυτό το υλικό,
-
10:20 - 10:23καταγγέλλεται στο Εθνικό Κέντρο για
Αγνοούμενα και Εκμεταλλευόμενα Παιδιά -
10:23 - 10:26και αυτά τα αποτυπώματα
αποθηκεύονται στο σύστημα -
10:26 - 10:28και βοηθούν κάθε άλλη εταιρεία.
-
10:28 - 10:33Και όταν εκατομμύρια αποτυπώματα οδηγούν
σε εκατομμύρια άλλα, σε πραγματικό χρόνο, -
10:33 - 10:37οι εταιρείες παγκοσμίως εντοπίζουν
και κατεβάζουν άμεσα το υλικό, -
10:37 - 10:42θα έχουμε δραματική αύξηση της ταχύτητας
με την οποία διαγράφουμε -
10:42 - 10:46υλικό σεξουαλικής κακοποίησης παιδιών
από τον παγκόσμιο ιστό. -
10:46 - 10:52(Χειροκρότημα)
-
10:54 - 10:57Αλλά γι' αυτό, δεν αρκούν μόνο
το λογισμικό και τα δεδομένα, -
10:57 - 10:59χρειάζεται και να κλιμακωθεί.
-
10:59 - 11:03Πρέπει να κινητοποιήσουμε
χιλιάδες αρμόδιους, -
11:03 - 11:05εκατοντάδες εταιρείες παγκοσμίως,
-
11:05 - 11:09εάν η τεχνολογία μάς επιτρέψει
να ξεπεράσουμε τους δράστες -
11:09 - 11:11και να διαλύσουμε τις κοινότητες
-
11:11 - 11:13που κανονικοποιούν
τη σεξουαλική κακοποίηση παιδιών -
11:13 - 11:15σε όλο τον κόσμο σήμερα.
-
11:15 - 11:18Και η στιγμή να το κάνουμε είναι τώρα.
-
11:18 - 11:24Δεν μπορούμε πλέον να πούμε πως δεν
ξέρουμε την επιρροή που έχει στα παιδιά. -
11:25 - 11:29Η πρώτη γενιά των παιδιών
των οποίων η κακοποίηση έχει διαδοθεί -
11:29 - 11:31είναι πλέον νέοι ενήλικες.
-
11:31 - 11:34Το Καναδικό Κέντρο Προστασίας του Παιδιού
-
11:34 - 11:37πρόσφατα έκανε μια έρευνα
ανάμεσα σε αυτούς τους ενήλικες -
11:37 - 11:41για να καταλάβει το τραύμα από
το οποίο προσπαθούν να επανέλθουν, -
11:41 - 11:44γνωρίζοντας πως η κακοποίησή τους
είναι ακόμα ζωντανή. -
11:45 - 11:50Το 80% αυτών των ενηλίκων
έχουν σκεφτεί την αυτοκτονία. -
11:51 - 11:55Περισσότερο από 60%
έχουν προσπαθήσει να αυτοκτονήσουν. -
11:56 - 12:01Και οι περισσότεροι, ζουν
καθημερινά με τον φόβο -
12:01 - 12:05ότι όταν περπατάνε στον δρόμο
ή έχουν συνέντευξη για μια δουλειά -
12:05 - 12:08ή πάνε σχολείο
-
12:08 - 12:10ή γνωρίζουν κάποιον στο διαδίκτυο,
-
12:10 - 12:14πως το πρόσωπο αυτό,
έχει δει την κακοποίησή τους. -
12:15 - 12:19Και αυτό έγινε πραγματικότητα
για περισσότερους από 30% από αυτούς. -
12:20 - 12:25Είχαν αναγνωρισθεί από το διαδικτυακό
υλικό της κακοποίησής τους. -
12:26 - 12:29Δεν θα είναι εύκολο,
-
12:29 - 12:32αλλά δεν είναι αδύνατο.
-
12:32 - 12:35Τώρα χρειάζεται τη θέληση,
-
12:35 - 12:36τη θέληση της κοινωνίας μας
-
12:37 - 12:40να κοιτάξει κάτι που είναι
δύσκολο να κοιτάξει, -
12:40 - 12:42να βγάλει κάτι από το σκοτάδι
-
12:42 - 12:45ώστε αυτά τα παιδιά να έχουν φωνή.
-
12:46 - 12:51Τη θέληση των εταιρειών
να δράσουν ώστε να εξασφαλίσουν -
12:51 - 12:55πως οι πλατφόρμες τους δεν είναι συνένοχες
στην κακοποίηση ενός παιδιού, -
12:55 - 12:59τη θέληση των κυβερνήσεων να επενδύσουν
με τα όργανα επιβολής νόμου -
12:59 - 13:04στα εργαλεία που χρειάζονται για
την έρευνα του ηλεκτρονικού εγκλήματος, -
13:04 - 13:08ακόμα και όταν τα θύματα
δεν μπορούν να μιλήσουν. -
13:10 - 13:13Αυτή η τολμηρή δέσμευση
είναι μέρος αυτής της θέλησης. -
13:14 - 13:20Είναι η δήλωση πολέμου ενάντια σε ένα
από τα σκοτεινότερα κακά της ανθρωπότητας. -
13:20 - 13:22Αλλά αυτό που προσδοκώ
-
13:22 - 13:26είναι πως είναι μια επένδυση
σε ένα μέλλον -
13:26 - 13:29στο οποίο κάθε παιδί,
μπορεί απλά να είναι ένα παιδί. -
13:29 - 13:31Ευχαριστώ.
-
13:31 - 13:37(Χειροκρότημα)
- Title:
- Πώς μπορούμε να εξαφανίσουμε το υλικό σεξουαλικής κακοποίησης παιδιών από το διαδίκτυο
- Speaker:
- Τζούλι Κόρντουα
- Description:
-
Η κοινωνική επιχειρηματίας Τζούλι Κόρντουα εργάζεται σε ένα πρόβλημα για το οποίο δεν είναι εύκολο να μιλήσει κανείς: τη σεξουαλική κακοποίηση παιδιών σε εικόνες και βίντεο στο διαδίκτυο. Στη Thron, φτιάχνει τεχνολογία για να συνδέσει τις κουκκίδες ανάμεσα στη βιομηχανία τεχνολογίας, στην αστυνομία και την κυβέρνηση -- ώστε να μπορέσουμε γρήγορα να σταματήσουμε την ταχύτατη διανομή υλικού κακοποίησης και να σώσουμε γρηγορότερα παιδιά. Μάθετε περισσότερα για το πώς αυτή η επεκτάσιμη λύση θα μπορούσε να βοηθήσει στην εξουδετέρωση των κοινοτήτων που εξομαλύνουν τη σεξουαλική κακοποίηση παιδιών σε όλο τον κόσμο σήμερα. (Αυτό το φιλόδοξο σχέδιο είναι μέρος του Audacious Project, της πρωτοβουλίας της TED να εμπνεύσει και να χρηματοδοτήσει την παγκόσμια αλλαγή.)
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Chryssa R. Takahashi approved Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Chryssa R. Takahashi edited Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Chryssa R. Takahashi accepted Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Chryssa R. Takahashi edited Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Chryssa R. Takahashi edited Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Chryssa R. Takahashi edited Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Chryssa R. Takahashi rejected Greek subtitles for How we can eliminate child sexual abuse material from the internet | ||
Retired user accepted Greek subtitles for How we can eliminate child sexual abuse material from the internet |