Return to Video

Πώς μπορούμε να εξαφανίσουμε το υλικό σεξουαλικής κακοποίησης παιδιών από το διαδίκτυο

  • 0:01 - 0:03
    [Αυτή η ομιλία περιέχει
    υλικό για ενήλικες]
  • 0:06 - 0:07
    Πριν από πέντε χρόνια,
  • 0:07 - 0:11
    έλαβα ένα τηλεφώνημα
    που θα άλλαζε τη ζωή μου.
  • 0:12 - 0:14
    Θυμάμαι τόσο καλά εκείνη τη μέρα.
  • 0:15 - 0:17
    Ήταν περίπου τέτοια εποχή,
  • 0:17 - 0:19
    και καθόμουν στο γραφείο μου.
  • 0:20 - 0:23
    Θυμάμαι ο ήλιος έμπαινε από το παράθυρο.
  • 0:24 - 0:25
    Και χτύπησε το τηλέφωνό μου.
  • 0:26 - 0:27
    Και το σήκωσα,
  • 0:28 - 0:32
    και ήταν δύο ομοσπονδιακοί πράκτορες,
    που ήθελαν τη βοήθειά μου
  • 0:32 - 0:34
    για να αναγνωρίσουν ένα μικρό κορίτσι
  • 0:34 - 0:38
    που εμφανιζόταν σε εκατοντάδες εικόνες
    παιδικής σεξουαλικής κακοποίησης,
  • 0:38 - 0:40
    που είχαν βρει στο διαδίκτυο.
  • 0:41 - 0:44
    Είχαν μόλις ξεκινήσει
    να εργάζονται στην υπόθεση,
  • 0:44 - 0:47
    αλλά αυτό που ήξεραν ήταν
  • 0:47 - 0:51
    πως η κακοποίησή της αναμεταδίδοταν
    στον κόσμο για χρόνια,
  • 0:51 - 0:57
    σε σελίδες του σκοτεινού διαδικτύου
    ειδικές στη σεξουαλική κακοποίηση παιδιών.
  • 0:58 - 1:02
    Και η κακοποίησή της ήταν
    ιδιαίτερα περίπλοκη τεχνολογικά:
  • 1:02 - 1:07
    νέες εικόνες και βίντεο
    κάθε μερικές εβδομάδες,
  • 1:07 - 1:11
    αλλά ελάχιστα στοιχεία
    σχετικά με την ταυτότητά της,
  • 1:11 - 1:12
    ή το πού βρισκόταν.
  • 1:13 - 1:15
    Και έτσι, μας πήραν τηλέφωνο,
  • 1:15 - 1:17
    επειδή είχαν ακούσει
    πως ήμασταν μια νέα ΜΚΟ
  • 1:17 - 1:19
    που έφτιαχνε τεχνολογία
  • 1:19 - 1:21
    για την καταπολέμηση
    της παιδικής σεξουαλικής κακοποίησης.
  • 1:21 - 1:24
    Αλλά ήμασταν μόνο δύο χρόνων ως εταιρεία,
  • 1:24 - 1:28
    και είχαμε δουλέψει μόνο πάνω
    στη διακίνηση παιδιών για σεξ.
  • 1:28 - 1:31
    Και αναγκάστηκα να τους πω
    πως δεν είχαμε τίποτα.
  • 1:32 - 1:36
    Δεν είχαμε τίποτα που μπορούσε να τους
    βοηθήσει να σταματήσει αυτή η κακοποίηση.
  • 1:37 - 1:41
    Τους πήρε ακόμα έναν χρόνο
  • 1:41 - 1:44
    να εντοπίσουν τελικά αυτό το παιδί.
  • 1:45 - 1:47
    Και μέχρι να διασωθεί,
  • 1:47 - 1:54
    εκατοντάδες εικόνες και βίντεο
    του βιασμού της είχαν γίνει διαδοθεί,
  • 1:54 - 1:55
    από το σκοτεινό διαδίκτυο,
  • 1:55 - 1:58
    σε δίκτυα ομότιμων χρηστών,
    ιδιωτικά φόρουμ συζητήσεων
  • 1:58 - 2:04
    και ιστοσελίδες που εσείς κι εγώ
    χρησιμοποιούμε κάθε μέρα.
  • 2:05 - 2:09
    Και σήμερα, καθώς παλεύει να αναρρώσει,
  • 2:09 - 2:13
    ζει με το γεγονός πως χιλιάδες
    άνθρωποι σε όλον τον κόσμο
  • 2:13 - 2:16
    συνεχίζουν να παρακολουθούν
    την κακοποίησή της.
  • 2:18 - 2:20
    Τα τελευταία πέντε χρόνια συνειδητοποίησα
  • 2:20 - 2:23
    πως αυτή η περίπτωση
    δεν ήταν καθόλου μοναδική.
  • 2:24 - 2:28
    Πώς φτάσαμε σε αυτό το σημείο ως κοινωνία;
  • 2:29 - 2:33
    Στα τέλη της δεκαετίας του '80,
    η παιδική πορνογραφία --
  • 2:33 - 2:39
    ή αυτό που βασικά είναι, υλικό
    σεξουαλικής κακοποίησης παιδιών --
  • 2:39 - 2:40
    είχε σχεδόν εξαφανιστεί.
  • 2:41 - 2:46
    Νέοι νόμοι και αυξημένες ποινές
    καθιστούσαν ιδιαίτερα επικίνδυνο
  • 2:46 - 2:47
    το εμπόριο μέσω ταχυδρομείου.
  • 2:48 - 2:52
    Και έπειτα ήρθε το διαδίκτυο,
    και η αγορά εκτοξέυτηκε.
  • 2:53 - 2:57
    Η ποσότητα του περιεχομένου
    που κυκλοφορεί πλέον,
  • 2:57 - 3:00
    είναι τεράστια και μεγαλώνει.
  • 3:00 - 3:04
    Το πρόβλημα είναι πραγματικά παγκόσμιο,
  • 3:04 - 3:06
    αλλά αν κοιτάξουμε μόνο στις ΗΠΑ:
  • 3:06 - 3:08
    στις ΗΠΑ, μόνο τον περασμένο χρόνο,
  • 3:08 - 3:14
    περισσότερο από 45 εκατομμύρια εικόνες
    και βίντεο με υλικό παιδικής κακοποίησης
  • 3:14 - 3:17
    καταγγέλθηκαν στο Εθνικό Κέντρο
    Αγνοούμενων και Κακοποιημένων παιδιών,
  • 3:17 - 3:22
    και ο αριθμός είναι σχεδόν διπλάσιος
    από τον περασμένο χρόνο.
  • 3:23 - 3:28
    Είναι πολύ δύσκολο να αναλογιστούμε
    τις λεπτομέρειες πίσω από τους αριθμούς,
  • 3:28 - 3:34
    με περισσότερο από το 60% των εικόνων
    να δείχνει παιδιά μικρότερα των 12 χρόνων,
  • 3:34 - 3:38
    και την πλειονότητα του υλικού
    να συμπεριλαμβάνει ακραία σεξουαλική βία.
  • 3:39 - 3:41
    Οι δράστες επαινούνται
    σε δωμάτια συζήτησης
  • 3:41 - 3:44
    αφιερωμένα στην κακοποίηση παιδιών,
  • 3:44 - 3:47
    όπου κερδίζουν βαθμούς και φήμη
  • 3:47 - 3:50
    μεσω περισσότερης κακοποίησης
    και περισσότερων θυμάτων.
  • 3:50 - 3:53
    Σε αυτή την αγορά,
  • 3:53 - 3:57
    το νόμισμα είναι το ίδιο το περιεχόμενο.
  • 3:58 - 4:02
    Είναι ξεκάθαρο πως οι δράστες είναι
    πολύ γρήγοροι στη χρήση νέων τεχνολογιών,
  • 4:02 - 4:05
    αλλά η απάντησή μας
    σαν κοινωνία, δεν είναι.
  • 4:06 - 4:10
    Αυτοί οι δράστες δεν διαβάζουν
    τις συμφωνίες χρήστη των ιστότοπων,
  • 4:10 - 4:14
    και το περιεχόμενο δεν διατηρεί
    τις συμφωνίες γεωγραφικών ορίων.
  • 4:15 - 4:21
    Και κερδίζουν εάν κοιτάμε
    ένα μόνο κομμάτι του παζλ κάθε φορά,
  • 4:21 - 4:25
    το οποίο είναι ακριβώς το πώς
    έχει σχεδιαστεί η απάντησή μας σήμερα.
  • 4:25 - 4:28
    Οι αρχές επιβολής του νόμου
    λειτουργούν με μία δικαιοδοσία.
  • 4:28 - 4:32
    Οι εταιρείες κοιτάνε απλώς
    τη δική τους πλατφόρμα.
  • 4:32 - 4:34
    Και σπάνια μοιράζονται
    όποια δεδομένα μαθαίνουν
  • 4:35 - 4:37
    σε αυτή τη διαδικασία.
  • 4:37 - 4:43
    Είναι ξεκάθαρο πως αυτή
    η αποσυνδεδεμένη προσέγγιση δεν αποδίδει.
  • 4:44 - 4:48
    Πρέπει να σχεδιάσουμε ξανά
    την απάντησή μας σε αυτή την επιδημία
  • 4:48 - 4:49
    στην ψηφιακή εποχή.
  • 4:50 - 4:53
    Και αυτό ακριβώς κάνουμε στη Thorn.
  • 4:53 - 4:57
    Δημιουργούμε τεχνολογία
    που συνδέει αυτές τις τελείες,
  • 4:57 - 4:59
    ώστε να εξοπλίσει τον καθένα
    στην πρώτη γραμμή --
  • 4:59 - 5:02
    τους εφαρμοστές του νόμου,
    ΜΚΟ και εταιρείες --
  • 5:02 - 5:06
    με τα εφόδια που χρειάζονται
    ώστε τελικά να εξαφανίσουν
  • 5:06 - 5:09
    το περιεχόμενο σεξουαλικής
    κακοποίησης παιδιών από το διαδίκτυο.
  • 5:10 - 5:11
    Ας μιλήσουμε για λίγο --
  • 5:11 - 5:12
    (Χειροκρότημα)
  • 5:12 - 5:14
    Ευχαριστώ.
  • 5:14 - 5:16
    (Χειροκρότημα)
  • 5:18 - 5:20
    Ας μιλήσουμε για λίγο
    σχετικά με αυτές τις τελείες.
  • 5:21 - 5:25
    Όπως φαντάζεστε,
    το περιεχόμενο είναι φρικιαστικό.
  • 5:25 - 5:28
    Εάν δεν χρειάζεται να το δεις,
    δεν θέλεις να το δεις.
  • 5:28 - 5:33
    Έτσι, οι περισσότερες εταιρείες
    ή οι υπηρεσίες επιβολής του νόμου
  • 5:33 - 5:35
    που έχουν αυτό το περιεχόμενο
  • 5:35 - 5:39
    μπορούν να μεταφράσουν κάθε αρχείο
    σε μια μοναδική ακολουθία αριθμών.
  • 5:39 - 5:40
    Αυτό ονομάζεται «hash».
  • 5:40 - 5:42
    Είναι ουσιαστικά ένα δακτυλικό αποτύπωμα
  • 5:42 - 5:45
    του κάθε αρχείου ή του κάθε βίντεο.
  • 5:45 - 5:49
    Αυτό τους επιτρέπει να χρησιμοποιήσουν
    την πληροφορία σε έρευνες
  • 5:49 - 5:52
    ή να διαγράψουν το αρχείο
    από τον ιστότοπο της εταιρείας,
  • 5:52 - 5:58
    χωρίς να χρειάζεται να κοιτάνε
    κάθε φορά κάθε εικόνα και κάθε βίντεο.
  • 5:58 - 6:00
    Το πρόβλημα σήμερα, ωστόσο, είναι
  • 6:00 - 6:04
    πως υπάρχουν εκατοντάδες εκατομμύρια
    από αυτά τα αποτυπώματα
  • 6:04 - 6:08
    σε απομονωμένες βάσεις δεδομένων
    ανά τον κόσμο.
  • 6:08 - 6:09
    Η απομόνωση,
  • 6:09 - 6:12
    ίσως αποδίδει για μία εταιρεία
    επειδή προσφέρει καλύτερο έλεγχο,
  • 6:12 - 6:17
    αλλά με το να μη συνδέουμε τα στοιχεία δεν
    μπορούμε να ξέρουμε πόσα είναι ξεχωριστά.
  • 6:17 - 6:20
    Δεν ξέρουμε ποια δείχνουν παιδιά
    που έχουν ήδη διασωθεί
  • 6:20 - 6:23
    ή που ακόμα πρέπει να αναγνωριστούν.
  • 6:23 - 6:27
    Επομένως, η πρώτη βασική αρχή μας
    είναι πως όλα αυτά τα στοιχεία
  • 6:27 - 6:30
    πρέπει να ενωθούν.
  • 6:30 - 6:36
    Τα στοιχεία αυτά, σε συνδυασμό
    με λογισμικό σε παγκόσμιο επίπεδο,
  • 6:37 - 6:40
    μπορούν να έχουν δραματική επίδραση
    με δύο τρόπους.
  • 6:40 - 6:43
    Ο πρώτος είναι η επιβολή του νόμου:
  • 6:43 - 6:47
    βοηθώντας να αναγνωριστούν
    τα θύματα γρηγορότερα,
  • 6:47 - 6:48
    σταματώντας την κακοποίση
  • 6:48 - 6:51
    και σταματώντας εκείνους
    που παράγουν αυτό το περιεχόμενο.
  • 6:51 - 6:54
    Ο δεύτερος είναι με τις εταιρείες:
  • 6:54 - 6:58
    χρησιμοποιώντας τα σαν στοιχεία ώστε να
    εντοπιστούν εκατοντάδες εκατομμύρια αρχεία
  • 6:58 - 6:59
    που κυκλοφορούν σήμερα,
  • 6:59 - 7:01
    κατεβάζοντάς τα
  • 7:01 - 7:07
    και σταματώντας την ανάρτηση
    νέου υλικού, προτού γίνει δημοφιλές.
  • 7:10 - 7:11
    Πριν τέσσερα χρόνια,
  • 7:11 - 7:13
    όταν ολοκληρώθηκε αυτή η υπόθεση,
  • 7:14 - 7:18
    η ομάδα μας ήταν εκεί
    και αισθανόμασταν αυτή, χμ...
  • 7:20 - 7:23
    τη βαθιά αίσθηση αποτυχίας, θα έλεγα,
  • 7:23 - 7:27
    επειδή παρακολουθούσαμε
    ολόκληρη τη χρονιά,
  • 7:27 - 7:28
    ενώ οι έρευνες συνεχίζονταν.
  • 7:28 - 7:32
    Και είδαμε κάθε κομμάτι της έρευνας
  • 7:32 - 7:34
    όπου, εάν υπήρχε η τεχνολογία,
  • 7:34 - 7:37
    θα μπορούσαν να την είχαν
    βρει γρηγορότερα.
  • 7:38 - 7:40
    Και έτσι, φύγαμε από αυτό
  • 7:40 - 7:43
    και πήγαμε και κάναμε
    το μόνο πράγμα που ξέραμε:
  • 7:43 - 7:45
    ξεκινήσαμε να δημιουργούμε λογισμικό.
  • 7:46 - 7:48
    Ξεκινήσαμε με την επιβολή του νόμου.
  • 7:48 - 7:52
    Το όνειρό μας ήταν ένα ξυπνητήρι
    στα γραφεία αστυνομικών παγκοσμίως
  • 7:52 - 7:57
    ώστε εάν κάποιος τολμούσε
    να αναρτήσει ένα νέο θύμα στο διαδίκτυο,
  • 7:57 - 8:00
    κάποιος να ξεκινούσε αμέσως
    να τους αναζητά.
  • 8:01 - 8:04
    Προφανώς δεν μπορώ να μιλήσω
    για τις λεπτομέρειες του λογισμικού,
  • 8:04 - 8:07
    αλλά σήμερα χρησιμοποιείται σε 38 χώρες,
  • 8:07 - 8:10
    και έχει μειώσει τον χρόνο
    ανεύρεσης ενός παιδιού
  • 8:10 - 8:12
    πάνω από 65%.
  • 8:12 - 8:17
    (Χειροκρότημα)
  • 8:21 - 8:24
    Και τώρα ξεκινάμε προς τον δεύτερο στόχο:
  • 8:24 - 8:30
    δημιουργία λογισμικού που βοηθά εταιρείες
    να εντοπίζουν και να διαγράφουν το υλικό.
  • 8:31 - 8:34
    Ας μιλήσουμε λίγο για αυτές τις εταιρείες.
  • 8:34 - 8:40
    Όπως σας είπα -- 45 εκατομμύρια
    εικόνες και βίντεο, στις ΗΠΑ μόνο πέρυσι.
  • 8:40 - 8:44
    Αυτά προήλθαν από 12 μόνο εταιρείες.
  • 8:46 - 8:52
    Δώδεκα εταιρείες, 45 εκατομμύρια αρχεία
    με υλικό σεξουαλικής κακοποίησης παιδιών.
  • 8:52 - 8:55
    Προήλθαν από εταιρείες
    που έχουν τα χρήματα
  • 8:55 - 9:00
    να χτίσουν τις δομές που χρειάζεται
    ώστε να κατεβάζουν αυτό το υλικό.
  • 9:00 - 9:02
    Αλλά υπάρχουν εκατοντάδες άλλες,
  • 9:02 - 9:05
    μικρομεσαίες επιχειρήσεις παγκοσμίως
  • 9:05 - 9:07
    που χρειάζεται να κάνουν αυτή τη δουλειά
  • 9:07 - 9:12
    αλλά: 1) δεν φαντάζονται
    πως θα τις χρησιμοποιούσαν για κακοποίηση
  • 9:12 - 9:18
    ή 2) δεν έχουν τα χρήματα για κάτι
    που δεν τους προσφέρει έσοδα.
  • 9:19 - 9:22
    Έτσι χτίσαμε εμείς
    αυτό το λογισμικό για αυτές,
  • 9:22 - 9:27
    και το σύστημα αυτό γίνεται καλύτερο
    όσο συμμετέχουν περισσότερες εταιρείες.
  • 9:28 - 9:30
    Ας δώσω ένα παράδειγμα.
  • 9:30 - 9:34
    Ο πρώτος μας συνεργάτης,
    η Imgur -- εάν δεν τη γνωρίζετε
  • 9:34 - 9:38
    είναι μία από τις πιο δημοφιλής
    ιστοσελίδες στις ΗΠΑ --
  • 9:38 - 9:43
    είχε εκατομμύρια κομμάτια υλικού
    χρηστών, που αναρτώνταν καθημερινά
  • 9:43 - 9:45
    στην αποστολή τους να κάνουν
    το διαδίκτυο πιο διασκεδαστικό.
  • 9:46 - 9:48
    Συνεργάστηκαν πρώτα μαζί μας.
  • 9:48 - 9:51
    Μέσα σε 20 λεπτά από τη στιγμή
    που ξεκίνησαν στο σύστημά μας,
  • 9:51 - 9:55
    κάποιος προσπάθησε να ανεβάσει
    ένα γνωστό κομμάτι κακοποιητικού υλικού.
  • 9:55 - 9:57
    Μπόρεσαν να το σταματήσουν
    να το κατεβάσουν,
  • 9:57 - 10:00
    το κατήγγειλαν στο Εθνικό Κέντρο
    για Αγνοούμενα και Εκμεταλλευόμενα Παιδιά.
  • 10:00 - 10:02
    Αλλά πήγαν και ένα βήμα παρακάτω,
  • 10:02 - 10:07
    και ερεύνησαν τον λογαριασμό
    του χρήστη που το ανήρτησε.
  • 10:07 - 10:12
    Εκατοντάδες άλλα κομμάτια με υλικό
    από σεξουαλική κακοποίηση παιδιών
  • 10:12 - 10:14
    τα οποία δεν είχαμε δει ποτέ.
  • 10:14 - 10:18
    Και έτσι ξεκινάμε να βλέπουμε
    εκθετική επιρροή.
  • 10:18 - 10:19
    Κατεβάζουμε αυτό το υλικό,
  • 10:20 - 10:23
    καταγγέλλεται στο Εθνικό Κέντρο για
    Αγνοούμενα και Εκμεταλλευόμενα Παιδιά
  • 10:23 - 10:26
    και αυτά τα αποτυπώματα
    αποθηκεύονται στο σύστημα
  • 10:26 - 10:28
    και βοηθούν κάθε άλλη εταιρεία.
  • 10:28 - 10:33
    Και όταν εκατομμύρια αποτυπώματα οδηγούν
    σε εκατομμύρια άλλα, σε πραγματικό χρόνο,
  • 10:33 - 10:37
    οι εταιρείες παγκοσμίως εντοπίζουν
    και κατεβάζουν άμεσα το υλικό,
  • 10:37 - 10:42
    θα έχουμε δραματική αύξηση της ταχύτητας
    με την οποία διαγράφουμε
  • 10:42 - 10:46
    υλικό σεξουαλικής κακοποίησης παιδιών
    από τον παγκόσμιο ιστό.
  • 10:46 - 10:52
    (Χειροκρότημα)
  • 10:54 - 10:57
    Αλλά γι' αυτό, δεν αρκούν μόνο
    το λογισμικό και τα δεδομένα,
  • 10:57 - 10:59
    χρειάζεται και να κλιμακωθεί.
  • 10:59 - 11:03
    Πρέπει να κινητοποιήσουμε
    χιλιάδες αρμόδιους,
  • 11:03 - 11:05
    εκατοντάδες εταιρείες παγκοσμίως,
  • 11:05 - 11:09
    εάν η τεχνολογία μάς επιτρέψει
    να ξεπεράσουμε τους δράστες
  • 11:09 - 11:11
    και να διαλύσουμε τις κοινότητες
  • 11:11 - 11:13
    που κανονικοποιούν
    τη σεξουαλική κακοποίηση παιδιών
  • 11:13 - 11:15
    σε όλο τον κόσμο σήμερα.
  • 11:15 - 11:18
    Και η στιγμή να το κάνουμε είναι τώρα.
  • 11:18 - 11:24
    Δεν μπορούμε πλέον να πούμε πως δεν
    ξέρουμε την επιρροή που έχει στα παιδιά.
  • 11:25 - 11:29
    Η πρώτη γενιά των παιδιών
    των οποίων η κακοποίηση έχει διαδοθεί
  • 11:29 - 11:31
    είναι πλέον νέοι ενήλικες.
  • 11:31 - 11:34
    Το Καναδικό Κέντρο Προστασίας του Παιδιού
  • 11:34 - 11:37
    πρόσφατα έκανε μια έρευνα
    ανάμεσα σε αυτούς τους ενήλικες
  • 11:37 - 11:41
    για να καταλάβει το τραύμα από
    το οποίο προσπαθούν να επανέλθουν,
  • 11:41 - 11:44
    γνωρίζοντας πως η κακοποίησή τους
    είναι ακόμα ζωντανή.
  • 11:45 - 11:50
    Το 80% αυτών των ενηλίκων
    έχουν σκεφτεί την αυτοκτονία.
  • 11:51 - 11:55
    Περισσότερο από 60%
    έχουν προσπαθήσει να αυτοκτονήσουν.
  • 11:56 - 12:01
    Και οι περισσότεροι, ζουν
    καθημερινά με τον φόβο
  • 12:01 - 12:05
    ότι όταν περπατάνε στον δρόμο
    ή έχουν συνέντευξη για μια δουλειά
  • 12:05 - 12:08
    ή πάνε σχολείο
  • 12:08 - 12:10
    ή γνωρίζουν κάποιον στο διαδίκτυο,
  • 12:10 - 12:14
    πως το πρόσωπο αυτό,
    έχει δει την κακοποίησή τους.
  • 12:15 - 12:19
    Και αυτό έγινε πραγματικότητα
    για περισσότερους από 30% από αυτούς.
  • 12:20 - 12:25
    Είχαν αναγνωρισθεί από το διαδικτυακό
    υλικό της κακοποίησής τους.
  • 12:26 - 12:29
    Δεν θα είναι εύκολο,
  • 12:29 - 12:32
    αλλά δεν είναι αδύνατο.
  • 12:32 - 12:35
    Τώρα χρειάζεται τη θέληση,
  • 12:35 - 12:36
    τη θέληση της κοινωνίας μας
  • 12:37 - 12:40
    να κοιτάξει κάτι που είναι
    δύσκολο να κοιτάξει,
  • 12:40 - 12:42
    να βγάλει κάτι από το σκοτάδι
  • 12:42 - 12:45
    ώστε αυτά τα παιδιά να έχουν φωνή.
  • 12:46 - 12:51
    Τη θέληση των εταιρειών
    να δράσουν ώστε να εξασφαλίσουν
  • 12:51 - 12:55
    πως οι πλατφόρμες τους δεν είναι συνένοχες
    στην κακοποίηση ενός παιδιού,
  • 12:55 - 12:59
    τη θέληση των κυβερνήσεων να επενδύσουν
    με τα όργανα επιβολής νόμου
  • 12:59 - 13:04
    στα εργαλεία που χρειάζονται για
    την έρευνα του ηλεκτρονικού εγκλήματος,
  • 13:04 - 13:08
    ακόμα και όταν τα θύματα
    δεν μπορούν να μιλήσουν.
  • 13:10 - 13:13
    Αυτή η τολμηρή δέσμευση
    είναι μέρος αυτής της θέλησης.
  • 13:14 - 13:20
    Είναι η δήλωση πολέμου ενάντια σε ένα
    από τα σκοτεινότερα κακά της ανθρωπότητας.
  • 13:20 - 13:22
    Αλλά αυτό που προσδοκώ
  • 13:22 - 13:26
    είναι πως είναι μια επένδυση
    σε ένα μέλλον
  • 13:26 - 13:29
    στο οποίο κάθε παιδί,
    μπορεί απλά να είναι ένα παιδί.
  • 13:29 - 13:31
    Ευχαριστώ.
  • 13:31 - 13:37
    (Χειροκρότημα)
Title:
Πώς μπορούμε να εξαφανίσουμε το υλικό σεξουαλικής κακοποίησης παιδιών από το διαδίκτυο
Speaker:
Τζούλι Κόρντουα
Description:

Η κοινωνική επιχειρηματίας Τζούλι Κόρντουα εργάζεται σε ένα πρόβλημα για το οποίο δεν είναι εύκολο να μιλήσει κανείς: τη σεξουαλική κακοποίηση παιδιών σε εικόνες και βίντεο στο διαδίκτυο. Στη Thron, φτιάχνει τεχνολογία για να συνδέσει τις κουκκίδες ανάμεσα στη βιομηχανία τεχνολογίας, στην αστυνομία και την κυβέρνηση -- ώστε να μπορέσουμε γρήγορα να σταματήσουμε την ταχύτατη διανομή υλικού κακοποίησης και να σώσουμε γρηγορότερα παιδιά. Μάθετε περισσότερα για το πώς αυτή η επεκτάσιμη λύση θα μπορούσε να βοηθήσει στην εξουδετέρωση των κοινοτήτων που εξομαλύνουν τη σεξουαλική κακοποίηση παιδιών σε όλο τον κόσμο σήμερα. (Αυτό το φιλόδοξο σχέδιο είναι μέρος του Audacious Project, της πρωτοβουλίας της TED να εμπνεύσει και να χρηματοδοτήσει την παγκόσμια αλλαγή.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Greek subtitles

Revisions