Return to Video

Το τίμημα για ένα «καθαρό» διαδίκτυο

  • 0:00 - 0:04
    [Η ομιλία έχει περιεχόμενο για ενήλικες]
  • 0:05 - 0:09
    Μόριτζ Ριζέβιεκ: Στις 23 Μαρτίου 2013
  • 0:09 - 0:13
    οι χρήστες ανά τον κόσμο
    είδαν στην τροφοδοσία ειδήσεων
  • 0:13 - 0:19
    ένα βίντεο βιασμού ενός νεαρού κοριτσιού
    από έναν άνδρα μεγαλύτερης ηλικίας.
  • 0:19 - 0:23
    Πριν το Facebook αφαιρέσει το βίντεο,
  • 0:23 - 0:28
    είχε ήδη 16.000 κοινοποιήσεις,
  • 0:28 - 0:32
    και είχε ακόμη πάρει 4.000 like.
  • 0:33 - 0:37
    Το βίντεο διαδόθηκε ταχύτατα
    κι εξαπλώθηκε σε όλο το διαδίκτυο.
  • 0:38 - 0:41
    Χανς Μπλοκ: Τότε ήταν που αναρωτηθήκαμε
  • 0:41 - 0:44
    πώς ήταν δυνατόν να βγει
    κάτι τέτοιο στο Facebook;
  • 0:44 - 0:48
    Και επίσης, γιατί δεν βλέπουμε
    τέτοιο περιεχόμενο πιο συχνά;
  • 0:48 - 0:52
    Εξάλλου, στο διαδίκτυο κυκλοφορεί μεγάλη
    ποσότητα αηδιαστικού περιεχομένου,
  • 0:52 - 0:56
    αλλά γιατί βλέπουμε τέτοιες βλακείες τόσο
    σπάνια σε Facebook, Twitter και Google;
  • 0:57 - 1:01
    ΜΡ: Παρόλο που τα λογισμικά
    αναγνώρισης εικόνας εύκολα εντοπίζουν
  • 1:01 - 1:06
    την απεικόνιση σεξουαλικών οργάνων,
    αίματος ή γυμνού δέρματος
  • 1:06 - 1:08
    μέσα σε εικόνες ή σε βίντεο,
  • 1:08 - 1:14
    είναι τρομερά δύσκολο να διακρίνουν
    το πορνογραφικό περιεχόμενο
  • 1:14 - 1:18
    από φωτογραφίες διακοπών,
    αγάλματα του Αδώνιδος
  • 1:18 - 1:21
    ή διαφημίσεις για τον προσυμπτωματικό
    έλεγχο του καρκίνου του μαστού.
  • 1:21 - 1:25
    Δεν μπορεί να διακρίνει τον επί σκηνής
    θεατρικό θάνατο Ρωμαίου και Ιουλιέτας
  • 1:25 - 1:28
    από μια πραγματική επίθεση με μαχαίρι.
  • 1:28 - 1:33
    Δεν μπορεί να διακρίνει τη σάτιρα
    από την προπαγάνδα,
  • 1:33 - 1:37
    τη ειρωνεία από το μίσος,
    και ούτω καθεξής.
  • 1:38 - 1:42
    Ως εκ τούτου, είναι απαραίτητο
    να αποφασίζουν οι άνθρωποι
  • 1:42 - 1:46
    ποιο ύποπτο περιεχόμενο
    θα πρέπει να διαγραφεί,
  • 1:46 - 1:48
    και ποιο θα πρέπει να παραμείνει.
  • 1:49 - 1:52
    Είναι άνθρωποι για τους οποίους
    δεν γνωρίζουμε σχεδόν τίποτα,
  • 1:52 - 1:54
    επειδή εργάζονται μυστικά.
  • 1:54 - 1:56
    Υπογράφουν συμφωνητικά εχεμύθειας,
  • 1:56 - 1:59
    τα οποία τους απαγορεύουν
    να μιλήσουν ή να μοιραστούν
  • 1:59 - 2:03
    οτιδήποτε βλέπουν στις οθόνες τους
    ή πώς τους επηρεάζει η δουλειά τους.
  • 2:03 - 2:07
    Υποχρεούνται να χρησιμοποιούν κωδικούς
    για να μην φανερώσουν τον εργοδότη τους.
  • 2:08 - 2:10
    Εποπτεύονται από ιδιωτικές
    εταιρείες ασφάλειας
  • 2:11 - 2:14
    ούτως ώστε να εξασφαλιστεί
    ότι δεν μιλούν σε δημοσιογράφους.
  • 2:14 - 2:18
    Και απειλούνται με πρόστιμα
    στην περίπτωση που μιλήσουν.
  • 2:18 - 2:22
    Όλα αυτά ακούγονται
    σαν αλλόκοτη αστυνομική ταινία,
  • 2:22 - 2:24
    αλλά είναι αλήθεια.
  • 2:24 - 2:25
    Αυτοί οι άνθρωποι υπάρχουν
  • 2:26 - 2:30
    και ονομάζονται διαχειριστές
    διαδικτυακού περιεχομένου.
  • 2:31 - 2:34
    ΧΜ: Είμαστε οι παραγωγοί
    του ντοκιμαντέρ «Οι Καθαριστές»,
  • 2:34 - 2:36
    και θα θέλαμε να σας μεταφέρουμε
  • 2:36 - 2:39
    σε έναν κόσμο που πολλοί από εσάς
    ίσως δεν γνωρίζετε ακόμη.
  • 2:39 - 2:41
    Δείτε ένα απόσπασμα από την ταινία μας.
  • 2:47 - 2:50
    (Μουσική)
  • 2:52 - 2:56
    (Βίντεο) Διαχειριστής: Πρέπει να μείνω
    ανώνυμος γιατί έχω υπογράψει συμβόλαιο.
  • 2:58 - 3:02
    Δεν μας επιτρέπεται να δηλώσουμε
    για ποιον εργαζόμαστε.
  • 3:03 - 3:05
    Ο λόγος που σας μιλάω
  • 3:05 - 3:09
    είναι ότι ο κόσμος πρέπει
    να ξέρει ότι είμαστε εδώ.
  • 3:11 - 3:14
    Υπάρχει κάποιος που επιβλέπει
    τα κοινωνικά μέσα.
  • 3:14 - 3:16
    Κάνουμε ό,τι καλύτερο μπορούμε
  • 3:16 - 3:20
    για να κρατήσουμε αυτή την πλατφόρμα
    ασφαλή για όλο τον κόσμο.
  • 3:30 - 3:32
    Διαγραφή.
  • 3:32 - 3:34
    Αγνόηση.
  • 3:34 - 3:35
    Διαγραφή.
  • 3:35 - 3:37
    Αγνόηση.
  • 3:37 - 3:38
    Διαγραφή.
  • 3:39 - 3:40
    Αγνόηση.
  • 3:40 - 3:41
    Αγνόηση.
  • 3:42 - 3:43
    Διαγραφή.
  • 3:46 - 3:48
    ΧΜ: Οι επονομαζόμενοι
    διαχειριστές περιεχομένου
  • 3:48 - 3:52
    δεν πληρώνονται οι ίδιοι
    από το Facebook, το Twitter ή το Google,
  • 3:52 - 3:55
    αλλά από εταιρείες εξωτερικής
    ανάθεσης σε όλον τον κόσμο
  • 3:55 - 3:57
    ούτως ώστε να κρατηθούν
    χαμηλά οι μισθοί.
  • 3:57 - 3:59
    Δεκάδες χιλιάδες νέοι άνθρωποι
  • 3:59 - 4:02
    βλέπουν οτιδήποτε
    δεν πρέπει να δούμε εμείς.
  • 4:02 - 4:06
    Και μιλάμε για αποκεφαλισμούς,
    ακρωτηριασμούς,
  • 4:06 - 4:09
    εκτελέσεις, νεκροφιλία,
    βασανισμούς, παιδική κακοποίηση.
  • 4:10 - 4:12
    Χιλιάδες εικόνες σε μια βάρδια -
  • 4:12 - 4:15
    αγνόηση, διαγραφή, μέρα και νύχτα.
  • 4:15 - 4:19
    Και η περισσότερη δουλειά
    γίνεται στη Μανίλα,
  • 4:19 - 4:22
    όπου τα αναλογικά τοξικά απόβλητα
    του Δυτικού κόσμου
  • 4:22 - 4:25
    μεταφέρονταν με δεξαμενόπλοια
    για πολλά χρόνια,
  • 4:25 - 4:29
    τώρα τα ψηφιακά απόβλητα απορρίπτονται
    εκεί μέσω καλωδίων οπτικής ίνας.
  • 4:29 - 4:32
    Και όπως ψάχνουν
    οι επονομαζόμενοι ρακοσυλλέκτες
  • 4:32 - 4:35
    μέσα σε τεράστιους σωρούς
    στις παρυφές της πόλης,
  • 4:35 - 4:40
    οι διαχειριστές περιεχομένου διαπλέουν
    με κλικ έναν απέραντο τοξικό ωκεανό
  • 4:40 - 4:44
    από εικόνες και βίντεο και
    κάθε είδους διανοητικό σκουπίδι,
  • 4:44 - 4:47
    έτσι ώστε να μην χρειαστεί
    να τα δούμε εμείς.
  • 4:47 - 4:50
    ΜΡ: Αλλά σε αντίθεση
    με τις πληγές των ρακοσυλλεκτών,
  • 4:50 - 4:54
    αυτές των διαχειριστών περιεχομένου
    παραμένουν αόρατες.
  • 4:54 - 4:57
    Γεμάτες από σοκαριστικό
    και αποκρουστικό περιεχόμενο,
  • 4:57 - 5:00
    αυτές οι εικόνες και τα βίντεο
    τρυπώνουν στη μνήμη τους
  • 5:01 - 5:04
    όπου ανά πάσα στιγμή μπορεί
    να επιφέρουν απρόβλεπτες συνέπειες:
  • 5:04 - 5:07
    διατροφικές διαταραχές,
    απώλεια της λίμπιντο,
  • 5:07 - 5:11
    αγχώδεις διαταραχές, αλκοολισμό,
  • 5:11 - 5:14
    κατάθλιψη, η οποία μπορεί
    να οδηγήσει ακόμη και σε αυτοκτονία.
  • 5:14 - 5:17
    Οι φωτογραφίες και τα βίντεο τούς μολύνουν
  • 5:17 - 5:19
    και συχνά δεν τους εγκαταλείπουν ποτέ.
  • 5:19 - 5:24
    Αν δεν είναι τυχεροί, αναπτύσσουν
    διαταραχές μετατραυματικού άγχους,
  • 5:24 - 5:26
    όπως οι στρατιώτες
    μετά από πολεμικές αποστολές.
  • 5:27 - 5:31
    Στην ταινία μας αφηγούμαστε
    την ιστορία ενός νεαρού
  • 5:31 - 5:36
    που επιθεωρούσε ζωντανή ροή με απόπειρες
    αυτοκτονίας και αυτοακρωτηριασμούς,
  • 5:36 - 5:38
    ξανά και ξανά,
  • 5:38 - 5:41
    και που τελικά αυτοκτόνησε και ο ίδιος.
  • 5:42 - 5:45
    Δεν είναι μεμονωμένη περίπτωση,
    όπως μας έχουν πει.
  • 5:45 - 5:49
    Είναι το αντίτιμο που όλοι μας πληρώνουμε
  • 5:49 - 5:55
    για αυτά που λέγονται
    καθαρά, ασφαλή και «υγιή»
  • 5:55 - 5:57
    περιβάλλοντα στα κοινωνικά μέσα.
  • 5:58 - 6:01
    Ποτέ πριν στην ιστορία της ανθρωπότητας
  • 6:01 - 6:04
    δεν ήταν ευκολότερο να φτάσεις
    εκατομμύρια ανθρώπους σε όλη τη Γη
  • 6:04 - 6:06
    μέσα σε λίγα δευτερόλεπτα.
  • 6:06 - 6:10
    Ό,τι αναρτάται στα κοινωνικά μέσα
    εξαπλώνεται ταχύτατα σαν επιδημία,
  • 6:10 - 6:14
    και συνεπαίρνει τους ανθρώπους
    σε όλον τον κόσμο.
  • 6:14 - 6:17
    Πριν να διαγραφεί,
  • 6:17 - 6:18
    συχνά είναι ήδη πολύ αργά.
  • 6:19 - 6:21
    Εκατομμύρια ανθρώπων έχουν ήδη μολυνθεί
  • 6:21 - 6:23
    από μίσος και θυμό,
  • 6:23 - 6:26
    και είτε ενεργοποιούνται διαδικτυακά,
  • 6:26 - 6:29
    διασπείροντας ή ενισχύοντας το μίσος
  • 6:29 - 6:33
    ή βγαίνουν στους δρόμους
    και παίρνουν τα όπλα.
  • 6:33 - 6:36
    ΧΜ: Γι' αυτό, μια στρατιά
    από διαχειριστές περιεχομένου
  • 6:36 - 6:40
    κάθονται μπροστά στην οθόνη
    για να αποτρέψουν παράπλευρες απώλειες.
  • 6:40 - 6:43
    Και αποφασίζουν το συντομότερο δυνατόν
  • 6:43 - 6:47
    αν το περιεχόμενο θα μείνει στην πλατφόρμα
    -οπότε πατούν αγνόηση-
  • 6:47 - 6:49
    ή αν θα εξαφανιστεί - και πατούν διαγραφή.
  • 6:50 - 6:52
    Αλλά δεν είναι όλες
    οι αποφάσεις τόσο σαφείς
  • 6:52 - 6:55
    όσο η απόφαση για κάποιο βίντεο
    με παιδική κακοποίηση.
  • 6:55 - 6:58
    Και τι γίνεται με περιεχόμενο
    αμφιλεγόμενο ή με αμφισημίες,
  • 6:58 - 7:02
    που ανεβάζουν ακτιβιστές για τα ατομικά
    δικαιώματα ή πολίτες δημοσιογράφοι;
  • 7:02 - 7:05
    Οι διαχειριστές περιεχομένου συχνά
    αποφασίζουν για τέτοιες περιπτώσεις
  • 7:05 - 7:09
    με την ίδια ταχύτητα
    όπως στις σαφείς περιπτώσεις.
  • 7:10 - 7:12
    ΜΡ: Τώρα θα σας δείξουμε ένα βίντεο
  • 7:12 - 7:16
    και θα σας ζητήσουμε να αποφασίσετε:
  • 7:16 - 7:17
    θα το διαγράφατε,
  • 7:17 - 7:19
    ή δεν θα το διαγράφατε;
  • 7:19 - 7:21
    (Βίντεο)
    (Ήχοι αεροπορικής επιδρομής)
  • 7:21 - 7:24
    (Έκρηξη)
  • 7:28 - 7:34
    (Άνθρωποι που μιλούν Αραβικά)
  • 7:34 - 7:36
    ΜΡ: Ναι, το θολώσαμε λίγο για εσάς.
  • 7:37 - 7:41
    Ένα παιδί ενδεχομένως
    να ταραζόταν επικίνδυνα
  • 7:41 - 7:44
    και να είχε τρομοκρατηθεί
    από τέτοιο περιεχόμενο.
  • 7:44 - 7:46
    Άρα, μάλλον θα το διαγράψετε;
  • 7:48 - 7:52
    Αν όμως αυτό το βίντεο ίσως βοηθούσε την
    έρευνα για τα εγκλήματα πολέμου στη Συρία;
  • 7:53 - 7:56
    Τι θα γινόταν αν κανείς δεν μάθαινε
    γι' αυτή την αεροπορική επιδρομή
  • 7:56 - 8:00
    επειδή αποφάσισαν να το κατεβάσουν
    τα Facebook, YouTube και Twitter;
  • 8:01 - 8:05
    Η Airwars, μια μη κυβερνητική
    οργάνωση με έδρα το Λονδίνο,
  • 8:05 - 8:08
    προσπαθεί να βρίσκει τέτοια βίντεο
    το συντομότερο δυνατόν
  • 8:08 - 8:11
    οποτεδήποτε μεταφορτώνονται
    στα κοινωνικά δίκτυα,
  • 8:11 - 8:12
    με σκοπό να τα αρχειοθετήσουν.
  • 8:13 - 8:16
    Γιατί ξέρουν ότι ανά πάσα στιγμή
  • 8:16 - 8:19
    τα Facebook, YouTube και Twitter
    θα διαγράψουν αυτό το περιεχόμενο.
  • 8:19 - 8:23
    Οι άνθρωποι με όπλο το κινητό τους
    μπορούν να κάνουν ορατό
  • 8:23 - 8:26
    κάτι στο οποίο οι δημοσιογράφοι
    συχνά δεν έχουν πρόσβαση.
  • 8:26 - 8:29
    Οι ομάδες για τα πολιτικά δικαιώματα
    συχνά δεν έχουν άλλη επιλογή
  • 8:29 - 8:33
    για να κάνουν τις καταγραφές τους
    προσβάσιμες σε μεγάλα ακροατήρια
  • 8:33 - 8:35
    από να τις ανεβάσουν
    στα μέσα κοινωνικής δικτύωσης.
  • 8:36 - 8:40
    Αυτή τη δυνατότητα ενδυνάμωσης
    δεν θα έπρεπε να έχει ο Παγκόσμιος Ιστός;
  • 8:41 - 8:43
    Αυτά τα όνειρα δεν είχαν οι άνθρωποι
  • 8:43 - 8:47
    όταν ο Παγκόσμιος Ιστός
    ήταν ακόμα στις απαρχές του;
  • 8:48 - 8:50
    Δεν μπορούν τέτοιου είδους
    φωτογραφίες και βίντεο
  • 8:50 - 8:55
    να πείσουν τους ανθρώπους
    που έχουν γίνει απαθείς στα γεγονότα
  • 8:55 - 8:57
    να το ξανασκεφτούν;
  • 8:58 - 9:02
    ΧΜ: Αντ' αυτού, διαγράφεται
    οτιδήποτε ίσως ενοχλήσει.
  • 9:02 - 9:04
    Και υπάρχει μια γενική αλλαγή
    στην κοινωνία.
  • 9:04 - 9:08
    Τα μέσα, για παράδειγμα, όλο και πιο συχνά
    βάζουν μηνύματα προειδοποίησης
  • 9:08 - 9:09
    στην κορυφή των άρθρων
  • 9:09 - 9:13
    τα οποία κάποιοι τα εκλαμβάνουν
    ως προσβλητικά και ενοχλητικά.
  • 9:13 - 9:17
    Ή επίσης, όλο και περισσότεροι φοιτητές
    στα πανεπιστήμια των ΗΠΑ
  • 9:17 - 9:19
    απαιτούν την αφαίρεση από τη διδακτέα ύλη
  • 9:19 - 9:23
    των κλασσικών έργων που περιέχουν
    σεξουαλική επίθεση ή βία.
  • 9:23 - 9:25
    Αλλά έως ποιο σημείο
    μπορούμε να το κάνουμε αυτό;
  • 9:26 - 9:29
    Η σωματική ακεραιότητα
    είναι εγγυημένη ως ανθρώπινο δικαίωμα
  • 9:29 - 9:31
    από τους θεσμούς παγκοσμίως.
  • 9:31 - 9:35
    Στον Χάρτη των Θεμελιωδών Δικαιωμάτων
    της Ευρωπαϊκής Ένωσης,
  • 9:35 - 9:39
    αυτό το δικαίωμα ρητώς εφαρμόζεται
    στην πνευματική ακεραιότητα.
  • 9:39 - 9:42
    Αλλά ακόμη κι αν είναι
    δύσκολο να προβλεφθεί
  • 9:42 - 9:45
    η ενδεχόμενη τραυματική επίδραση
    των εικόνων και βίντεο,
  • 9:45 - 9:47
    όντως επιθυμούμε να γίνουμε
    τόσο επιφυλακτικοί
  • 9:47 - 9:51
    ώστε να διακινδυνεύουμε να χάσουμε
    την κοινωνική επίγνωση της αδικίας;
  • 9:51 - 9:53
    Τι θα κάνουμε λοιπόν;
  • 9:53 - 9:56
    Ο Μαρκ Ζάκερμπμπεργκ
    πρόσφατα δήλωσε ότι στο μέλλον,
  • 9:56 - 9:59
    οι χρήστες, -εμείς, ή σχεδόν όλοι-
  • 9:59 - 10:02
    θα αποφασίζουν ατομικά
  • 10:02 - 10:04
    τι θα ήθελαν να δουν στην πλατφόρμα,
  • 10:04 - 10:06
    με προσωπικά ρυθμισμένα φίλτρα.
  • 10:06 - 10:09
    Έτσι όλοι μπορούν εύκολα
    να απαιτήσουν να μην ενοχλούνται
  • 10:09 - 10:13
    από εικόνες πολέμου
    ή άλλες βίαιες συγκρούσεις όπως...
  • 10:14 - 10:18
    ΜΡ: Είμαι ο τύπος θεατή
    που δεν με πειράζει να βλέπω στήθη
  • 10:18 - 10:22
    και με ενδιαφέρει πολύ
    το φαινόμενο του θερμοκηπίου,
  • 10:22 - 10:25
    αλλά δεν μου αρέσει ο πόλεμος τόσο πολύ.
  • 10:25 - 10:27
    ΧΜ: Ναι, εγώ είμαι μάλλον το αντίθετο,
  • 10:27 - 10:31
    δεν έχω κανένα εντελώς ενδιαφέρον
    για γυμνά στήθη ή σώματα.
  • 10:31 - 10:34
    Αλλά γιατί όχι όπλα;
    Μου αρέσουν τα όπλα, ναι.
  • 10:35 - 10:39
    ΜΡ: Ελάτε τώρα, αν δεν μοιραστώ
    μια τέτοια κοινωνική άποψη,
  • 10:39 - 10:41
    πώς θα συζητήσουμε
    τα κοινωνικά προβλήματα;
  • 10:41 - 10:44
    Πώς θα καλέσουμε τον κόσμο
    να αναλάβει δράση;
  • 10:44 - 10:47
    Θα προκύψουν ακόμη περισσότερες
    μεμονωμένες περιπτώσεις.
  • 10:48 - 10:51
    Μία από τις βασικές ερωτήσεις είναι:
    «Πώς θα αντισταθμίζεται στο μέλλον
  • 10:51 - 10:56
    η ελευθερία της έκφρασης έναντι
    της ανθρώπινης ανάγκης για προστασία».
  • 10:56 - 10:58
    Είναι θέμα αρχής.
  • 10:59 - 11:03
    Θέλουμε να σχεδιάσουμε
    μια ανοιχτή ή μια κλειστή κοινωνία
  • 11:03 - 11:05
    για το ψηφιακό διάστημα;
  • 11:05 - 11:11
    Η ουσία του προβλήματος είναι
    «ελευθερία ή ασφάλεια».
  • 11:12 - 11:17
    Το Facebook ανέκαθεν ήθελε
    να είναι μια «υγιής» πλατφόρμα.
  • 11:17 - 11:20
    Το σημαντικότερο ήταν
    οι χρήστες να νιώθουν ασφάλεια.
  • 11:21 - 11:23
    Είναι η ίδια επιλογή λέξεων
  • 11:23 - 11:26
    που χρησιμοποίησαν οι διαχειριστές
    περιεχομένου στις Φιλιππίνες
  • 11:26 - 11:28
    σε πολλές από τις συνεντεύξεις μας.
  • 11:28 - 11:31
    (Βίντεο) Ο κόσμος στον οποίον
    ζούμε αυτή τη στιγμή,
  • 11:31 - 11:33
    θεωρώ ότι δεν είναι πολύ υγιής.
  • 11:33 - 11:34
    (Μουσική)
  • 11:34 - 11:38
    Σε αυτόν τον κόσμο
    πραγματικά υπάρχει ένα κακό.
  • 11:38 - 11:41
    (Μουσική)
  • 11:41 - 11:43
    Πρέπει έχουμε τον νου μας γι' αυτό.
  • 11:43 - 11:45
    (Μουσική)
  • 11:45 - 11:48
    Πρέπει να έχουμε τον έλεγχο -
    είτε για καλό ή για κακό.
  • 11:49 - 11:56
    (Μουσική)
  • 11:58 - 12:02
    [Κοίτα προς τα επάνω, Νέε μου! -Θεός]
  • 12:03 - 12:07
    ΜΡ: Στις αυστηρά καθολικές Φιλιππίνες,
    για τους νεαρούς διαχειριστές περιεχομένου
  • 12:07 - 12:10
    αυτό θεωρείται κάπως
    σαν χριστιανική αποστολή.
  • 12:11 - 12:14
    Για να καταπολεμήσουν
    τις αμαρτίες των ανθρώπων
  • 12:14 - 12:16
    που εξαπλώνονται μέσω το διαδικτύου.
  • 12:17 - 12:20
    «Η καθαριότητα είναι το πιο σπουδαίο
    πράγμα μετά την ευσέβεια»
  • 12:20 - 12:24
    είναι μια παροιμία
    που ξέρουν όλοι στις Φιλιππίνες.
  • 12:24 - 12:26
    ΧΜ: Και άλλοι βρίσκουν κίνητρο
  • 12:26 - 12:29
    συγκρίνοντας τον εαυτό τους
    με τον πρόεδρό τους, Ροντρίγκο Ντουτέρτε.
  • 12:30 - 12:33
    Κυβερνά τις Φιλιππίνες από το 2016,
  • 12:33 - 12:37
    και κέρδισε τις εκλογές με την υπόσχεση:
    «Θα τα καθαρίσω όλα».
  • 12:38 - 12:41
    Κι αυτό σημαίνει ότι θα εξαλείψει
    κάθε είδους πρόβλημα
  • 12:41 - 12:44
    κυριολεκτικά σκοτώνοντας
    στους δρόμους ανθρώπους
  • 12:44 - 12:47
    που υποτίθεται ότι είναι εγκληματίες,
    ό,τι κι αν σημαίνει αυτό.
  • 12:47 - 12:48
    Και από την εκλογή του,
  • 12:48 - 12:51
    υπολογίζεται ότι έχουν σκοτωθεί
    περίπου 20.000 άνθρωποι.
  • 12:52 - 12:54
    Κι ένας διαχειριστής στην ταινία μας λέει,
  • 12:54 - 12:56
    «Αυτό που κάνει ο Ντουτέρτε στους δρόμους,
  • 12:56 - 12:58
    το κάνω εγώ στο ίντερνετ».
  • 12:59 - 13:02
    Και ιδού, οι αυτόκλητοι υπερήρωές μας,
  • 13:02 - 13:05
    που επιβάλλουν τον νόμο και την τάξη
    στον ψηφιακό μας κόσμο.
  • 13:05 - 13:08
    Καθαρίζουν τα πάντα,
    τα κάνουν να λάμπουν από καθαριότητα
  • 13:08 - 13:10
    μας προστατεύουν από καθετί κακό.
  • 13:10 - 13:14
    Πρώην καθήκοντα των κρατικών αρχών
  • 13:14 - 13:18
    αναλήφθηκαν από εικοσάρηδες
    απόφοιτους κολεγίου,
  • 13:18 - 13:21
    εξοπλισμένους με μια επιμόρφωση
    τριών με πέντε ημερών,
  • 13:21 - 13:23
    -αυτό είναι επαρκές προσόν-
  • 13:23 - 13:26
    και επιφορτισμένους με το σημαντικό έργο
    να σώσουν την ανθρωπότητα.
  • 13:27 - 13:31
    ΜΡ: Εθνικές κυριαρχίες έχουν δοθεί
    εργολαβικά σε ιδιωτικές εταιρείες,
  • 13:31 - 13:35
    και αυτές μεταβιβάζουν
    τις ευθύνες σε τρίτους.
  • 13:35 - 13:38
    «Το είπα εγώ του σκύλου μου,
    κι ο σκύλος στην ουρά του»,
  • 13:38 - 13:39
    κάπως έτσι είναι.
  • 13:40 - 13:41
    Με τα κοινωνικά δίκτυα,
  • 13:41 - 13:44
    αντιμετωπίζουμε μια εντελώς νέα υποδομή,
  • 13:44 - 13:46
    με τους δικούς της μηχανισμούς,
  • 13:46 - 13:47
    τη δική της λογική περί δράσης,
  • 13:47 - 13:52
    και γι' αυτό το λόγο,
    με δικούς της νέους κινδύνους,
  • 13:52 - 13:56
    που δεν έχουν ακόμη υπάρξει
    στην προψηφιοποιημένη δημόσια σφαίρα.
  • 13:56 - 13:59
    ΧΜ: Όταν ο Μαρκ Ζάκερμπεργκ
    πήγε στο Κογκρέσο των ΗΠΑ
  • 13:59 - 14:01
    ή στην Ευρωπαϊκή Βουλή,
  • 14:01 - 14:03
    αντιμετώπιζε κάθε είδους επικριτές.
  • 14:03 - 14:06
    Και η αντίδρασή του ήταν πάντα η ίδια:
  • 14:07 - 14:08
    «Θα το διορθώσουμε,
  • 14:08 - 14:11
    θα επιληφθούμε αυτού με την ομάδα μου».
  • 14:11 - 14:14
    Αλλά μια τέτοια αντιπαράθεση
    δεν πρέπει να γίνεται
  • 14:14 - 14:16
    στα παρασκήνια του Facebook,
    του Twitter ή του Google -
  • 14:16 - 14:21
    πρέπει να συζητιέται ανοιχτά
    σε νέα κοινοβούλια από πολίτες του κόσμου,
  • 14:21 - 14:26
    σε νέους θεσμούς που αντικατοπτρίζουν
    την ποικιλότητα των ανθρώπων
  • 14:26 - 14:30
    που εναρμονίζονται σε ένα ουτοπικό
    πρόγραμμα ενός παγκόσμιου δικτύου.
  • 14:31 - 14:33
    Και παρόλο που φαίνεται αδύνατον
  • 14:33 - 14:36
    να ληφθούν υπόψιν οι αξίες
    των χρηστών παγκοσμίως,
  • 14:36 - 14:38
    αξίζει να πιστεύουμε
  • 14:38 - 14:41
    ότι μας ενώνουν περισσότερα
    από όσα μας χωρίζουν.
  • 14:42 - 14:45
    ΜΡ: Ναι, σε καιρούς που παίρνει
    τα πάνω του ο λαϊκισμός,
  • 14:45 - 14:49
    ο κόσμος έχει την τάση
    να δικαιολογεί τα συμπτώματα,
  • 14:49 - 14:50
    να τα παραμερίζει,
  • 14:50 - 14:52
    να τα κάνει αόρατα.
  • 14:53 - 14:56
    Αυτή η ιδεολογία εξαπλώνεται παγκοσμίως,
  • 14:56 - 14:59
    αναλογικά αλλά και ψηφιακά,
  • 15:00 - 15:03
    και είναι καθήκον μας να τη σταματήσουμε
  • 15:03 - 15:05
    πριν είναι αργά.
  • 15:06 - 15:10
    Το ερώτημα της ελευθερίας
    και της δημοκρατίας
  • 15:10 - 15:13
    δε πρέπει να έχει μόνο
    αυτές τις δύο επιλογές.
  • 15:13 - 15:14
    ΧΜ: Διαγραφή.
  • 15:14 - 15:16
    ΜΡ: Ή αγνόηση.
  • 15:17 - 15:19
    ΧΜ: Σας ευχαριστούμε πολύ.
  • 15:19 - 15:21
    (Χειροκρότημα)
Title:
Το τίμημα για ένα «καθαρό» διαδίκτυο
Speaker:
Χανς Μπλοκ και Μόριτζ Ριζέβιεκ
Description:

Εκατομμύρια εικόνες και βίντεο μεταφορτώνονται καθημερινά στο διαδίκτυο, ωστόσο το περιεχόμενο στα κοινωνικά μας μέσα σπανίως σοκάρει ή ενοχλεί. Ποιος φροντίζει να έχουμε «καθαρό» διαδίκτυο; Σε αυτή την αποκαλυπτική ομιλία οι παραγωγοί ντοκιμαντέρ, Χανς Μπλοκ και Μόριτζ Ριζέβιεκ, μας ταξιδεύουν στον σκοτεινό κόσμο των διαχειριστών διαδικτυακού περιεχομένου - των ανθρώπων που απασχολούν οι μεγαλύτερες πλατφόρμες των Facebook, Twitter και Google για να ξεκαθαρίζουν το διαδίκτυο από κάθε τοξικό υλικό. Μάθετε περισσότερα για τον ψυχολογικό αντίκτυπο μιας τέτοιας εργασίας - και πώς το «ψηφιακό καθάρισμα» επηρεάζει όσα όλοι μας βλέπουμε και σκεφτόμαστε.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37
Chryssa R. Takahashi approved Greek subtitles for The price of a "clean" internet
Chryssa R. Takahashi accepted Greek subtitles for The price of a "clean" internet
Chryssa R. Takahashi edited Greek subtitles for The price of a "clean" internet
Lucas Kaimaras edited Greek subtitles for The price of a "clean" internet
Lucas Kaimaras edited Greek subtitles for The price of a "clean" internet
Lucas Kaimaras edited Greek subtitles for The price of a "clean" internet
Lucas Kaimaras edited Greek subtitles for The price of a "clean" internet
Lucas Kaimaras edited Greek subtitles for The price of a "clean" internet
Show all

Greek subtitles

Revisions