Return to Video

Αγαπητό Facebook, να πώς καταστρέφεις τη δημοκρατία

  • 0:01 - 0:03
    Πριν από περίπου πέντε χρόνια,
  • 0:03 - 0:05
    ξαφνιάστηκα που άρχισε
    να μου είναι αδύνατο
  • 0:05 - 0:08
    να συνομιλήσω με ανθρώπους
    διαφορετικής νοοτροπίας.
  • 0:09 - 0:13
    Η σκέψη συζήτησης καυτών θεμάτων
    με τους Αμερικανούς συνανθρώπους μου
  • 0:13 - 0:15
    άρχισε να μου προκαλεί
    μεγαλύτερο πονοκέφαλο
  • 0:15 - 0:19
    από ό,τι όταν συζητούσα στο εξωτερικό
    με πιθανούς εξτρεμιστές.
  • 0:20 - 0:23
    Άρχισε να μου αφήνει περισσότερη
    πίκρα και απογοήτευση.
  • 0:23 - 0:25
    Και έτσι απλά,
  • 0:25 - 0:27
    έστρεψα όλη την προσοχή μου
  • 0:27 - 0:29
    από τις παγκόσμιες απειλές
    εθνικής ασφάλειας
  • 0:29 - 0:32
    στην προσπάθεια να κατανοήσω
    τι προκαλούσε αυτή την ώθηση
  • 0:32 - 0:35
    προς την υπερβολική πόλωση στην πατρίδα.
  • 0:36 - 0:38
    Ως πρώην υπάλληλος και διπλωμάτης της CIA,
  • 0:38 - 0:41
    που δούλευε χρόνια
    πάνω στον αντι-εξτρεμισμό,
  • 0:41 - 0:45
    άρχισα να φοβάμαι πως αυτό απειλούσε
    πολύ παραπάνω τη δημοκρατία μας
  • 0:45 - 0:47
    απ' ό,τι οποιοσδήποτε ξένος αντίπαλος.
  • 0:48 - 0:50
    Έτσι, άρχισα να εμμένω
  • 0:50 - 0:51
    και να λέω την άποψή μου,
  • 0:51 - 0:54
    το οποίο τελικά οδήγησε
    στην πρόσληψή μου στο Facebook
  • 0:54 - 0:57
    και κατά συνέπεια, με έφερε εδώ σήμερα,
  • 0:57 - 1:00
    για να σας προειδοποιήσω πάλι
    για το πώς αυτές οι πλατφόρμες
  • 1:00 - 1:04
    εκμεταλλεύονται και ριζοσπαστικοποιούν
    πάρα πολλούς από εμάς
  • 1:04 - 1:07
    και για να μιλήσω για το πώς
    να ανακτήσουμε την κοινή γνώμη.
  • 1:08 - 1:10
    Υπήρξα διπλωμάτισσα στην Κένυα
  • 1:10 - 1:13
    μόλις μερικά χρόνια μετά τις επιθέσεις
    της 11ης Σεπτεμβρίου,
  • 1:13 - 1:15
    και επικεφαλής των λεγόμενων
    «συναισθηματικών» εκστρατειών
  • 1:15 - 1:17
    κατά μήκος των συνόρων της Σομαλίας.
  • 1:17 - 1:21
    Μεγάλο μέρος της δουλειάς μου ήταν
    να χτίσω εμπιστοσύνη σε κοινότητες
  • 1:21 - 1:23
    που θεωρούνταν οι πιο ευάλωτες
    σε εξτρεμιστικά μηνύματα.
  • 1:24 - 1:28
    Πέρασα ώρες πίνοντας τσάι
    με σκληρούς αντι-Δυτικούς κληρικούς
  • 1:28 - 1:31
    και συνδιαλέχτηκα ακόμη
    και με πιθανούς τρομοκράτες.
  • 1:32 - 1:35
    Και ενώ πολλές απ' αυτές τις συζητήσεις
    ξεκίνησαν με αμοιβαία καχυποψία,
  • 1:35 - 1:39
    δε θυμάμαι καμία να καταλήγει
    σε φωνές και προσβολές,
  • 1:39 - 1:43
    και σε κάποιες περιπτώσεις, συνεργαστήκαμε
    σε σημεία κοινού ενδιαφέροντος.
  • 1:44 - 1:48
    Τα ισχυρότερα μέσα που είχαμε ήταν
    απλά να ακούσουμε, να μάθουμε
  • 1:48 - 1:50
    και να δημιουργήσουμε ενσυναίσθηση.
  • 1:50 - 1:53
    Αυτή είναι η ουσία
    της συναισθηματικής δουλειάς.
  • 1:53 - 1:56
    Γιατί είδα επανειλημμένα
    ότι αυτό που ήθελαν οι περισσότεροι
  • 1:56 - 2:00
    ήταν να τους ακούν, να τους αναγνωρίζουν
    και να τους σέβονται.
  • 2:00 - 2:03
    Και πιστεύω, αυτό είναι
    που θέλουμε οι περισσότεροι.
  • 2:03 - 2:06
    Αυτό που συμβαίνει σήμερα στο διαδίκτυο
    είναι ιδιαίτερα θλιβερό
  • 2:06 - 2:08
    και είναι πρόβλημα
    δυσκολότερα διαχειρίσιμο.
  • 2:09 - 2:13
    Χειραγωγούμαστε
    από το τρέχον σύστημα δεδομένων
  • 2:13 - 2:16
    που παγιώνει τόσους πολλούς
    σε έναν τέτοιο απολυταρχισμό
  • 2:16 - 2:19
    που ο συμβιβασμός
    έχει γίνει πρόστυχη λέξη.
  • 2:20 - 2:21
    Καθώς αυτή τη στιγμή,
  • 2:21 - 2:23
    εταιρές κοινωνικής δικτύωσης
    όπως το Facebook,
  • 2:23 - 2:27
    επωφελούνται κόβοντας και ταΐζοντάς μας
    εξατομικευμένο περιεχόμενο
  • 2:27 - 2:31
    που επιβεβαιώνει αλλά και εκμεταλλεύεται
    τις προτιμήσεις μας.
  • 2:31 - 2:34
    Τα κέρδη τους βασίζονται
    στην πρόκληση ενός δυνατού συναισθήματος
  • 2:34 - 2:36
    για να μας κρατήσει ενεργούς,
  • 2:36 - 2:40
    συχνά κινητοποιώντας τις πιο προκλητικές
    και διχαστικές φωνές
  • 2:40 - 2:44
    στο σημείο που μοιάζει απίθανο
    να βρεθεί κοινό έδαφος.
  • 2:45 - 2:49
    Και παρόλο που όλο και πιο πολλοί άνθρωποι
    φωνάζουν να αλλάξουν οι πλατφόρμες,
  • 2:49 - 2:52
    είναι φανερό ότι από μόνες τους
    δεν θα κάνουν αρκετά.
  • 2:52 - 2:55
    Οι κυβερνήσεις πρέπει να προσάψουν ευθύνες
  • 2:55 - 2:59
    για τα πραγματικά κακά που προκαλούνται
    απ' αυτά τα επιχειρησιακά μοντέλα
  • 2:59 - 3:02
    και να επιβάλουν πρόστιμα
    για τις επιβλαβείς συνέπειες
  • 3:02 - 3:07
    που έχουν στη δημόσια υγεία,
    την κοινή γνώμη και τη δημοκρατία μας.
  • 3:07 - 3:12
    Αλλά δυστυχώς, αυτό δε θα συμβεί εγκαίρως
    για τις Αμερικανικές προεδρικές εκλογές.
  • 3:12 - 3:15
    Επομένως, εξακολουθώ να κρούω τον κώδωνα,
  • 3:15 - 3:18
    επειδή ακόμη κι αν μια μέρα
    τεθούν ισχυροί κανόνες,
  • 3:18 - 3:20
    θα χρειαστούμε όλοι μας,
    για να το διορθώσουμε.
  • 3:21 - 3:24
    Όταν άρχισα να στρέφω
    την προσοχή μου από ξένες απειλές
  • 3:24 - 3:26
    στην ανάλυση του πολιτικού διαλόγου
  • 3:26 - 3:30
    αναρωτήθηκα αν κάποιες απ' τις εκστρατείες
    θα μπορούσαν να χρησιμοποιηθούν,
  • 3:30 - 3:32
    για να επουλωθούν οι διαχωρισμοί μας.
  • 3:32 - 3:36
    Το πείραμα της δημοκρατίας
    δουλεύει για πάνω από 200 χρόνια
  • 3:36 - 3:40
    σε μεγάλο βαθμό γιατί μπορούμε
    ανοιχτά και με πάθος
  • 3:40 - 3:43
    να συζητήσουμε τις ιδέες μας
    για τις καλύτερες λύσεις.
  • 3:43 - 3:45
    Αλλά ενώ ακόμη πιστεύω βαθιά
  • 3:45 - 3:47
    στη δύναμη του πολιτικού
    διαλόγου κατ' ιδίαν,
  • 3:47 - 3:49
    απλώς δεν μπορεί να συναγωνιστεί
  • 3:49 - 3:52
    την πόλωση και την κλίμακα
    των σημερινών μέσων κοινωνικής δικτύωσης.
  • 3:53 - 3:55
    Οι άνθρωποι που βυθίζονται στα λαγούμια
  • 3:55 - 3:56
    της οργής των μέσων αυτών
  • 3:56 - 4:00
    συχνά δυσκολεύονται περισσότερο
    να αλλάξουν τις ιδεολογίες τους
  • 4:00 - 4:03
    από εκείνες τις ευάλωτες κοινότητες,
    με τις οποίες συνεργάστηκα.
  • 4:04 - 4:06
    Έτσι, όταν με ζήτησαν
    απ' το Facebook το 2018
  • 4:06 - 4:07
    και μου προσέφεραν τη θέση
  • 4:07 - 4:11
    να διευθύνω τις επιχειρήσεις εκλογικής
    ακεραιότητας στην πολιτική διαφήμιση,
  • 4:11 - 4:13
    ένιωσα ότι έπρεπε να δεχτώ.
  • 4:13 - 4:16
    Δεν είχα ψευδαισθήσεις ότι μπορούσα
    να διορθώσω τα πάντα.
  • 4:16 - 4:18
    Αλλά όταν μου έδωσαν την ευκαιρία
  • 4:18 - 4:20
    να σχεδιάσω μια καλύτερη πορεία,
  • 4:20 - 4:21
    έπρεπε τουλάχιστον να δοκιμάσω.
  • 4:23 - 4:25
    Δε δούλεψα ακριβώς πάνω στην πόλωση,
  • 4:25 - 4:29
    αλλά έψαξα ποια ζητήματα ήταν
    τα πιο διχαστικά στην κοινωνία μας
  • 4:29 - 4:33
    και άρα τα πιο εκμεταλλεύσιμα
    σε προσπάθειες εκλογικών παρεμβάσεων,
  • 4:33 - 4:36
    που ήταν η πολιτική
    της Ρωσίας πριν το 2016.
  • 4:37 - 4:39
    Έτσι, άρχισα τις ερωτήσεις.
  • 4:39 - 4:42
    Ήθελα να καταλάβω
    τα υποκείμενα θέματα του συστήματος
  • 4:42 - 4:44
    που επέτρεπαν να συμβαίνει όλο αυτό,
  • 4:44 - 4:47
    ούτως ώστε να βρω πώς να το διορθώσω.
  • 4:48 - 4:50
    Πιστεύω ακόμη στη δύναμη του διαδικτύου
  • 4:50 - 4:52
    να φέρνει περισσότερες φωνές στη συζήτηση,
  • 4:53 - 4:56
    όμως παρά τον δηλωμένο στόχο τους
    να χτίζουν κοινότητες,
  • 4:56 - 4:59
    τα μεγαλύτερα μέσα κοινωνικής δικτύωσης
    όπως τώρα είναι δομημένα,
  • 4:59 - 5:02
    είναι αντίθετα με την έννοια
    του εμπεριστατωμένου διαλόγου.
  • 5:03 - 5:05
    Δε γίνεται να επιβραβεύσεις την κατανόηση,
  • 5:05 - 5:07
    να ενθαρρύνεις τον πολιτικό διάλογο
  • 5:07 - 5:10
    και να προστατεύεις ανθρώπους
    που ειλικρινά θέλουν να θέσουν ερωτήματα
  • 5:11 - 5:14
    σε μια επιχείρηση όπου
    η συμμετοχή και η αύξηση των χρηστών
  • 5:14 - 5:17
    είναι οι δύο σημαντικότερες
    μετρήσεις για την επιτυχία.
  • 5:17 - 5:20
    Δεν υπάρχει κίνητρο
    για να ηρεμήσει ο κόσμος,
  • 5:21 - 5:24
    να ενσωματωθεί αρκετή τριβή,
    ώστε ο κόσμος να σταματήσει,
  • 5:24 - 5:27
    να αντιληφθεί τη συναισθηματική του
    αντίδραση σε κάτι,
  • 5:27 - 5:30
    και να αμφισβητήσει τις δικές του
    εικασίες πριν εμπλακεί.
  • 5:31 - 5:33
    Η ατυχής πραγματικότητα είναι η εξής:
  • 5:33 - 5:35
    το ψέμα στο διαδίκτυο
    υπερισχύει της αλήθειας
  • 5:36 - 5:39
    και η αισχρότητα νικά την ετοιμόρροπη,
    βασισμένη σε γεγονότα λογική
  • 5:39 - 5:42
    σε έναν κόσμο βελτιστοποιημένο
    για μια δημοφιλία χωρίς τριβές.
  • 5:43 - 5:46
    Όσο ο στόχος των αλγορίθμων
    είναι να μας κρατάν ενεργούς,
  • 5:47 - 5:51
    θα συνεχίσουν να μας ταΐζουν το δηλητήριο
    που μπαίνει στα χειρότερα ένστικτά μας
  • 5:51 - 5:52
    και στις ανθρώπινες αδυναμίες.
  • 5:53 - 5:56
    Και ναι, ο θυμός, η δυσπιστία,
  • 5:56 - 5:58
    η καλλιέργεια φόβου, το μίσος:
  • 5:58 - 6:00
    τίποτα απ' αυτά δεν είναι
    νέο στην Αμερική.
  • 6:01 - 6:04
    Όμως, τα μέσα κοινωνικής δικτύωσης
    τα έχουν εκμεταλλευτεί όλα αυτά
  • 6:04 - 6:07
    και κατ' εμέ, έχουν γείρει
    τη ζυγαριά δραματικά.
  • 6:08 - 6:10
    Και το Facebook το γνωρίζει.
  • 6:10 - 6:12
    Ένα πρόσφατο άρθρο
    στη «Wall Street Journal»
  • 6:12 - 6:16
    αποκάλυψε μια παρουσίαση του 2018
    του ίδιου του Facebook
  • 6:16 - 6:20
    που αναφέρεται συγκεκριμένα
    στους αλγόριθμους της εταιρίας,
  • 6:20 - 6:23
    οι οποίοι αυξάνουν την παρουσία
    εξτρεμιστικών γκρουπ στην πλατφόρμα τους
  • 6:23 - 6:26
    και πολώνουν τους χρήστες τους.
  • 6:27 - 6:30
    Όμως κερδίζουν λεφτά
    κρατώντας μας ενεργούς.
  • 6:30 - 6:34
    Το σύγχρονο περιβάλλον πληροφοριών
    είναι παγιωμένο στο να μας σκιαγραφεί
  • 6:35 - 6:38
    και να μας χωρίζει σε μικρές κατηγορίες,
  • 6:38 - 6:40
    για να τελειοποιήσει
    αυτή τη διαδικασία εξατομίκευσης.
  • 6:41 - 6:45
    Μετά βομβαρδιζόμαστε από πληροφορίες
    που επιβεβαιώνουν τις αντιλήψεις μας,
  • 6:45 - 6:47
    ενισχύουν τις θέσεις μας
  • 6:47 - 6:50
    και μας κάνουν να αισθανόμαστε
    ότι κάπου ανήκουμε.
  • 6:50 - 6:54
    Αυτές είναι μερικές τακτικές
    που τρομοκράτες υπεύθυνοι προσλήψεων
  • 6:54 - 6:56
    χρησιμοποιούσαν στην ευάλωτη νεολαία,
  • 6:56 - 6:59
    αν και πριν τα μέσα κοινωνικής δικτύωσης
    με πιο περιορισμένους τρόπους,
  • 7:00 - 7:03
    με σκοπό να επηρεάσουν τη συμπεριφορά της.
  • 7:03 - 7:08
    Δυστυχώς, το Facebook δεν με έθεσε ποτέ
    αρμόδια για να έχω πραγματική επιρροή.
  • 7:08 - 7:12
    Μάλιστα, τη δεύτερη μέρα, μου άλλαξαν
    το όνομα και την περιγραφή της θέσης μου
  • 7:12 - 7:15
    και με αφαίρεσαν
    από τα συμβούλια αποφάσεων.
  • 7:15 - 7:17
    Οι μεγαλύτερες προσπάθειές μου
  • 7:17 - 7:18
    να φτιάξω σχέδια,
  • 7:18 - 7:20
    να πολεμήσω την παραπληροφόρηση
  • 7:20 - 7:23
    και την καταπίεση ψηφοφόρων
    σε πολιτικές διαφημίσεις, απορρίφθηκαν.
  • 7:23 - 7:26
    Κι έτσι, έμεινα λίγο λιγότερο
    από έξι μήνες.
  • 7:26 - 7:29
    Αυτό είναι το κυριότερο συμπέρασμα
    από τον χρόνο μου εκεί.
  • 7:30 - 7:32
    Υπάρχουν χιλιάδες άνθρωποι στο Facebook
  • 7:32 - 7:34
    που δουλεύουν με πάθος πάνω σ' ένα προϊόν,
  • 7:34 - 7:37
    που πιστεύουν ειλικρινά
    ότι βελτιώνει τον κόσμο,
  • 7:38 - 7:42
    αλλά όσο η εταιρία συνεχίζει απλώς
    να πειραματίζεται με τα όρια
  • 7:42 - 7:44
    της πολιτικής και εποπτείας περιεχομένου,
  • 7:44 - 7:46
    αντί να αναλογιστούν
  • 7:46 - 7:49
    πώς ολόκληρη η μηχανή είναι
    σχεδιασμένη και φέρει έσοδα,
  • 7:49 - 7:52
    δε θα μιλήσουν ποτέ
    για το πώς η πλατφόρμα συνεισφέρει
  • 7:52 - 7:56
    στο μίσος, τον διαχωρισμό
    και τη ριζοσπαστικοποίηση.
  • 7:57 - 8:01
    Αυτή είναι η μία συζήτηση
    που δεν έγινε ποτέ όσο ήμουν εγώ εκεί.
  • 8:01 - 8:04
    Γιατί αυτό θα απαιτούσε
    να αποδεχθούν ουσιαστικά
  • 8:04 - 8:08
    ότι αυτό που δημιούργησαν ίσως
    να μην είναι το καλύτερο για την κοινωνία
  • 8:08 - 8:11
    και να αλλάξουν εντελώς
    το προϊόν και το μοντέλο εσόδων.
  • 8:12 - 8:14
    Οπότε τι μπορούμε να κάνουμε εμείς;
  • 8:15 - 8:19
    Δε λέω ότι τα μέσα κοινωνικής δικτύωσης
    φέρουν όλη την ευθύνη
  • 8:19 - 8:20
    για τη σημερινή κατάσταση.
  • 8:21 - 8:26
    Προφανώς, έχουμε ριζωμένα
    κοινωνικά ζητήματα που χρήζουν επίλυσης.
  • 8:26 - 8:30
    Αλλά η απάντηση του Facebook,
    το οποίο αντικατροπτίζει την κοινωνία,
  • 8:30 - 8:33
    είναι μια βολική προσπάθεια
    να αποφύγουν κάθε ευθύνη
  • 8:34 - 8:38
    για τον τρόπο που η πλατφόρμα τους
    διευρύνει επικίνδυνο περιεχόμενο
  • 8:38 - 8:41
    και ωθεί κάποιους χρήστες
    προς ακραίες απόψεις.
  • 8:42 - 8:44
    Και το Facebook θα μπορούσε, αν ήθελε,
  • 8:44 - 8:46
    να το διορθώσει κάπως αυτό.
  • 8:46 - 8:50
    Θα μπορούσε να μην ενισχύει και συστίνει
    τους οπαδούς θεωριών συνομωσίας,
  • 8:50 - 8:53
    τις ομάδες μίσους,
    όσους διαδίδουν την παραπληροφόρηση
  • 8:53 - 8:56
    και, ναι, σε μερικές περιπτώσεις
    ακόμη και τον πρόεδρό μας.
  • 8:57 - 9:00
    Θα μπορούσε να μη χρησιμοποιεί
    τις ίδιες τεχνικές εξατομίκευσης,
  • 9:00 - 9:04
    για να παραδώσει πολιτική ρητορική,
    με αυτές με τις οποίες πουλάει παπούτσια.
  • 9:04 - 9:06
    Θα μπορούσε να αλλάξει τους αλγόριθμους
  • 9:06 - 9:09
    να εστιάζουν σε μια μέτρηση
    πέραν της ανάμειξης,
  • 9:09 - 9:13
    και να χτίσει κάγκελα προστασίας,
    για να μη πάρει διαστάσεις ένα περιεχόμενο
  • 9:13 - 9:14
    πρωτού αξιολογηθεί.
  • 9:15 - 9:17
    Και θα μπορούσε να τα κάνει όλα αυτά
  • 9:17 - 9:21
    χωρίς να γίνει, όπως λένε,
    διαιτητής της αλήθειας.
  • 9:21 - 9:24
    Αλλά κατέστησε σαφές ότι δε θα υπερβάλει
  • 9:24 - 9:27
    για να κάνει το σωστό, αν δεν αναγκαστεί.
  • 9:27 - 9:30
    Και για να είμαστε ειλικρινείς,
    γιατί να το κάνει;
  • 9:30 - 9:33
    Οι αγορές το ανταμείβουν συνεχώς
    και δεν παραβιάζει τον νόμο.
  • 9:34 - 9:35
    Γιατί, ως έχει,
  • 9:35 - 9:40
    δεν επιβάλλει κανένας νόμος στο Facebook
    ούτε στα άλλα μέσα κοινωνικής δικτύωσης
  • 9:40 - 9:42
    να προστατέψουν την κοινή γνώμη,
  • 9:42 - 9:43
    τη δημοκρατία μας
  • 9:43 - 9:45
    ακόμη και τις εκλογές μας.
  • 9:46 - 9:50
    Έχουμε παραχωρήσει τη λήψη αποφάσεων
    για το τι νόμους να επιβάλλουμε
  • 9:50 - 9:53
    στους Διευθύνοντες Συμβούλους
    κερδοσκοπικών διαδικτυακών εταιριών.
  • 9:54 - 9:55
    Αυτό θέλουμε;
  • 9:56 - 9:59
    Έναν κόσμο πέραν της αλήθειας,
    όπου η τοξικότητα και ο φυλετισμός
  • 9:59 - 10:02
    επισκιάζουν τη γεφύρωση διαφωνιών
    και την αναζήτηση συναίνεσης;
  • 10:03 - 10:07
    Μένω αισιόδοξη ότι ακόμα έχουμε
    περισσότερα κοινά μεταξύ μας
  • 10:07 - 10:10
    απ' ό,τι δείχνουν τα σημερινά μέσα
    και ο διαδικτυακός χώρος
  • 10:10 - 10:13
    Και πιστεύω πως έχοντας
    περισσότερες οπτικές
  • 10:14 - 10:17
    δημιουργείται μια πιο γερή
    και ανοιχτή δημοκρατία.
  • 10:17 - 10:20
    Αλλά όχι με τον τρόπο που συμβαίνει τώρα.
  • 10:20 - 10:24
    Και να τονίσω, δε θέλω
    να εξολοθρεύσω αυτές τις εταιρίες.
  • 10:24 - 10:27
    Θέλω απλά να λογοδοτήσουν ως ένα βαθμό,
  • 10:28 - 10:29
    όπως ακριβώς και η υπόλοιπη κοινωνία.
  • 10:31 - 10:35
    Είναι ώρα οι κυβερνήσεις μας να δυναμώσουν
    και να κάνουν το καθήκον τους,
  • 10:35 - 10:37
    να προστατέψουν τους πολίτες.
  • 10:37 - 10:40
    Και ενώ δεν υπάρχει μια μαγική νομοθεσία
  • 10:40 - 10:41
    που θα το διορθώσει όλο αυτό,
  • 10:41 - 10:46
    πιστεύω ότι οι κυβερνήσεις μπορούν
    και πρέπει να βρουν ισορροπία
  • 10:46 - 10:48
    ανάμεσα στην προστασία
    της ελευθερίας λόγου
  • 10:48 - 10:52
    και στην επίρριψη ευθυνών στις πλατφόρμες
    για το κοινωνικό τους αντίκτυπο.
  • 10:52 - 10:57
    Και θα μπορούσαν να το κάνουν εν μέρει
    εμμένοντας στην αληθινή διαφάνεια
  • 10:57 - 11:00
    γύρω απ' τον τρόπο που δουλεύουν
    αυτές οι μηχανές προτάσεων,
  • 11:00 - 11:04
    γύρω απ' τον τρόπο που γίνονται
    η επιμέλεια, η διεύρυνση, η στοχοποίηση.
  • 11:05 - 11:07
    Θέλω αυτές οι εταιρίες
    να θεωρηθούν υπεύθυνες
  • 11:07 - 11:10
    όχι για το αν κάποιος δημοσιεύσει
    λανθασμένες πληροφορίες
  • 11:10 - 11:11
    ή ακραία ρητορεία,
  • 11:12 - 11:15
    αλλά για το πώς οι μηχανές
    προτάσεων τα διαδίδουν,
  • 11:16 - 11:19
    για το πώς οι αλγόριθμοί τους
    κατευθύνουν τους ανθρώπους προς αυτά
  • 11:19 - 11:22
    και για το πώς τα εργαλεία τους
    στοχοποιούν τους ανθρώπους.
  • 11:23 - 11:27
    Προσπάθησα να φέρω αλλαγές
    μέσα απ' το Facebook και απέτυχα.
  • 11:27 - 11:30
    Γι' αυτό χρησιμοποιώ τη φωνή μου
    ξανά τα τελευταία χρόνια,
  • 11:30 - 11:33
    για να συνεχίσω
    να χτυπάω αυτόν τον συναγερμό
  • 11:33 - 11:36
    και να εμπνεύσω περισσότερο κόσμο
    να απαιτήσει ανάληψη ευθυνών.
  • 11:37 - 11:39
    Το μήνυμά μου προς εσάς είναι απλό:
  • 11:40 - 11:43
    πιέστε τους κυβερνητικούς σας
    εκπροσώπους να δυναμώσουν
  • 11:43 - 11:47
    και να μην εκχωρούν την κοινή γνώμη
    σε κερδοσκοπικά συμφέροντα.
  • 11:47 - 11:49
    Μάθετε στους φίλους και συγγενείς σας
  • 11:50 - 11:52
    πώς τους χειραγωγεί το διαδίκτυο.
  • 11:52 - 11:56
    Πιεστείτε να συνομιλήσετε
    με ανθρώπους διαφορετικής νοοτροπίας.
  • 11:56 - 11:58
    Κάντε αυτό το ζήτημα προτεραιότητα.
  • 11:59 - 12:02
    Χρειάζεται ολόκληρη η κοινωνία,
    για να το διορθώσουμε.
  • 12:04 - 12:08
    Tο μήνυμά μου προς τους επικεφαλής
    του Facebook, του πρώην εργοδότη μου:
  • 12:09 - 12:14
    Σήμερα, οι άνθρωποι χρησιμοποιούν
    τα εργαλεία σας, ακριβώς όπως σχεδιάστηκαν
  • 12:15 - 12:17
    για να δείξουν μίσος,
    διαχωρισμό και δυσπιστία.
  • 12:17 - 12:21
    Και εσείς όχι απλά το επιτρέπετε,
    αλλά το διευκολύνετε.
  • 12:22 - 12:24
    Και ναι, υπάρχουν
    πολλές σπουδαίες ιστορίες
  • 12:24 - 12:28
    για θετικά πράγματα που συμβαίνουν
    στην πλατφόρμα σας παγκοσμίως,
  • 12:28 - 12:30
    όμως αυτό δεν καθιστά τίποτα εντάξει.
  • 12:31 - 12:34
    Μόνο χειροτερεύει,
    καθώς οδεύουμε προς τις εκλογές
  • 12:34 - 12:36
    και γίνεται πιο ανησυχητικό
  • 12:36 - 12:38
    εν όψει της μεγαλύτερης πιθανής κρίσης,
  • 12:38 - 12:42
    αν τα αποτελέσματα αμφισβητηθούν
    και ξεσπάσει βία.
  • 12:43 - 12:47
    Άρα όταν πείτε πάλι το 2021,
    «Γνωρίζουμε ότι πρέπει να βελτιωθούμε»,
  • 12:47 - 12:50
    θέλω να θυμάστε αυτή τη στιγμή.
  • 12:50 - 12:53
    Γιατί πλέον δεν είναι μόνο
    κάποιες σκόρπιες φωνές.
  • 12:53 - 12:56
    Ηγέτες ανθρωπίνων
    δικαιωμάτων, ακαδημαϊκοί,
  • 12:56 - 12:59
    δημοσιογράφοι, διαφημιστές,
    οι ίδιοι οι υπάλληλοί σας
  • 12:59 - 13:01
    διαλαλούν
  • 13:01 - 13:03
    ότι οι πολιτικές και
    οι επιχειρηματικές πρακτικές σας
  • 13:03 - 13:06
    βλάπτουν τους ανθρώπους και τη δημοκρατία.
  • 13:07 - 13:09
    Οι επιλογές σας σάς ανήκουν,
  • 13:09 - 13:13
    αλλά δεν μπορείτε να πείτε
    ότι δεν ξέρατε πως θα συμβεί.
  • 13:14 - 13:15
    Ευχαριστώ.
Title:
Αγαπητό Facebook, να πώς καταστρέφεις τη δημοκρατία
Speaker:
Γιαήλ Άιζενστατ
Description:

«Το ψέμα στο διαδίκτυο υπερισχύει της αλήθειας», λέει η πρώην αναλύτρια της CIA, διπλωμάτισσα και υπάλληλος του Facebook, Γιαήλ Άιζενστατ. «Όσο ο στόχος των αλγορίθμων [των μέσων κοινωνικής δικτύωσης] είναι
να μας κρατάν ενεργούς, θα συνεχίσουν να μας ταΐζουν το δηλητήριο
που τροφοδοτεί τα χειρότερα ένστικτά μας και τις ανθρώπινες αδυναμίες». Σε αυτήν την τολμηρή κουβέντα, η Άιζενστατ εξερευνά τον τρόπο που εταιρίες μέσων κοινωνικής δικτύωσης, όπως το Facebook, δίνουν κίνητρο σε προκλητικά περιεχόμενα, συνεισφέροντας στην καλλιέργεια πολιτικής πόλωσης και δυσπιστίας -- και καλεί τις κυβερνήσεις να προσάψουν ευθύνες σε αυτές τις πλατφόρμες, ούτως ώστε να προστατέψουν τον διάλογο των πολιτών και τη δημοκρατία.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Greek subtitles

Revisions