Return to Video

Πώς πρέπει να αλλάξει το Twitter

  • 0:01 - 0:04
    Κρις Άντερσον:
    Τι σε ανησυχεί αυτήν τη στιγμή;
  • 0:04 - 0:06
    Ήσουν πολύ ανοιχτός
    για πολλά θέματα με το Twitter.
  • 0:06 - 0:09
    Ποια θα ήταν η μεγαλύτερή σου ανησυχία
  • 0:09 - 0:11
    για το πού είναι τα πράγματα
    αυτήν τη στιγμή;
  • 0:11 - 0:14
    Τζακ Ντόρσι: Αυτήν τη στιγμή,
    η υγεία της συζήτησης.
  • 0:14 - 0:18
    Έτσι, ο σκοπός μας είναι
    να υπηρετούμε τη δημόσια συζήτηση,
  • 0:18 - 0:23
    και έχουμε δει αρκετές επιθέσεις σε αυτό.
  • 0:23 - 0:26
    Έχουμε δει κακοποίηση,
    έχουμε δει παρενόχληση,
  • 0:26 - 0:29
    έχουμε δει χειραγώγηση,
  • 0:29 - 0:33
    αυτοματισμό, ανθρώπινο
    συντονισμό, παραπληροφόρηση.
  • 0:34 - 0:38
    Αυτές είναι δυναμικές που δεν περιμέναμε
  • 0:38 - 0:42
    όταν ξεκινήσαμε την εταιρία
    πριν από 13 χρόνια.
  • 0:42 - 0:45
    Αλλά τώρα τις βλέπουμε σε κλίμακα,
  • 0:45 - 0:50
    και αυτό που με ανησυχεί περισσότερο είναι
    η ικανότητά μας να το αντιμετωπίσουμε
  • 0:50 - 0:53
    με έναν συστημικό τρόπο
    που είναι επεκτάσιμος,
  • 0:53 - 1:00
    που έχει αυστηρή κατανόηση
    για το πώς αναλαμβάνουμε δράση,
  • 1:00 - 1:03
    διαφάνεια στην κατανόηση
    του πώς πράττουμε
  • 1:03 - 1:06
    και μια αυστηρή διαδικασία ενστάσεων
    για όταν κάνουμε λάθος,
  • 1:06 - 1:08
    επειδή θα κάνουμε λάθη.
  • 1:09 - 1:11
    Γουίτνεϊ Πάνινγκτον Ρότζερς:
    Χαίρομαι πολύ που ακούω
  • 1:11 - 1:13
    ότι είναι κάτι που σε απασχολεί,
  • 1:13 - 1:15
    επειδή πιστεύω ότι έχουν γραφτεί
    πολλά γι' αυτούς
  • 1:15 - 1:18
    που αισθάνονται ότι έχουν κακοποιηθεί
    και παρενοχληθεί στο Twitter,
  • 1:18 - 1:22
    και πιστεύω ότι είναι περισσότερο
    για τις γυναίκες και τις έγχρωμες γυναίκες
  • 1:22 - 1:23
    και τις μαύρες γυναίκες.
  • 1:23 - 1:25
    Και έχουν βγει πολλά δεδομένα --
  • 1:25 - 1:28
    η Διεθνής Αμνηστία έβγαλε
    μια αναφορά πριν μερικούς μήνες
  • 1:28 - 1:33
    όπου έδειχναν ότι ένα υποσύνολο ενεργών
    μαύρων γυναικών που χρησιμοποιούν Twitter
  • 1:33 - 1:36
    λάμβαναν, κατά μέσω όρο,
    ένα στα 10 τιτιβίσματά τους
  • 1:36 - 1:38
    ήταν κάποιου είδους παρενόχληση.
  • 1:38 - 1:42
    Έτσι όταν σκέφτεστε την υγεία
    για την κοινότητα στο Twitter,
  • 1:42 - 1:46
    ενδιαφέρομαι να ακούσω,
    «υγεία για όλους»,
  • 1:46 - 1:50
    αλλά συγκεκριμένα: Πώς κοιτάτε
    να κάνετε το Twitter έναν ασφαλή τόπο
  • 1:50 - 1:54
    γι' αυτό το υποσύνολο, για τις γυναίκες,
    τις έγχρωμες και τις μαύρες γυναίκες;
  • 1:54 - 1:55
    ΤΝ: Ναι.
  • 1:55 - 1:57
    Είναι πολύ άσχημη κατάσταση
  • 1:57 - 1:59
    όταν έρχεστε σε ένα σύστημα
  • 1:59 - 2:03
    που ιδανικά, θέλετε να μάθετε
    κάτι για τον κόσμο,
  • 2:03 - 2:08
    και περνάτε τον περισσότερο χρόνο σας
    κάνοντας αναφορές κακοποίησης,
  • 2:08 - 2:11
    λαμβάνοντας κακοποίηση,
    λαμβάνοντας παρενόχληση.
  • 2:11 - 2:18
    Έτσι κοιτάζουμε πιο βαθιά τα κίνητρα
  • 2:18 - 2:22
    που παρέχει φυσικά
    η πλατφόρμα και η υπηρεσία.
  • 2:22 - 2:27
    Τώρα, η δυναμική του συστήματος
    το κάνει πολύ εύκολο να παρενοχλήσετε
  • 2:27 - 2:31
    και να κακοποιήσετε άλλους
    μέσω του συστήματος,
  • 2:31 - 2:34
    και δυστυχώς, η πλειοψηφία
    του συστήματός μας στο παρελθόν
  • 2:34 - 2:35
    δούλευε κατ' αποκλειστικότητα
  • 2:35 - 2:39
    βασισμένη σε άτομα που έκαναν
    αναφορές παρενόχλησης και κακοποίησης.
  • 2:39 - 2:45
    Έτσι περίπου στα μέσα του περασμένου έτους
    αποφασίσαμε ότι θα εφαρμόζαμε
  • 2:45 - 2:49
    περισσότερη μηχανική μάθηση,
    περισσότερη βαθιά μάθηση στο πρόβλημα,
  • 2:49 - 2:53
    και θα προσπαθήσουμε να είμαστε
    πιο ενεργοί εκεί που γίνεται η κακοποίηση,
  • 2:53 - 2:57
    έτσι ώστε να πάρουμε το βάρος
    τελείως από το θύμα.
  • 2:57 - 3:00
    Κι έχουμε κάνει κάποια πρόοδο πρόσφατα.
  • 3:00 - 3:06
    Περίπου 38 τοις εκατό των καταχρηστικών
    τιτιβισμάτων τώρα εντοπίζονται προληπτικά
  • 3:06 - 3:08
    από αλγόριθμους μηχανικής μάθησης
  • 3:08 - 3:10
    έτσι ώστε να μην χρειάζεται
    να γίνονται αναφορές.
  • 3:10 - 3:14
    Αλλά αυτά που αναγνωρίζονται
    επανεξετάζονται από ανθρώπους,
  • 3:14 - 3:19
    έτσι δεν κατεβάζουμε περιεχόμενο
    ή λογαριασμούς πριν τα δει άνθρωπος.
  • 3:19 - 3:22
    Αλλά αυτό ήταν από το μηδέν
    τοις εκατό πριν μόλις έναν χρόνο.
  • 3:22 - 3:24
    Έτσι αυτό σημαίνει ότι,
    στο μηδέν τοις εκατό,
  • 3:24 - 3:28
    κάθε λήπτης κατάχρησης
    έπρεπε να κάνει αναφορά,
  • 3:28 - 3:31
    που είναι πολλή δουλειά γι' αυτούς,
    πολλή δουλειά για εμάς
  • 3:31 - 3:33
    και στην τελική είναι άδικο.
  • 3:35 - 3:38
    Το άλλο πράγμα που κάνουμε είναι
    να σιγουρευτούμε ότι, ως εταιρεία,
  • 3:38 - 3:39
    έχουμε αντιπροσώπευση
  • 3:39 - 3:42
    από όλες τις κοινότητες
    που προσπαθούμε να υπηρετήσουμε.
  • 3:42 - 3:44
    Δεν μπορούμε να χτίσουμε
    μια επιτυχημένη επιχείρηση
  • 3:44 - 3:47
    εκτός κι αν έχουμε μια ποικιλία
    προοπτικών εσωτερικά
  • 3:47 - 3:51
    που αισθάνονται τα θέματα αυτά κάθε μέρα.
  • 3:51 - 3:55
    Και δεν είναι μόνο με την ομάδα
    που κάνει τη δουλειά,
  • 3:55 - 3:57
    είναι και μέσα στην ηγεσία μας.
  • 3:57 - 4:03
    Έτσι πρέπει να συνεχίσουμε να χτίζουμε
    ενσυναίσθηση για το τι βιώνουν οι άνθρωποι
  • 4:03 - 4:06
    και να τους δώσουμε καλύτερα εργαλεία
    για να δράσουν σε αυτά
  • 4:06 - 4:10
    καθώς και να δώσουμε στους πελάτες μας
    μια καλύτερη και ευκολότερη προσέγγιση
  • 4:10 - 4:13
    για να διαχειριστούν
    μερικά πράγματα που βλέπουν.
  • 4:13 - 4:16
    Έτσι πολλά από αυτά που κάνουμε
    έχουν να κάνουν με την τεχνολογία,
  • 4:16 - 4:20
    αλλά κοιτάμε και τα κίνητρα στην υπηρεσία:
  • 4:20 - 4:25
    Τι σας παρακινεί να κάνετε
    το Twitter όταν το πρωτοανοίγετε;
  • 4:25 - 4:27
    Παλαιότερα,
  • 4:29 - 4:34
    παρακινούσε πολύ αγανάκτηση,
    παρακινούσε συμπεριφορά όχλου,
  • 4:34 - 4:37
    παρακινούσε ομαδική παρενόχληση.
  • 4:37 - 4:40
    Και πρέπει να κοιτάξουμε βαθύτερα
    κάποιες από τις βασικές αρχές
  • 4:40 - 4:43
    του τι κάνει η υπηρεσία
    για να κάνουμε μεγαλύτερες αλλαγές.
  • 4:43 - 4:47
    Μπορούμε να κάνουμε μερικές μικρές
    αλλαγές τεχνολογικά, όπως περιέγραψα,
  • 4:47 - 4:52
    αλλά στην τελική, πρέπει να κοιτάξουμε
    πιο βαθιά τις δυναμικές του δικτύου,
  • 4:52 - 4:53
    και αυτό κάνουμε.
  • 4:53 - 4:55
    ΚΑ: Αλλά ποια είναι η αίσθησή σου --
  • 4:55 - 4:59
    ποιο είδος πράγματος
    θα μπορούσατε να αλλάξετε
  • 4:59 - 5:02
    που θα άλλαζε ουσιαστικά τη συμπεριφορά;
  • 5:03 - 5:05
    ΤΝ: Ένα από τα πράγματα --
  • 5:05 - 5:10
    ξεκινήσαμε την υπηρεσία με την ιδέα
    να ακολουθείς έναν λογαριασμό,
  • 5:10 - 5:12
    σαν παράδειγμα,
  • 5:12 - 5:16
    και δεν πιστεύω ότι ο κόσμος
    έρχεται στο Twitter γι' αυτόν τον λόγο.
  • 5:16 - 5:21
    Πιστεύω ότι το Twitter είναι καλύτερο ως
    ένα δίκτυο που βασίζεται στα ενδιαφέροντα.
  • 5:21 - 5:25
    Οι άνθρωποι έρχονται
    με ένα συγκεκριμένο ενδιαφέρον.
  • 5:25 - 5:28
    Πρέπει να δουλέψουν πολύ
    για να βρουν και να ακολουθήσουν
  • 5:28 - 5:30
    σχετικούς λογαριασμούς
    με αυτά τα ενδιαφέροντα.
  • 5:30 - 5:34
    Θα μπορούσαμε να σας αφήσουμε
    να ακολουθήσετε ένα ενδιαφέρον,
  • 5:34 - 5:36
    να ακολουθήσετε ένα hashtag, μια τάση,
  • 5:36 - 5:38
    μια κοινότητα,
  • 5:38 - 5:42
    που μας δίνει τη δυνατότητα
    να δείξουμε όλους τους λογαριασμούς,
  • 5:42 - 5:46
    όλα τα θέματα, όλες τις στιγμές,
    όλα τα hashtag
  • 5:46 - 5:50
    που σχετίζονται με το συγκεκριμένο
    θέμα και ενδιαφέρον,
  • 5:50 - 5:54
    που ανοίγει πραγματικά την προοπτική σου.
  • 5:54 - 5:56
    Αλλά είναι μια τεράστια ουσιαστική αλλαγή
  • 5:56 - 6:00
    το να προδιαθέσουμε ένα ολόκληρο δίκτυο
    μακριά από έναν μόνο λογαριασμό
  • 6:00 - 6:03
    προς θέματα και ενδιαφέροντα.
  • 6:03 - 6:06
    ΚΑ: Δεν είναι όμως αυτό
  • 6:07 - 6:11
    ότι ένας λόγος που έχετε
    τόσο πολύ περιεχόμενο εκεί
  • 6:11 - 6:15
    είναι αποτέλεσμα του να βάλετε
    εκατομμύρια ανθρώπους παγκοσμίως
  • 6:15 - 6:18
    σε μια είδους μονομαχία μεταξύ τους
  • 6:18 - 6:20
    για ακόλουθους, για προσοχή;
  • 6:20 - 6:24
    Από την οπτική γωνία
    αυτών που απλώς διαβάζουν στο Twitter,
  • 6:24 - 6:25
    δεν είναι θέμα,
  • 6:25 - 6:29
    αλλά γι' αυτούς που το δημιουργούν,
    όλοι εκεί έξω λένε,
  • 6:29 - 6:32
    «Μακάρι να είχα μερικά ακόμη
    "like", ακόλουθους, επανατιτιβίβίσματα».
  • 6:32 - 6:34
    Έτσι συνεχώς πειραματίζονται,
  • 6:34 - 6:36
    προσπαθώντας να βρουν το μονοπάτι.
  • 6:36 - 6:40
    Και αυτό που ανακαλύψαμε όλοι μας
    είναι ότι το νούμερο ένα μονοπάτι γι' αυτό
  • 6:40 - 6:44
    είναι να είσαι κάπως προκλητικός,
  • 6:44 - 6:47
    αντιπαθητικός, εύγλωττα αντιπαθητικός,
  • 6:47 - 6:50
    οι εύγλωττες προσβολές
    είναι όνειρο στο Twitter,
  • 6:50 - 6:53
    όπου γρήγορα γεμίζει --
  • 6:53 - 6:57
    και γίνεται αυτή η αυτοτροφοδοτούμενη
    διαδικασία εξοργισμού.
  • 6:57 - 7:00
    Πώς το εξουδετερώνεις αυτό;
  • 7:01 - 7:04
    ΤΝ: Ναι, έχεις απόλυτο δίκιο,
  • 7:04 - 7:05
    αλλά αυτό πάει πίσω στα κίνητρα.
  • 7:06 - 7:08
    Μία από τις επιλογές που κάναμε
    στις πρώιμες μέρες ήταν
  • 7:08 - 7:13
    ότι είχαμε αυτόν τον αριθμό που έδειχνε
    πόσοι άνθρωποι σε ακολουθούν.
  • 7:13 - 7:16
    Αποφασίσαμε ότι αυτός ο αριθμός
    πρέπει να είναι μεγάλος και παχύς,
  • 7:16 - 7:20
    και οτιδήποτε είναι στη σελίδα και είναι
    μεγάλο και παχύ έχει σημασία,
  • 7:20 - 7:22
    και σε αυτά είναι
    που θέλεις να επικεντρωθείς.
  • 7:22 - 7:24
    Ήταν τότε η σωστή απόφαση; Μάλλον όχι.
  • 7:24 - 7:26
    Αν έπρεπε να ξαναξεκινήσω την υπηρεσία,
  • 7:26 - 7:29
    δεν θα έδινα τόσο μεγάλη έμφαση
    στον αριθμό ακολούθων.
  • 7:29 - 7:32
    Δεν θα έδινα τόσο μεγάλη έμφαση
    στον αριθμό των «like».
  • 7:32 - 7:35
    Δε νομίζω ότι θα έφτιαχνα
    καν το «like»,
  • 7:35 - 7:38
    επειδή δεν σπρώχνει πραγματικά
  • 7:38 - 7:41
    αυτό που τώρα πιστεύουμε ότι είναι
    το πιο σημαντικό πράγμα,
  • 7:41 - 7:44
    που είναι η υγιής συνεισφορά
    πίσω στο δίκτυο
  • 7:44 - 7:47
    και η συζήτηση στο δίκτυο,
  • 7:47 - 7:49
    συμμετοχή στη συζήτηση,
  • 7:49 - 7:52
    το να μαθαίνεις κάτι από τη συζήτηση.
  • 7:52 - 7:54
    Αυτά δεν είναι πράγματα
    που σκεφτήκαμε πριν από 13 χρόνια,
  • 7:54 - 7:57
    και πιστεύουμε ότι είναι
    εξαιρετικά σημαντικά τώρα.
  • 7:57 - 8:00
    Έτσι πρέπει να δούμε πώς εμφανίζουμε
    τον αριθμό των ακόλουθων,
  • 8:00 - 8:02
    πώς εμφανίζουμε
    τον αριθμό επανατιτιβισμάτων,
  • 8:02 - 8:04
    πώς εμφανίζουμε τα «like»,
  • 8:04 - 8:06
    και απλώς να κάνουμε τη βαθιά ερώτηση:
  • 8:06 - 8:09
    Είναι αυτός πραγματικά ο αριθμός
    που θέλουμε να καθοδηγεί τους ανθρώπους;
  • 8:09 - 8:12
    Είναι αυτό το πράγμα,
    που όταν ανοίγεις το Twitter,
  • 8:12 - 8:14
    το βλέπεις, «Αυτό το πράγμα
    πρέπει να αυξήσω;»
  • 8:14 - 8:17
    Και δεν πιστεύω ότι αυτό
    είναι το θέμα αυτήν τη στιγμή.
  • 8:17 - 8:19
    (Χειροκρότημα)
  • 8:19 - 8:21
    ΓΠΡ: Νομίζω ότι πρέπει
    να δούμε μερικά τιτιβίσματα
  • 8:21 - 8:23
    που προέρχονται από το κοινό.
  • 8:24 - 8:26
    ΚΑ: Για να δούμε τι ζητάτε.
  • 8:26 - 8:30
    Θέλω να πω ότι γενικά, ένα από
    τα απίστευτα πράγματα για το Twitter
  • 8:30 - 8:32
    είναι ότι μπορεί να χρησιμοποιηθεί
    για σοφία πλήθους,
  • 8:32 - 8:37
    ξέρετε, περισσότερη γνώση, περισσότερες
    πληροφορίες, περισσότερες απόψεις
  • 8:37 - 8:38
    απ' όσο μπορείτε να φανταστείτε,
  • 8:38 - 8:42
    και μερικές φορές, αρκετές από αυτές
    είναι πραγματικά υγιείς.
  • 8:42 - 8:44
    ΓΠΡ: Νομίζω μία που είδα
    πέρασε γρήγορα εδώ,
  • 8:44 - 8:46
    «Ποιο είναι το σχέδιο του Twitter
    για να καταπολεμήσει
  • 8:46 - 8:49
    την εξωτερική παρέμβαση
    στις εκλογές των ΗΠΑ το 2020;»
  • 8:49 - 8:53
    Νομίζω ότι είναι κάτι που είναι θέμα
    που βλέπουμε γενικά στο διαδίκτυο,
  • 8:53 - 8:56
    ότι έχουμε πολύ κακόβουλη
    αυτοματοποιημένη δράση.
  • 8:56 - 9:02
    Και στο Twitter, για παράδειγμα,
    έχουμε κάποια δουλειά
  • 9:02 - 9:05
    που προέρχεται από τους φίλους μας
    στα Zignal Labs,
  • 9:05 - 9:07
    και ίσως να το δούμε ως παράδειγμα
  • 9:07 - 9:09
    γι' αυτό που μιλάω,
  • 9:09 - 9:12
    όπου έχετε αυτά τα bot, αν θέλετε,
  • 9:13 - 9:17
    ή συντονισμένη αυτοματοποιημένη
    κακόβουλη δραστηριότητα λογαριασμών,
  • 9:17 - 9:20
    που χρησιμοποιείται για να επηρεάσει
    πράγματα όπως οι εκλογές.
  • 9:20 - 9:24
    Και σε αυτό το παράδειγμα που έχουμε
    από τη Zignal που μοιράστηκαν μαζί μας
  • 9:24 - 9:26
    χρησιμοποιώντας τα δεδομένα
    που έχουν από το Twitter,
  • 9:26 - 9:28
    βλέπετε ότι σε αυτήν την περίπτωση,
  • 9:28 - 9:31
    το άσπρο αντιπροσωπεύει
    τους ανθρώπινους λογαριασμούς,
  • 9:31 - 9:33
    κάθε κουκκίδα είναι ένας λογαριασμός.
  • 9:33 - 9:34
    Όσο πιο ροζ είναι,
  • 9:34 - 9:36
    τόσο πιο αυτοματοποιημένη
    είναι η δραστηριότητα.
  • 9:36 - 9:42
    Και μπορείς να δεις ότι έχετε μερικούς
    ανθρώπους που αλληλεπιδρούν με bot.
  • 9:42 - 9:46
    Σε αυτήν την περίπτωση, έχει να κάνει
    με τις εκλογές στο Ισραήλ
  • 9:46 - 9:49
    και τη διάδοση ψευδών πληροφοριών
    για τον Μπένι Γκαντζ,
  • 9:49 - 9:52
    και όπως ξέρουμε, στο τέλος,
    αυτές ήταν εκλογές
  • 9:52 - 9:56
    στις οποίες κέρδισε ο Νετανιάχου
    με μικρή διαφορά,
  • 9:56 - 9:59
    και ίσως να είχε επηρεαστεί
    κατά κάποιο τρόπο από αυτό.
  • 9:59 - 10:01
    Και όταν σκεφτείτε
    ότι αυτό συμβαίνει στο Twitter,
  • 10:01 - 10:04
    τι κάνετε, συγκεκριμένα,
    για να εξασφαλίσετε
  • 10:04 - 10:07
    ότι δεν θα εξαπλώνονται
    ψευδείς πληροφορίες με αυτόν τον τρόπο,
  • 10:07 - 10:12
    επηρεάζοντας τον κόσμο
    με τρόπους που θα επηρέαζε τη δημοκρατία;
  • 10:12 - 10:13
    ΤΝ: Να πάω λιγάκι πίσω,
  • 10:13 - 10:16
    αναρωτηθήκαμε το εξής:
  • 10:16 - 10:20
    Μπορούμε να μετρήσουμε
    την υγεία μιας συζήτησης,
  • 10:20 - 10:22
    και τι σημαίνει αυτό;
  • 10:22 - 10:25
    Με τον ίδιο τρόπο που έχεις δείκτες
  • 10:25 - 10:28
    και εμείς έχουμε δείκτες ως άνθρωποι
    για το αν είμαστε υγιείς ή όχι,
  • 10:28 - 10:33
    όπως η θερμοκρασία,
    το κοκκίνισμα του προσώπου,
  • 10:33 - 10:38
    πιστεύω ότι θα μπορούσαμε να βρούμε
    τους δείκτες για την υγεία της συζήτησης.
  • 10:38 - 10:42
    Δουλέψαμε με ένα εργαστήριο
    που λέγεται Cortico στο MIT
  • 10:42 - 10:49
    για να προτείνουμε
    τέσσερις αρχικούς δείκτες
  • 10:49 - 10:52
    που πιστεύουμε ότι θα μπορούσαμε τελικά
    να μετρήσουμε στο σύστημα,
  • 10:53 - 10:59
    Ο πρώτος είναι αυτό που λέμε
    μοιρασμένη προσοχή.
  • 10:59 - 11:02
    Είναι ένα μέτρο για το πόσο
    από τη συζήτηση παραμένει
  • 11:02 - 11:05
    στο ίδιο θέμα αντί να ξεφεύγει.
  • 11:06 - 11:09
    Ο δεύτερος ονομάζεται
    μοιρασμένη πραγματικότητα,
  • 11:09 - 11:11
    και είναι ποιο ποσοστό της συζήτησης
  • 11:12 - 11:14
    μοιράζεται τα ίδια δεδομένα --
  • 11:14 - 11:17
    όχι αν αυτά τα δεδομένα είναι αληθή ή όχι,
  • 11:17 - 11:20
    αλλά μοιραζόμαστε
    τα ίδια δεδομένα καθώς συζητάμε;
  • 11:20 - 11:23
    Ο τρίτος είναι δεκτικότητα:
  • 11:23 - 11:27
    Πόση από τη συζήτηση
    είναι δεκτική ή πολιτισμένη
  • 11:27 - 11:30
    ή το αντίστροφο, τοξική;
  • 11:30 - 11:33
    Και ο τέταρτος είναι
    ποικιλία στην προοπτική.
  • 11:33 - 11:37
    Έτσι, βλέπουμε φιλτραρισμένες
    φούσκες ή κλώβους αντήχησης
  • 11:37 - 11:40
    ή λαμβάνουμε διάφορες απόψεις
  • 11:40 - 11:41
    μέσα στη συζήτηση;
  • 11:41 - 11:45
    Και στους τέσσερις δείκτες
    κατανοούμε σιωπηρά ότι,
  • 11:45 - 11:49
    καθώς αυξάνονται, η συζήτηση
    γίνεται όλο και πιο υγιής.
  • 11:49 - 11:54
    Έτσι το πρώτο βήμα είναι να δούμε
    αν μπορούμε να τα μετρήσουμε στο δίκτυο,
  • 11:54 - 11:55
    που πιστεύω ότι μπορούμε.
  • 11:55 - 11:58
    Έχουμε τη μεγαλύτερη δυναμική
    γύρω από τη δεκτικότητα.
  • 11:58 - 12:03
    Έχουμε ένα σκορ τοξικότητας,
    ένα μοντέλο τοξικότητας, στο σύστημά μας
  • 12:03 - 12:07
    που μπορεί να μετρήσει
    αν είναι είναι πιθανό να φύγετε
  • 12:07 - 12:09
    από μια συζήτηση που κάνετε στο Twitter
  • 12:09 - 12:11
    επειδή νιώθετε ότι είναι τοξική,
  • 12:11 - 12:13
    σε πολύ μεγάλο βαθμό.
  • 12:14 - 12:17
    Δουλεύουμε πάνω
    στις μετρήσεις για τα υπόλοιπα,
  • 12:17 - 12:19
    και το επόμενο βήμα είναι,
  • 12:19 - 12:22
    καθώς φτιάχνουμε λύσεις,
  • 12:22 - 12:25
    για να δούμε πώς τείνουν αυτές
    οι μετρήσεις στο πέρασμα του χρόνου
  • 12:25 - 12:27
    και να συνεχίσουμε να πειραματιζόμαστε.
  • 12:27 - 12:31
    Ο σκοπός μας είναι να σιγουρευτούμε
    ότι είναι ισορροπημένα,
  • 12:31 - 12:35
    επειδή αν αυξήσετε έναν,
    ίσως να μειώσετε κάποιον άλλον.
  • 12:35 - 12:37
    Αν αυξήσεις την ποικιλία προοπτικών,
  • 12:37 - 12:40
    ίσως όντως να μειώσεις
    τη μοιρασμένη πραγματικότητα.
  • 12:40 - 12:45
    ΚΑ: Πιάνω λιγάκι τις ερωτήσεις
    που μας κατακλύζουν εδώ.
  • 12:45 - 12:46
    ΝΤ: Συνεχείς ερωτήσεις.
  • 12:47 - 12:51
    ΚΑ: Πολλοί αναρωτιούνται γιατί,
  • 12:51 - 12:55
    δηλαδή, πόσο δύσκολο είναι
    να ξεφορτωθείτε τους Ναζί από το Twitter;
  • 12:56 - 12:58
    ΤΝ: (Γελάει)
  • 12:58 - 13:05
    Έχουμε πολιτικές σχετικά
    με βίαιες εξτρεμιστικές ομάδες,
  • 13:05 - 13:09
    και η περισσότερη από τη δουλειά μας
    και τους όρους χρήσης μας
  • 13:09 - 13:13
    λειτουργεί με τη συμπεριφορά,
    όχι με το περιεχόμενο.
  • 13:13 - 13:15
    Κοιτάζουμε λοιπόν τη συμπεριφορά.
  • 13:15 - 13:18
    Με συμπεριφορά εννοούμε
    τη χρήση της υπηρεσίας
  • 13:18 - 13:22
    για επανειλημμένη ή επεισοδιακή
    παρενόχληση κάποιου,
  • 13:22 - 13:25
    χρήση εικόνων μίσους
  • 13:25 - 13:27
    που μπορούν να συνδεθούν με την ΚΚΚ
  • 13:27 - 13:30
    ή το Αμερικανικό Κόμμα Ναζί.
  • 13:30 - 13:34
    Όλα αυτά είναι πράγματα
    στα οποία δρούμε άμεσα.
  • 13:35 - 13:38
    Αυτήν τη στιγμή είμαστε σε μια κατάσταση
  • 13:38 - 13:40
    όπου αυτός ο όρος
    χρησιμοποιείται αρκετά χαλαρά,
  • 13:40 - 13:46
    και δεν μπορούμε απλώς να πάρουμε
    μια αναφορά αυτής της λέξης
  • 13:46 - 13:48
    που κατηγορεί κάποιον άλλον
  • 13:48 - 13:52
    ως πραγματική ένδειξη ότι θα πρέπει
    να απομακρυνθούν από την πλατφόρμα.
  • 13:52 - 13:54
    Έτσι πολλά από τα μοντέλα μας
    βασίζονται σε, νούμερο ένα:
  • 13:54 - 13:58
    Σχετίζεται αυτός ο λογαριασμός
    με μια βίαιη εξτρεμιστική ομάδα;
  • 13:58 - 14:00
    Αν ναι, μπορούμε να δράσουμε.
  • 14:00 - 14:03
    Και το έχουμε κάνει με την ΚΚΚ
    και το Αμερικανικό Κόμμα Ναζί και άλλους.
  • 14:03 - 14:08
    Και νούμερο δύο: Χρησιμοποιούν
    εικόνες ή συμπεριφορά
  • 14:08 - 14:10
    που θα τους συνέδεαν με τέτοιο τρόπο;
  • 14:10 - 14:13
    ΚΑ: Πόσα άτομα έχετε να δουλεύουν
    στον έλεγχο περιεχομένου
  • 14:13 - 14:15
    για να τα κοιτούν αυτά;
  • 14:15 - 14:16
    ΤΝ: Ανάλογα.
  • 14:16 - 14:18
    Θέλουμε να είμαστε ευέλικτοι,
  • 14:18 - 14:20
    επειδή θέλουμε να σιγουρευτούμε
    ότι, νούμερο ένα,
  • 14:20 - 14:25
    φτιάχνουμε αλγόριθμους αντί
    να προσλαμβάνουμε ένα σωρό κόσμο,
  • 14:25 - 14:28
    επειδή πρέπει να σιγουρευτούμε
    ότι είναι επεκτάσιμο,
  • 14:28 - 14:31
    και δεν υπάρχουν άτομα
    που να μπορούν να το επεκτείνουν.
  • 14:31 - 14:38
    Γι' αυτό έχουμε κάνει τόση πολλή δουλειά
    στην προληπτική ανίχνευση της κατάχρησης
  • 14:38 - 14:39
    που μπορούν μετά να ελέγξουν άνθρωποι.
  • 14:39 - 14:42
    Θέλουμε να έχουμε μια κατάσταση
  • 14:42 - 14:46
    όπου οι αλγόριθμοι ελέγχουν
    συνεχώς κάθε τιτίβισμα
  • 14:46 - 14:48
    και ανεβάζοντας
    τα πιο ενδιαφέροντα πρώτα
  • 14:48 - 14:52
    έτσι ώστε οι άνθρωποι να κρίνουν
    αν θα πρέπει να δράσουμε ή όχι,
  • 14:52 - 14:54
    σύμφωνα με τους όρους χρήσης μας.
  • 14:54 - 14:57
    ΓΠΡ: Αλλά δεν υπάρχει αριθμός
    ατόμων που είναι επεκτάσιμος,
  • 14:57 - 15:00
    αλλά πόσοι άνθρωποι αυτήν τη στιγμή
    παρακολουθούν αυτούς τους λογαριασμούς,
  • 15:00 - 15:03
    και πώς καταλαβαίνεις τι είναι αρκετό;
  • 15:03 - 15:05
    ΤΝ: Είναι τελείως ευέλικτοι.
  • 15:05 - 15:08
    Μερικές φορές συνδέουμε άτομα με spam.
  • 15:08 - 15:12
    Μερικές φορές συνδέουμε άτομα
    με κακοποίηση και παρενόχληση.
  • 15:12 - 15:14
    Θα σιγουρευτούμε ότι έχουμε
    ευελιξία στους ανθρώπους μας
  • 15:14 - 15:17
    ώστε να τους κατευθύνουμε
    εκεί που χρειάζονται περισσότερο.
  • 15:17 - 15:18
    Μερικές φορές, στις εκλογές.
  • 15:19 - 15:23
    Είχαμε μια σειρά από εκλογές
    στο Μεξικό, μία σε λίγο στην Ινδία,
  • 15:23 - 15:28
    προφανώς, οι εκλογές πέρσι,
    οι ενδιάμεσες εκλογές,
  • 15:28 - 15:30
    έτσι θέλουμε να είμαστε
    ευέλικτοι με τους πόρους μας.
  • 15:30 - 15:33
    Έτσι όταν --
  • 15:33 - 15:39
    σαν παράδειγμα, αν πας
    στους τρέχοντες όρους χρήσης
  • 15:39 - 15:41
    και ανοίξεις τη σελίδα,
  • 15:41 - 15:44
    και αναρωτιέσαι για την κακοποίηση
    και την παρενόχληση που μόλις έλαβες
  • 15:44 - 15:48
    και αν ήταν ενάντια στους όρους
    χρήσης μας, για να το αναφέρεις,
  • 15:48 - 15:51
    το πρώτο πράγμα που θα δεις
    όταν ανοίξεις αυτήν τη σελίδα
  • 15:51 - 15:54
    έχει να κάνει με την προστασία
    πνευματικής ιδιοκτησίας.
  • 15:55 - 16:00
    Σκρολάρετε προς τα κάτω και φτάνετε
    στην κακοποίηση, την παρενόχληση
  • 16:00 - 16:02
    και όλα όσα μπορεί να βιώνετε.
  • 16:02 - 16:05
    Έτσι δεν ξέρω πώς συνέβη
    αυτό στην ιστορία της εταιρίας,
  • 16:05 - 16:10
    αλλά το βάζουμε πάνω
    από αυτό που θέλει ο κόσμος
  • 16:12 - 16:15
    τις περισσότερες πληροφορίες
    και να δράσουν σε αυτό.
  • 16:15 - 16:21
    Και η σειρά δείχνει στον κόσμο
    τι θεωρούσαμε σημαντικό.
  • 16:21 - 16:24
    Έτσι τα αλλάζουμε όλα αυτά.
  • 16:24 - 16:25
    Τα βάζουμε στη σωστή σειρά,
  • 16:25 - 16:29
    αλλά απλοποιούμε και τους κανόνες ώστε
    να μπορούν να διαβαστούν από ανθρώπους
  • 16:29 - 16:33
    έτσι ώστε να καταλαβαίνουν μόνοι τους
  • 16:33 - 16:36
    όταν κάτι είναι ενάντια
    στους όρους μας και όταν κάτι δεν είναι.
  • 16:36 - 16:38
    Και μετά κάνουμε --
  • 16:38 - 16:44
    πάλι, εστιάζουμε στο να πάρουμε
    το βάρος της δουλειάς από τα θύματα.
  • 16:44 - 16:47
    Αυτό σημαίνει να σπρώξουμε
    περισσότερα προς την τεχνολογία,
  • 16:47 - 16:49
    αντί να κάνουν τη δουλειά άνθρωποι --
  • 16:49 - 16:52
    αυτό σημαίνει ότι αυτοί που κακοποιούνται
  • 16:52 - 16:55
    και αυτοί που ελέγχουν.
  • 16:55 - 16:56
    Έτσι θέλουμε να σιγουρευτούμε
  • 16:56 - 16:59
    ότι δεν ενθαρρύνουμε απλώς
    περισσότερη δουλειά
  • 16:59 - 17:02
    προς κάτι που είναι πολύ αρνητικό,
  • 17:02 - 17:05
    και θέλουμε να έχουμε μια καλή ισορροπία
    ανάμεσα στην τεχνολογία
  • 17:05 - 17:08
    και πού οι άνθρωποι
    μπορούν να είναι δημιουργικοί,
  • 17:08 - 17:11
    που είναι η κρίση των όρων,
  • 17:11 - 17:14
    και όχι απλώς όλα τα μηχανικά πράγματα
    του να βρεις και να αναφέρεις.
  • 17:14 - 17:15
    Έτσι το σκεφτόμαστε.
  • 17:15 - 17:18
    ΚΑ: Θα ήθελα να δούμε
    περισσότερο αυτό που είπες.
  • 17:18 - 17:21
    Θέλω να πω, μου αρέσει ότι είπες
    ότι ψάχνετε για τρόπους
  • 17:21 - 17:24
    για να επανεξετάσετε τον βασικό
    σχεδιασμό του συστήματος
  • 17:24 - 17:29
    για να αποθαρρύνετε κάποια από
    την αντιδραστική συμπεριφορά, και ίσως --
  • 17:29 - 17:32
    να χρησιμοποιήσω γλώσσα
    τύπου Τρίσταν Χάρις --
  • 17:32 - 17:36
    να εμπλέξετε πιο στοχαστική σκέψη.
  • 17:36 - 17:38
    Πόσο έχει προχωρήσει αυτό;
  • 17:38 - 17:42
    Ποιες θα ήταν οι εναλλακτικές
    για το κουμπί «like»;
  • 17:44 - 17:47
    ΤΝ: Πρώτα απ' όλα,
  • 17:47 - 17:53
    ο προσωπικός μου στόχος με την υπηρεσία
    είναι ότι πιστεύω θεμελιωδώς
  • 17:53 - 17:56
    ότι η δημόσια συζήτηση είναι κρίσιμη.
  • 17:56 - 17:58
    Ο κόσμος αντιμετωπίζει
    υπαρξιακά προβλήματα,
  • 17:58 - 18:02
    ολόκληρος ο κόσμος,
    όχι μόνο σε ένα συγκεκριμένο έθνος,
  • 18:02 - 18:05
    και θα βοηθήσει η παγκόσμια
    δημόσια συζήτηση.
  • 18:05 - 18:08
    Αυτή είναι μία από τις μοναδικές
    δυναμικές του Twitter,
  • 18:08 - 18:09
    που είναι τελείως ανοιχτό,
  • 18:09 - 18:11
    τελείως δημόσιο,
  • 18:11 - 18:12
    τελείως ρευστό,
  • 18:12 - 18:16
    και οποιοσδήποτε μπορεί να δει όλες
    τις συζητήσεις και να συμμετάσχει.
  • 18:16 - 18:19
    Υπάρχουν συζητήσεις
    όπως η κλιματική αλλαγή.
  • 18:19 - 18:21
    Υπάρχουν συζητήσεις
    όπως η μετατόπιση στην εργασία
  • 18:21 - 18:23
    μέσω της τεχνητής νοημοσύνης.
  • 18:23 - 18:26
    Υπάρχουν συζητήσεις
    όπως η οικονομική ανισότητα.
  • 18:26 - 18:29
    Δεν έχει σημασία τι κάνει μία χώρα,
  • 18:29 - 18:32
    δεν θα καταφέρουν να λύσουν
    το πρόβλημα μόνοι τους.
  • 18:32 - 18:34
    Χρειάζεται συντονισμό σε όλον τον κόσμο,
  • 18:34 - 18:37
    και εκεί νομίζω ότι μπορεί
    να παίξει κάποιον ρόλο το Twitter.
  • 18:37 - 18:43
    Το δεύτερο είναι ότι το Twitter,
    αυτήν τη στιγμή, όταν πάτε σε αυτό,
  • 18:43 - 18:47
    δεν φεύγετε απαραίτητα
    με το αίσθημα ότι μάθατε κάτι.
  • 18:47 - 18:48
    Μερικοί το κάνουν.
  • 18:48 - 18:51
    Μερικοί έχουν ένα πολύ πλούσιο δίκτυο,
  • 18:51 - 18:54
    μια πολύ πλούσια κοινότητα
    από την οποία μαθαίνουν κάθε μέρα.
  • 18:54 - 18:58
    Αλλά χρειάζεται πολλή δουλειά και χρόνος
    για να το φτάσει σε αυτό το σημείο.
  • 18:58 - 19:02
    Θέλουμε να πάμε τον κόσμο
    σε αυτά τα θέματα και ενδιαφέροντα
  • 19:02 - 19:03
    πολύ γρηγορότερα
  • 19:03 - 19:06
    και να σιγουρευτούμε
    ότι βρίσκουν κάτι που,
  • 19:07 - 19:09
    ασχέτως πόση ώρα
    ξοδεύουν στο Twitter --
  • 19:09 - 19:12
    και δεν θέλω να μεγιστοποιήσω
    τον χρόνο στο Twitter,
  • 19:12 - 19:14
    θέλω να μεγιστοποιήσω
    τι παίρνουν από αυτό
  • 19:14 - 19:16
    και τι μαθαίνουν από αυτό, και --
  • 19:18 - 19:19
    ΚΑ: Το κάνεις όμως;
  • 19:19 - 19:22
    Επειδή αυτή είναι η κύρια ερώτηση
    που θέλει να μάθει πολύς κόσμος.
  • 19:22 - 19:26
    Τζακ, σίγουρα περιορίζεσαι,
    σε μεγάλο βαθμό,
  • 19:26 - 19:28
    από το γεγονός,
    ότι είσαι στο χρηματιστήριο,
  • 19:28 - 19:30
    και έχεις τους επενδυτές να σε πιέζουν,
  • 19:30 - 19:33
    ο νούμερο ένα τρόπος να βγάλεις
    χρήματα είναι από τις διαφημίσεις --
  • 19:33 - 19:36
    αυτό εξαρτάται
    από την εμπλοκή των χρηστών.
  • 19:36 - 19:41
    Είσαι διατεθειμένος να θυσιάσεις
    χρόνο χρηστών, αν χρειαστεί,
  • 19:41 - 19:45
    για να πας σε μια
    πιο στοχαστική συνομιλία;
  • 19:45 - 19:48
    ΤΝ: Ναι, μεγαλύτερη σχετικότητα σημαίνει
    λιγότερος χρόνος στην υπηρεσία,
  • 19:48 - 19:50
    και είναι μια χαρά,
  • 19:50 - 19:53
    επειδή θέλουμε να σιγουρευτούμε
    ότι όταν έρχεσαι στο Twitter,
  • 19:53 - 19:57
    και δεις κάτι αμέσως από το οποίο
    μαθαίνεις και σπρώχνεις.
  • 19:57 - 20:01
    Ακόμη μπορούμε να βάλουμε
    διαφήμιση σε αυτό.
  • 20:01 - 20:04
    Δεν χρειάζεται να περάσεις
    πιο πολύ χρόνο για να δεις πιο πολλά.
  • 20:04 - 20:06
    Το δεύτερο πράγμα που κοιτάμε --
  • 20:06 - 20:08
    ΚΑ: Αλλά μόνο -- σε αυτόν τον στόχο,
    καθημερινή ενεργή χρήση,
  • 20:08 - 20:11
    αν μετράς αυτό, δεν σημαίνει
    απαραίτητα πράγματα
  • 20:11 - 20:13
    που εκτιμά ο κόσμος καθημερινά.
  • 20:13 - 20:14
    Θα μπορούσε να σημαίνει
  • 20:14 - 20:18
    πράγματα τα οποία έλκουν τους ανθρώπους
    σαν μαγνήτης, κάθε μέρα.
  • 20:18 - 20:21
    Είμαστε εθισμένοι, επειδή
    βλέπουμε κάτι που μας τσαντίζει,
  • 20:21 - 20:24
    έτσι πηγαίνουμε και ρίχνουμε
    λάδι στη φωτιά,
  • 20:24 - 20:26
    και η καθημερινή ενεργή χρήση ανεβαίνει,
  • 20:26 - 20:28
    και υπάρχει μεγαλύτερος
    τζίρος από διαφημίσεις,
  • 20:28 - 20:30
    αλλά όλοι μας θυμώνουμε
    περισσότερο μεταξύ μας.
  • 20:30 - 20:33
    Πώς ορίζεις...
  • 20:33 - 20:37
    «Η καθημερινή ενεργή χρήση» ακούγεται σαν
    κάτι επικίνδυνο για να βελτιστοποιηθεί.
  • 20:37 - 20:42
    (Χειροκρότημα)
  • 20:42 - 20:43
    ΤΝ: Από μόνο του, είναι,
  • 20:44 - 20:46
    αλλά δεν με άφησες να τελειώσω
    την άλλη μέτρηση,
  • 20:46 - 20:50
    που είναι ότι κοιτάμε για συζητήσεις
  • 20:50 - 20:52
    και αλυσίδες συζητήσεων.
  • 20:52 - 20:57
    Έτσι θέλουμε να δώσουμε κίνητρα
    για την υγιή συμβολή στο δίκτυο,
  • 20:57 - 21:02
    και πιστεύουμε ότι η συμμετοχή
    στη συζήτηση είναι υγιής,
  • 21:02 - 21:07
    όπως προσδιορίζεται από αυτούς
    τους τέσσερις δείκτες που ανέφερα πριν.
  • 21:07 - 21:10
    Δεν μπορείς να βελτιστοποιήσεις
    γύρω από μία μέτρηση.
  • 21:10 - 21:13
    Πρέπει να ισορροπείς
    και να κοιτάς συνεχώς
  • 21:13 - 21:17
    τι είναι αυτό που θα δημιουργήσει
    μια υγιή συμμετοχή στο δίκτυο
  • 21:17 - 21:19
    και μια υγιή εμπειρία για τους ανθρώπους.
  • 21:19 - 21:21
    Στην τελική, θέλω να φτάσω σε μια μέτρηση
  • 21:21 - 21:25
    όπου θα μπορούν να μου πουν,
    «Έι, έμαθα κάτι από το Twitter,
  • 21:25 - 21:27
    και φεύγω με κάτι πολύτιμο».
  • 21:27 - 21:29
    Αυτός είναι ο σκοπός μας τελικά,
  • 21:29 - 21:31
    αλλά θα χρειαστεί χρόνος.
  • 21:31 - 21:36
    ΚΑ: Σε πολλούς είσαι,
    νομίζω σε μένα, σαν αίνιγμα.
  • 21:36 - 21:41
    Είναι μάλλον άδικο,
    αλλά τις προάλλες ξύπνησα τη νύχτα
  • 21:41 - 21:45
    έχοντας αυτή την εικόνα του πώς
    σκέφτομαι εσένα και την κατάσταση,
  • 21:45 - 21:52
    ότι είμαστε σε ένα μεγάλο ταξίδι μαζί σου
    στο καράβι που λέγεται «Twittanic» --
  • 21:52 - 21:53
    (Γέλια)
  • 21:53 - 21:57
    και υπάρχουν άτομα στο πλοίο στο πηδάλιο
  • 21:57 - 22:00
    που εκφράζουν τη δυσφορία τους,
  • 22:00 - 22:02
    κι εσύ, σε αντίθεση
    με πολλούς άλλους καπετάνιους,
  • 22:02 - 22:06
    λες, «Πείτε μου, μιλήστε μου,
    ακούστε με, θέλω να ακούσω».
  • 22:06 - 22:09
    Και σου μιλούν, και λένε,
    «Ανησυχούμε για το παγόβουνο μπροστά».
  • 22:09 - 22:11
    Λες, «Ξέρεις, έχεις ένα ισχυρό σημείο,
  • 22:11 - 22:14
    και το πλοίο μας, για να πω την αλήθεια,
    δεν έχει χτιστεί σωστά
  • 22:14 - 22:16
    για πλοήγηση όπως θα μπορούσε».
  • 22:16 - 22:17
    Και λέμε, «Σε παρακαλώ, κάνε κάτι».
  • 22:17 - 22:19
    Και πας στη γέφυρα,
  • 22:19 - 22:21
    και περιμένουμε,
  • 22:21 - 22:26
    και βλέπουμε, και φαίνεσαι
    εξαιρετικά ήρεμος,
  • 22:26 - 22:30
    αλλά όλοι μας στεκόμαστε απ' έξω και λέμε,
    «Τζακ, γύρνα το γαμημένο τιμόνι!»
  • 22:30 - 22:31
    Καταλαβαίνεις;
  • 22:31 - 22:32
    (Γέλια)
  • 22:32 - 22:34
    (Χειροκρότημα)
  • 22:34 - 22:36
    Θέλω να πω --
  • 22:36 - 22:37
    (Χειροκρότημα)
  • 22:37 - 22:42
    Διακυβεύεται η δημοκρατία.
  • 22:42 - 22:45
    Διακυβεύεται ο πολιτισμός μας.
    Διακυβεύεται ο κόσμος μας.
  • 22:45 - 22:49
    Και το Twitter είναι εξαιρετικό
    και διαμορφώνει τόσα πράγματα.
  • 22:49 - 22:52
    Δεν είναι τόσο μεγάλο
    όσο μερικές άλλες πλατφόρμες,
  • 22:52 - 22:55
    αλλά το χρησιμοποιούν άτομα με επιρροή
    για να ορίσουν την ατζέντα,
  • 22:55 - 23:01
    και είναι δύσκολο να φανταστείς έναν
    πιο σημαντικό ρόλο στον κόσμο από το να...
  • 23:02 - 23:05
    Θέλω να πω, κάνεις φανταστική δουλειά στο
    να ακούς, Τζακ, και ακούς τον κόσμο,
  • 23:05 - 23:10
    αλλά το να το θέσεις σε προτεραιότητα
    και να κάνεις κάτι --
  • 23:10 - 23:12
    θα το κάνεις αυτό;
  • 23:13 - 23:17
    ΤΝ: Ναι, και έχουμε κάνει
    σημαντικές κινήσεις.
  • 23:17 - 23:20
    Υπήρχαν κάποιες δυναμικές
    στην ιστορία του Twitter.
  • 23:20 - 23:22
    Ένα, όταν επέστρεψα στην εταιρία,
  • 23:23 - 23:30
    ήμασταν σε κακή κατάσταση
    όσον αφορά το μέλλον μας,
  • 23:30 - 23:34
    και όχι μόνο από το πώς
    χρησιμοποιείται η πλατφόρμα,
  • 23:34 - 23:36
    αλλά και από εταιρική αφήγηση.
  • 23:36 - 23:40
    Έτσι έπρεπε να φτιάξουμε
    αρκετή από τη βάση,
  • 23:40 - 23:42
    να γυρίσουμε την εταιρία,
  • 23:42 - 23:45
    να κάνουμε δύο τρελές απολύσεις,
  • 23:45 - 23:49
    επειδή μεγαλώσαμε πολύ
    γι' αυτό που κάναμε,
  • 23:49 - 23:51
    και εστιάσαμε όλη την ενέργειά μας
  • 23:51 - 23:54
    σε αυτή την έννοια της υπηρεσίας
    της δημόσιας συζήτησης.
  • 23:54 - 23:56
    Και χρειάστηκε αρκετή δουλειά.
  • 23:56 - 23:58
    Και καθώς το ξεκινήσαμε αυτό,
  • 23:58 - 24:01
    συνειδητοποιήσαμε μερικά θέματα
    με τις θεμελιώδεις αρχές.
  • 24:02 - 24:05
    Θα μπορούσαμε να κάνουμε
    διάφορα επιφανειακά πράγματα
  • 24:05 - 24:09
    για να αντιμετωπίσουμε αυτά που λες,
    αλλά πρέπει να κρατήσουν οι αλλαγές,
  • 24:09 - 24:11
    και αυτό σημαίνει ότι πρέπει
    να πάμε πραγματικά βαθιά
  • 24:11 - 24:15
    και να προσέξουμε αυτό
    που ξεκινήσαμε πριν από 13 χρόνια
  • 24:15 - 24:18
    και να αναρωτηθούμε πραγματικά
  • 24:18 - 24:20
    πώς λειτουργεί το σύστημα και η δομή
  • 24:20 - 24:24
    και τι χρειάζεται για τον κόσμο σήμερα,
  • 24:24 - 24:28
    δεδομένου πόσο γρήγορα κινούνται
    όλα και πώς το χρησιμοποιεί ο κόσμος.
  • 24:28 - 24:35
    Δουλεύουμε όσο πιο γρήγορα μπορούμε, αλλά
    η γρηγοράδα δεν θα τελειώσει τη δουλειά.
  • 24:35 - 24:37
    Είναι η εστίαση, οι προτεραιότητες,
  • 24:37 - 24:40
    η κατανόηση των θεμελιωδών
    αρχών του δικτύου
  • 24:40 - 24:43
    και το χτίσιμο μιας δομής που επεκτείνεται
  • 24:43 - 24:46
    και είναι ανθεκτική στην αλλαγή,
  • 24:46 - 24:51
    και το να είμαστε ανοιχτοί και διαφανείς
    για το πού βρισκόμαστε
  • 24:51 - 24:54
    έτσι ώστε να συνεχίσουμε
    να κερδίζουμε την εμπιστοσύνη.
  • 24:54 - 24:57
    Είμαι περήφανος για όλες τις δομές
    που έχουμε εφαρμόσει.
  • 24:57 - 25:00
    Είμαι περήφανος για την κατεύθυνσή μας.
  • 25:01 - 25:04
    Προφανώς μπορούμε να πάμε γρηγορότερα,
  • 25:04 - 25:08
    αλλά αυτό απαιτούσε να σταματήσουμε
    διάφορα χαζά που κάναμε στο παρελθόν.
  • 25:09 - 25:10
    ΚΑ: Εντάξει.
  • 25:10 - 25:14
    Υποψιάζομαι ότι πολλά άτομα εδώ
    αν είχαν την ευκαιρία,
  • 25:14 - 25:18
    θα ήθελαν πολύ να σε βοηθήσουν
    σε αυτή την ατζέντα αλλαγών,
  • 25:18 - 25:20
    και δεν ξέρω αν η Γουίτνι --
  • 25:20 - 25:23
    Τζακ, σε ευχαριστώ που ήρθες εδώ
    και μίλησες τόσο ανοιχτά.
  • 25:23 - 25:24
    Χρειάστηκε κουράγιο.
  • 25:24 - 25:28
    Εκτιμώ πραγματικά αυτό που είπες,
    και καλή τύχη με την αποστολή σου.
  • 25:28 - 25:30
    ΤΝ: Σας ευχαριστώ πολύ.
    Σας ευχαριστώ που με δεχτήκατε.
  • 25:30 - 25:33
    (Χειροκρότημα)
  • 25:33 - 25:34
    Σας ευχαριστώ.
Title:
Πώς πρέπει να αλλάξει το Twitter
Speaker:
Τζακ Ντόρσι
Description:

Μπορεί να σωθεί το Twitter; Σε μια ευρεία συζήτηση με τον Κρις Άντερσον του TED και την Γουίτνεϊ Πάνινγκτον Ρότζερς, ο CEO του Twitter Τζακ Ντόρσι συζητά το μέλλον της πλατφόρμας -- αναγνωρίζοντας προβλήματα με την παρενόχληση και τον συντονισμό και προτείνοντας κάποιες ριζικές αλλαγές που ελπίζει ότι θα ενθαρρύνουν υγιείς συζητήσεις με σεβασμό. «Παραδίδουμε κάτι που ο κόσμος εκτιμά κάθε μέρα;» ρωτάει ο Ντόρσι.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Chryssa R. Takahashi approved Greek subtitles for How Twitter needs to change
Chryssa R. Takahashi edited Greek subtitles for How Twitter needs to change
Vasiliki Soultani accepted Greek subtitles for How Twitter needs to change
Vasiliki Soultani edited Greek subtitles for How Twitter needs to change
Vasiliki Soultani edited Greek subtitles for How Twitter needs to change
Vasiliki Soultani edited Greek subtitles for How Twitter needs to change
Vasiliki Soultani edited Greek subtitles for How Twitter needs to change
Chryssa R. Takahashi edited Greek subtitles for How Twitter needs to change
Show all

Greek subtitles

Revisions