Return to Video

Bagaimana Twitter harus berubah

  • 0:01 - 0:04
    Chris Anderson:
    Apa yang mencemaskan Anda saat ini?
  • 0:04 - 0:06
    Anda sudah sangat terbuka
    tentang banyak isu di Twitter.
  • 0:06 - 0:09
    Apa yang paling mencemaskan Anda
  • 0:09 - 0:11
    tentang hal-hal yang ada saat ini?
  • 0:11 - 0:14
    Jack Dorsey: Saat ini,
    percakapan yang sehat.
  • 0:14 - 0:18
    Jadi, tujuan kami adalah untuk melayani
    percakapan publik,
  • 0:18 - 0:23
    dan kami melihat banyak serangan.
  • 0:23 - 0:26
    Kami melihat cacian,
    kami melihat pelecehan,
  • 0:26 - 0:28
    kami melihat manipulasi,
  • 0:29 - 0:33
    otomatisasi, koordinasi manusia,
    salah informasi.
  • 0:34 - 0:38
    Jadi dinamika ini
    tidak seperti yang kami harapkan
  • 0:38 - 0:42
    ketika kami memulai perusahaan ini
    13 tahun yang lalu.
  • 0:42 - 0:45
    Tapi sekarang kami melihatnya dalam
    besar
  • 0:45 - 0:50
    dan yang membuat kami cemas adalah
    kemampuan kami mengatasi isu ini
  • 0:50 - 0:53
    dengan cara yang sistematis dan terukur,
  • 0:53 - 1:00
    yang memiliki pemahaman tepat
    bagaimana kami bersikap,
  • 1:00 - 1:03
    pemahaman yang transparan tentang
    bagaimana kami bersikap
  • 1:03 - 1:06
    dan proses banding yang
    tegas ketika kami salah,
  • 1:06 - 1:08
    sebab kami pasti akan melakukan kesalahan.
  • 1:09 - 1:11
    Whitney Pennington Rodgers:
    Saya senang mendengar
  • 1:11 - 1:13
    bahwa itu sesuatu yang Anda pedulikan,
  • 1:13 - 1:16
    karena saya pikir ada banyak
    yang tertulis tentang
  • 1:16 - 1:18
    mereka yang merasa dicaci
    dan dilecehkan di Twitter,
  • 1:18 - 1:22
    dan saya pikir yang paling terdampak
    adalah wanita dan wanita kulit berwarna
  • 1:22 - 1:23
    dan wanita kulit hitam.
  • 1:23 - 1:25
    Dan ada data yang keluar --
  • 1:25 - 1:28
    Amnesti Internasional mengeluarkan
    laporan beberapa bulan lalu
  • 1:28 - 1:33
    yang menunjukkan bagian dari wanita kulit
    hitam pengguna Twitter
  • 1:33 - 1:36
    rata-rata menerima 1 dalam 10
    cuitan mereka
  • 1:36 - 1:38
    bentuk pelecehan.
  • 1:38 - 1:42
    Dan kemudian saat Anda berpikir tentang
    kesehatan bagi komunitas di Twitter,
  • 1:42 - 1:46
    saya tertarik untuk mendengar,
    "kesehatan untuk semuanya,"
  • 1:46 - 1:50
    tapi secara spesifik: Bagaimana Anda
    membuat Twitter tempat yang aman
  • 1:50 - 1:54
    untuk sebagian itu, untuk para wanita,
    para wanita berwarna dan berkulit hitam?
  • 1:54 - 1:55
    Yah.
  • 1:55 - 1:57
    Jadi ini adalah situasi yang buruk
  • 1:57 - 1:59
    ketika Anda datang untuk suatu jasa
  • 1:59 - 2:03
    yang, idealnya, Anda bisa mempelajari
    sesuatu tentang dunia,
  • 2:03 - 2:09
    dan Anda menghabiskan sebagian besar waktu
    melaporkan kekerasan, menerima cacian,
  • 2:09 - 2:11
    menerima pelecehan.
  • 2:11 - 2:18
    Jadi yang paling kami cari
    adalah insentif
  • 2:18 - 2:22
    bahwa ini adalah wadah yang menyediakan
    secara alami dan layanan menyediakan.
  • 2:22 - 2:27
    Saat ini, dinamika dari sistem membuat
    sangat mudah untuk melecehkan
  • 2:27 - 2:31
    dan mencaci orang lain
    melalui layanan ini,
  • 2:31 - 2:34
    dan sayangnya, kebanyakan dari
    sistem kami di masa lalu
  • 2:34 - 2:39
    bekerja sepenuhnya berdasarkan orang yang
    melaporkan pelecehan dan cacian.
  • 2:39 - 2:45
    Jadi sekitar pertengahan tahun lalu,
    kami memutuskan akan menerapkan
  • 2:45 - 2:49
    lebih banyak pembelajaran mesin, pemahaman
    terhadap masalah yang lebih dalam lagi,
  • 2:49 - 2:53
    dan berusaha lebih proaktif di mana
    pelecehan terjadi,
  • 2:53 - 2:57
    sehingga kami bisa sepenuhnya
    mengangkat beban dari korban.
  • 2:57 - 3:00
    Dan akhir-akhir ini kami sudah
    membuat kemajuan.
  • 3:00 - 3:06
    Sekitar 38% cuitan jahat sekarang sudah
    didentifikasi secara proaktif
  • 3:06 - 3:08
    oleh algoritma pembelajaran mesin
  • 3:08 - 3:10
    sehingga orang-orang tidak
    perlu melapor lagi.
  • 3:10 - 3:14
    Tapi yang sudah diidentifikasi
    masih ditinjau oleh manusia,
  • 3:14 - 3:19
    jadi kami tidak menutup isi atau akun
    tanpa ditinjau oleh manusia.
  • 3:19 - 3:22
    Tapi itu dari nol persen
    setahun yang lalu.
  • 3:22 - 3:24
    Jadi artinya, di nol persen,
  • 3:24 - 3:28
    setiap orang yang menerima aniaya
    harus melaporkannya,
  • 3:28 - 3:31
    yang adalah pekerjaan tambahan
    untuk mereka, tambahan untuk kami
  • 3:31 - 3:33
    dan sangat tidak adil.
  • 3:35 - 3:38
    Hal lain yang kami lakukan adalah
    memastikan bahwa kami sebagai perusahaan,
  • 3:38 - 3:42
    memiliki wakil untuk semua komunitas yang
    berusaha kami layani.
  • 3:42 - 3:44
    Kita tidak bisa membangun
    bisnis yang sukses
  • 3:44 - 3:47
    kecuali kita mempunyai sudut pandang
    beragam dalam diri kita
  • 3:47 - 3:51
    yang benar-benar merasakan isu-isu
    tersebut setiap hari.
  • 3:51 - 3:55
    Dan itu bukan cuma tim yang bekerja,
  • 3:55 - 3:57
    tapi juga meilputi kepemimpinan kami.
  • 3:57 - 4:03
    Jadi kami harus melanjutkan membangun
    empati untuk apa yang dialami orang-orang
  • 4:03 - 4:06
    dan memberikan mereka alat
    yang lebih baik untuk melakukannya
  • 4:06 - 4:10
    dan juga memberikan pelanggan kami
    pendekatan yang lebih baik dan lebih mudah
  • 4:10 - 4:13
    untuk menangani beberapa
    hal yang mereka lihat.
  • 4:13 - 4:16
    Jadi banyak yang kami lakukan
    berhubungan dengan teknologi
  • 4:16 - 4:20
    tapi kami juga melihat insentif
    dari layanan tersebut:
  • 4:20 - 4:25
    Apa yang didorong oleh Twitter untuk Anda
    lakukan saat pertama kali membukanya?
  • 4:25 - 4:27
    Dan di masa lalu,
  • 4:29 - 4:34
    hal itu mendorong banyak amarah,
    mendorong banyak perilaku massa,
  • 4:34 - 4:37
    mendorong banyak pelecehan berkelompok.
  • 4:37 - 4:40
    dan kami harus melihat lebih dalam
    pada beberapa hal mendasar
  • 4:40 - 4:43
    yang dilakukan layanan ini untuk
    membuat perubahan yang lebih besar.
  • 4:43 - 4:47
    Kami bisa membuat banyak perubahan kecil
    seputar teknologi, seperti saya jelaskan,
  • 4:47 - 4:52
    tapi intinya, kami harus melihat lebih
    dalam dinamika dalam jaringan itu sendiri,
  • 4:52 - 4:53
    dan itu yang sedang kami lakukan.
  • 4:53 - 4:55
    Tapi apa maksud Anda --
  • 4:55 - 4:59
    apa hal yang mungkin bisa Anda ubah
  • 4:59 - 5:02
    yang bisa benar-benar secara fundamental
    mengubah perilaku?
  • 5:03 - 5:05
    Salah satunya --
  • 5:05 - 5:10
    kami memulai layanan ini dengan konsep
    mengikuti sebuah akun,
  • 5:10 - 5:12
    sebagai contoh,
  • 5:12 - 5:16
    dan saya tidak yakin itu sebabnya orang
    menggunakan Twitter.
  • 5:16 - 5:21
    Saya yakin Twitter baiknya sebagai
    jaringan berdasarkan minat.
  • 5:21 - 5:25
    Orang datang dengan minat tertentu.
  • 5:25 - 5:28
    Mereka harus melakukan banyak hal untuk
    menemukan dan mengikuti akun tersebut
  • 5:28 - 5:30
    sesuai dengan minat.
  • 5:30 - 5:34
    Jadi yang bisa kita lakukan adalah
    membiarkan mereka mengikuti sebuah minat,
  • 5:34 - 5:36
    mengikuti tagar, mengikuti tren,
  • 5:36 - 5:38
    mengikuti sebuah komunitas,
  • 5:38 - 5:42
    yang memberikan kita kesempatan untuk
    menunjukkan semua akun,
  • 5:42 - 5:46
    semua topik, semua momen, semua tagar
  • 5:46 - 5:50
    yang berhubungan dengan topik tertentu
    dan minat,
  • 5:50 - 5:54
    yang benar-benar membuka cara pandang
    pengelihatan mereka.
  • 5:54 - 5:56
    Tapi itu perubahan
    fundamental yang besar
  • 5:56 - 6:00
    untuk membiaskan seluruh jaringan dari
    bias akun
  • 6:00 - 6:03
    menuju sebuah topik dan bias minat.
  • 6:03 - 6:06
    Sebab bukankah itu sebabnya
  • 6:07 - 6:11
    alasan Anda punya banyak sekali konten
  • 6:11 - 6:15
    hasil dari menaruh jutaan orang
    dari seluruh dunia
  • 6:15 - 6:18
    di dalam semacam kontes gladiator
    antara satu sama lain
  • 6:18 - 6:20
    demi pengikut, demi perhatian?
  • 6:20 - 6:24
    Seperti, dari sudut pandang orang yang
    hanyak membaca Twitter,
  • 6:24 - 6:25
    itu bukan masalah,
  • 6:25 - 6:29
    tapi untuk orang yang membuatnya,
    orang di luar sana berkata,
  • 6:29 - 6:32
    "Kau tahu, kuharap aku punya lebih banyak
    'suka,' pengikut, retweet."
  • 6:32 - 6:34
    Akhirnya mereka secara konstan
    bereskperimen,
  • 6:34 - 6:36
    berusaha mencari jalan
    untuk melakukannya.
  • 6:36 - 6:40
    Dan semua yang sudah kita temukan adalah
    jalan utama untuk melakukannya
  • 6:40 - 6:44
    adalah menjadi semacam provokatif,
  • 6:44 - 6:47
    menjengkelkan, sangat memuakkan,
  • 6:47 - 6:50
    seperti, ejekan yang fasih adalah
    mimpi di Twitter,
  • 6:50 - 6:53
    di mana dengan cepat Anda kumpulkan --
  • 6:53 - 6:57
    dan ini menjadi proses isi ulang mandiri
    dalam mengobarkan amarah.
  • 6:57 - 7:00
    Bagaimana Anda memadamkannya?
  • 7:01 - 7:04
    Yah, maksud saya,
    saya pikir Anda tepat sekali,
  • 7:04 - 7:05
    tapi kembali lagi ke insentif.
  • 7:06 - 7:08
    Seperti, salah satu pilihan yang kami buat
    di awal adalah
  • 7:08 - 7:13
    kami punya angka yang menunjukkan berapa
    banyak orang yang mengikutimu.
  • 7:13 - 7:16
    Kami memutuskan angka tersebut harus
    besar dan tebal,
  • 7:16 - 7:20
    dan semua yang ada di halaman itu yang
    besar dan tebal itu penting,
  • 7:20 - 7:22
    dan itu adalah hal-hal yang ingin Anda
    dorong.
  • 7:22 - 7:24
    Apakah itu keputusan yang
    tepat pada waktu itu?
  • 7:24 - 7:25
    Mungkin tidak.
  • 7:25 - 7:27
    Jika saya harus memulai lagi,
  • 7:27 - 7:29
    saya tidak akan sebegitunya mementingkan
    pengikut.
  • 7:29 - 7:32
    Saya tidak akan begitu mementingkan
    jumlah "suka" .
  • 7:32 - 7:35
    Saya pikir saya tidak akan membuat "suka"
    sama sekali,
  • 7:35 - 7:38
    sebab itu tidak benar-benar mendorong
  • 7:38 - 7:41
    apa yang kami percaya sekarang sebagai
    hal yang paling penting,
  • 7:41 - 7:44
    yang adalah kontribusi sehat kembali
    kepada jaringan
  • 7:44 - 7:47
    dan percakapan ke jaringan,
  • 7:47 - 7:49
    partisipasi dalam percakapan,
  • 7:49 - 7:52
    mempelajari sesuatu dari percakapan.
  • 7:52 - 7:54
    Itu bukanlah pikiran kami
    13 tahun yang lalu,
  • 7:54 - 7:57
    dan kami yakin sangat penting sekarang.
  • 7:57 - 8:00
    Jadi kami harus melihat bagaimana kami
    menampilkan akun pengikut,
  • 8:00 - 8:02
    menampilkan jumlah retweet,
  • 8:02 - 8:04
    bagaimana kami menampilkan "suka,"
  • 8:04 - 8:06
    dan menanyakan pertanyaan yang dalam:
  • 8:06 - 8:09
    Apakah ini benar-benar jumlah yang kami
    inginkan agar didorong orang-orang?
  • 8:09 - 8:12
    Apakah ini hal yang ketika Anda membuka
    Twitter,
  • 8:12 - 8:14
    Anda melihat, "Itu hal yang harus saya
    tingkatkan?"
  • 8:14 - 8:16
    Dan saya tidak percaya itu masalahnya
    sekarang.
  • 8:16 - 8:18
    (Tepuk tangan)
  • 8:18 - 8:21
    Saya pikir kita harus melihat pada
    beberapa cuitan
  • 8:21 - 8:23
    yang juga datang dari penonton.
  • 8:24 - 8:26
    Coba lihat apa yang Anda sekalian
    tanyakan.
  • 8:26 - 8:30
    Maksud saya, ini -- umumnya, satu dari
    banyak hal menakjubkan dari Twitter
  • 8:30 - 8:32
    adalah bisa digunakan untuk menyebarkan
    kebijaksanaan,
  • 8:32 - 8:37
    bahwa lebih banyak pengetahuan,
    pertanyaan, sudut pandang
  • 8:37 - 8:38
    lebih dari yang bisa dibayangkan,
  • 8:38 - 8:42
    dan terkadang, banyak dari mereka
    benar-benar sehat.
  • 8:42 - 8:45
    Saya kira saya melihat satu barusan
    di bawah sini,
  • 8:45 - 8:48
    "Apa rencana Twitter untuk melawan campur
    tangan asing dalam pemilu 2020?"
  • 8:48 - 8:51
    Saya pikir itu adalah isu yang kita hadapi
  • 8:51 - 8:53
    di internet secara umum,
  • 8:53 - 8:56
    bahwa kita punya banyak kegiatan buruk
    terotomatisasi terjadi.
  • 8:56 - 9:02
    Dan di Twitter, contohnya, faktanya, kita
    punya pekerjaan
  • 9:02 - 9:05
    yang datang dari
    teman kita di Zignal Labs,
  • 9:05 - 9:07
    dan mungkin kita bisa melihat bahwa
    sebagai contoh
  • 9:07 - 9:09
    tentang apa tepatnya yang saya maksud,
  • 9:09 - 9:12
    di mana Anda punya
    bot-bot ini,
  • 9:13 - 9:17
    atau aktivitas akun otomatis
    yang terkoordinasi,
  • 9:17 - 9:20
    yang digunakan untuk mempengaruhi
    hal-hal seperti pemilu.
  • 9:20 - 9:24
    Dan dalam contoh ini Zignal telah berbagi
    dengan kita
  • 9:24 - 9:26
    menggunakan data yang mereka miliki
    dari Twitter,
  • 9:26 - 9:28
    Anda lihat dalam kasus ini,
  • 9:28 - 9:33
    putih mewakili manusia -- akun manusia,
    setiap titik adalah akun.
  • 9:33 - 9:34
    Semakin merah jambu,
  • 9:34 - 9:36
    semakin otomatis akun tersebut.
  • 9:36 - 9:42
    Dan Anda bisa lihat bagaimana beberapa
    manusia berinterkasi dengan bot.
  • 9:42 - 9:46
    Dalam kasus ini, hal ini berhubungan
    dengan pemilu di Israel
  • 9:46 - 9:49
    dan menyebarkan informasi yang salah
    tentang Benny Gantz,
  • 9:49 - 9:52
    dan seperti kita tahu, akhirnya,
    dalam pemilu itu
  • 9:52 - 9:56
    di mana Netanyahu menang tipis,
  • 9:56 - 9:59
    dan mungkin ada beberapa kasus
    terpengaruh oleh hal ini.
  • 9:59 - 10:01
    Dan saat Anda berpikir apa yang
    terjadi dengan Twitter,
  • 10:01 - 10:04
    apa hal-hal yang Anda lakukan,
    secara spesifik,
  • 10:04 - 10:07
    untuk memastikan Anda tidak menerima
    salah informasi yang tersebar seperti ini,
  • 10:07 - 10:12
    mempengaruhi orang-orang yang
    bisa mempengaruhi demokrasi?
  • 10:12 - 10:13
    Mundur sedikit,
  • 10:13 - 10:16
    kami bertanya pada diri sendiri:
  • 10:16 - 10:20
    Bisakah kami mengukur kesehatan
    sebuah pecakapan,
  • 10:20 - 10:22
    dan apa artinya itu?
  • 10:22 - 10:25
    Dan dengan cara yang sama Anda punya
    indikator
  • 10:25 - 10:28
    dan kami punya indikator sebagai manusia
    perihal apakah kita sehat atau tidak,
  • 10:28 - 10:33
    seperti suhu, rona wajah,
  • 10:33 - 10:38
    kami percaya kami dapat menemukan
    indikator percakapan yang sehat.
  • 10:38 - 10:42
    Dan kami bekerja bersama dengan
    sebuah laboratorium bernama Cortico di MIT
  • 10:42 - 10:49
    untuk mengajukan empat indikator pemicu
  • 10:49 - 10:52
    yang kami percaya bisa
    mengukur dalam sistem.
  • 10:53 - 10:59
    Dan yang pertama adalah yang kami sebut
    pembagian perhatian.
  • 10:59 - 11:02
    Ini adalah ukuran seberapa banyak
    percakapan yang memperhatikan
  • 11:02 - 11:05
    topik yang sama dibanding
    yang berbeda.
  • 11:06 - 11:09
    Yang kedua disebut pembagian realita,
  • 11:09 - 11:11
    dan ini adalah persentase dari percakapan
  • 11:12 - 11:14
    yang memiliki fakta yang sama --
  • 11:14 - 11:17
    bukan apakah fakta tersebut
    benar atau tidak,
  • 11:17 - 11:20
    tapi apakah kita berbagi fakta yang sama
    selama percakapan?
  • 11:20 - 11:23
    Yang ketiga adalah penerimaan:
  • 11:23 - 11:27
    Seberapa banyak dari percakapan yang
    bisa diterima atau sopan
  • 11:27 - 11:30
    atau kebalikannya, beracun?
  • 11:30 - 11:33
    Dan keempat adalah ragam cara pandang.
  • 11:33 - 11:37
    Jadi, kita melihat filter bubbles atau
    echo chamber,
  • 11:37 - 11:40
    atau sebenarnya kita mendapat
    macam-macam opini
  • 11:40 - 11:41
    dari percakapan?
  • 11:41 - 11:45
    Dan implisit dari keempatnya
    adalah pemahaman bahwa,
  • 11:45 - 11:49
    semakin bertambahnya hal ini, percakapan
    menjadi sehat dan makin sehat.
  • 11:49 - 11:54
    Jadi langkah pertama adalah melihat apakah
    kami bisa mengukurnya secara daring,
  • 11:54 - 11:55
    yang kami yakini kami mampu.
  • 11:55 - 11:58
    Kami memiliki momentum seputar penerimaan.
  • 11:58 - 12:03
    Kami punya skor keburukan, model keburukan
    dalam sistem kami
  • 12:03 - 12:07
    yang bisa mengukur dengan benar apakah
    Anda cenderung untuk pergi
  • 12:07 - 12:09
    dari percakapan yang sedang Anda lakukan
    di Twitter
  • 12:09 - 12:11
    sebab Anda merasa itu buruk,
  • 12:11 - 12:13
    dengan derajat yang tinggi.
  • 12:14 - 12:17
    Kami sedang bekerja
    untuk mengukur sisanya,
  • 12:17 - 12:19
    dan langkah selanjutnya adalah
  • 12:19 - 12:22
    sambil mencari solusinya,
  • 12:22 - 12:25
    memperhatikan bagaimana arah
    pengukuran ini
  • 12:25 - 12:27
    dan melanjutkan eksperimen.
  • 12:27 - 12:31
    Dan tujuan kami adalah memastikan
    keseimbangannya,
  • 12:31 - 12:35
    sebab jika Anda menambah satu
    Anda mungkin mengurangi yang lain.
  • 12:35 - 12:37
    Jika Anda menambah
    ragam sudut pandang,
  • 12:37 - 12:40
    Anda mungkin malah mengurangi
    kenyataan yang dibagikan.
  • 12:40 - 12:45
    Hanya memilih beberapa pertanyaan yang
    masuk di sini.
  • 12:45 - 12:46
    Pertanyaan konstan.
  • 12:47 - 12:51
    Banyak orang bingung mengapa,
  • 12:51 - 12:55
    seperti, seberapa sulit menghilangkan
    Nazi dari Twitter?
  • 12:56 - 12:58
    (Tertawa)
  • 12:58 - 13:05
    Jadi kami memiliki aturan seputar kelompok
    ekstrem yang keras,
  • 13:05 - 13:09
    dan mayoritas pekerjaan kami dan
    persyaratan layanan kami
  • 13:09 - 13:13
    bekerja dengan tingkah laku, bukan konten.
  • 13:13 - 13:15
    Jadi sebenarnya kami mencari perilaku.
  • 13:15 - 13:18
    Perilaku adalah menggunakan layanan
  • 13:18 - 13:22
    untuk berulang-ulang atau secara episodik
    melecehkan seseorang,
  • 13:22 - 13:25
    menggunakan gambar yang penuh kebencian
  • 13:25 - 13:27
    yang bisa dihubungkan dengan KKK
  • 13:27 - 13:30
    atau Partai Nazi Amerika.
  • 13:30 - 13:34
    Itulah hal-hal yang
    kami tindak secepatnya.
  • 13:35 - 13:40
    Kita berada dalam situasi di mana istilah
    tersebut digunakan dengan sembrono,
  • 13:40 - 13:46
    dan kami tidak bisa mengambil satu
    penggunaan untuk kata tersebut
  • 13:46 - 13:48
    menuduh orang lain
  • 13:48 - 13:52
    sebagai indikasi nyata bahwa mereka harus
    dihilangkan dari wadah ini.
  • 13:52 - 13:54
    Jadi banyak model kami berdasarkan
    pada, satu:
  • 13:54 - 13:58
    apakah akun ini berhubungan dengan
    kelompok ekstremis yang keras?
  • 13:58 - 14:00
    Dan jika ya, kami akan bertindak.
  • 14:00 - 14:03
    Dan kami sudah melakukannya dengan KKK
    dan Partai Nazi Amerika dan lainnya.
  • 14:03 - 14:08
    Dan kedua: Apakah mereka menggunakan
    gambar atau perilaku
  • 14:08 - 14:10
    yang menghubungkan mereka dengan
    hal semacam itu?
  • 14:10 - 14:14
    Berapa banyak orang yang Anda
    pekerjakan untuk moderasi konten
  • 14:14 - 14:15
    untuk ini semua?
  • 14:15 - 14:16
    Bermacam-macam.
  • 14:16 - 14:18
    Kami ingin fleksibel dengan ini,
  • 14:18 - 14:20
    sebab kami ingin memastikan bahwa kami,
    yang pertama,
  • 14:20 - 14:25
    membuat algoritma alih-alih hanya
    memperkerjakan banyak orang,
  • 14:25 - 14:28
    sebab kami harus memastikan
    ini bisa dalam skala besar,
  • 14:28 - 14:31
    dan tidak ada jumlah orang yang
    benar-benar bisa memenuhi ini.
  • 14:31 - 14:38
    Jadi ini sebabnya kami banyak bekerja
    seputar deteksi kekerasan proaktif
  • 14:38 - 14:39
    yang kemudian bisa ditinjau manusia.
  • 14:39 - 14:42
    Kami ingin memiliki situasi
  • 14:42 - 14:46
    di mana algoritma secara konstan memeriksa
    setiap cuitan
  • 14:46 - 14:48
    dan membawa yang paling menarik
    ke atas
  • 14:48 - 14:52
    sehingga manusia bisa membawa penilaian
    mereka untuk bertindak atau tidak,
  • 14:52 - 14:54
    berdasarkan syarat layanan kami.
  • 14:54 - 14:57
    Tapi itu tidak ada jumlah orang yang
    bisa memenuhi itu,
  • 14:57 - 15:00
    jadi berapa orang yang saat ini Anda punya
    mengawasi akun-akun ini,
  • 15:00 - 15:03
    dan bagaimana Anda
    menentukan apa yang cukup?
  • 15:03 - 15:05
    Mereka sangat fleksibel.
  • 15:05 - 15:08
    Terkadang kami asosiasikan orang-orang
    dengan spam.
  • 15:08 - 15:12
    Terkadang kami asosiasikan mereka dengan
    kekerasan dan pelecehan.
  • 15:12 - 15:15
    Kami akan memastikan bahwa orang-orang
    kami punya fleksibilitas
  • 15:15 - 15:17
    jadi mereka bisa diarahkan
    untuk yang paling penting.
  • 15:17 - 15:18
    Terkadang, pemilu.
  • 15:18 - 15:23
    Kami punya serangkaian pemilu di Meksiko,
    satu akan diadakan di India,
  • 15:23 - 15:28
    tentu saja, pemilu tahun lalu, pemilu
    pertengahan tahun,
  • 15:28 - 15:30
    jadi kami hanya ingin fleksibel dengan
    sumber daya kami.
  • 15:30 - 15:33
    Jadi ketika orang-orang --
  • 15:33 - 15:39
    hanya contoh, jika Anda lihat
    syarat layanan kami yang sekarang
  • 15:39 - 15:41
    dan jika Anda naikkan halamannya
  • 15:41 - 15:44
    dan Anda ingin tahu tentang aniaya dan
    pelecehan yang baru Anda terima
  • 15:44 - 15:48
    dan apakah melaporkannya
    melanggar persyaratan kami,
  • 15:48 - 15:51
    hal pertama yang Anda lihat ketika
    membuka halaman itu
  • 15:51 - 15:54
    adalah seputar perlindungan
    hak milik intelektual.
  • 15:55 - 16:00
    Anda geser ke bawah dan sampai ke
    kekerasan, pelecehan
  • 16:00 - 16:02
    dan hal lain yang mungkin Anda alami.
  • 16:02 - 16:06
    Jadi saya tidak tahu bagaimana itu bisa
    terjadi selama sejarah perusahaan,
  • 16:06 - 16:10
    tapi kami menempatkannya di atas
    keinginan orang akan
  • 16:12 - 16:15
    informasi yang paling diinginkan dan
    yang akan benar-benar ditindak.
  • 16:15 - 16:21
    Dan susunan kami menunjukkan pada dunia
    apa yang kami percayai penting.
  • 16:21 - 16:24
    Jadi kami mengubah semua itu.
  • 16:24 - 16:25
    Kami mengurutkannya dengan benar,
  • 16:25 - 16:29
    tapi kami juga menyederhanakan aturan
    agar terbaca manusia
  • 16:29 - 16:33
    sehingga orang-orang bisa
    mengerti diri sendiri
  • 16:33 - 16:36
    ketika sesuatu berlawanan dengan syarat
    kami dan ketika tidak berlawanan.
  • 16:36 - 16:38
    Dan kemudian kami membuat --
  • 16:38 - 16:44
    lagi, fokus terbesar kami adalah
    menghilangkan beban dari para korban.
  • 16:44 - 16:47
    Jadi artinya lebih mengandalkan teknologi.
  • 16:47 - 16:49
    daripada manusianya yang bekerja --
  • 16:49 - 16:52
    artinya manusia yang menerima kekerasan
  • 16:52 - 16:55
    dan manusia juga yang harus
    meninjau pekerjaannya.
  • 16:55 - 16:56
    Kami ingin memastikan
  • 16:56 - 16:59
    bahwa kami tidak hanya mendorong
    lebih banyak pekerjaan
  • 16:59 - 17:02
    seputar sesuatu yang sangat,
    sangat negatif,
  • 17:02 - 17:05
    dan kami ingin memiliki keseimbangan yang
    baik antara teknologi
  • 17:05 - 17:08
    dan di mana manusia bisa menjadi kreatif,
  • 17:08 - 17:11
    yang mana adalah penilaian dari peraturan,
  • 17:11 - 17:14
    dan bukan hanya hal mekanis tentang
    menemukan dan melaporkan mereka.
  • 17:14 - 17:16
    Jadi itulah cara kami memikirkannya.
  • 17:16 - 17:18
    Saya ingin tahu lebih jauh tentang
    kata-kata Anda.
  • 17:18 - 17:21
    Saya senang Anda berkata
    Anda mencari jalan
  • 17:21 - 17:24
    untuk mengulik lagi rancangan fundamental
    dari sistem
  • 17:24 - 17:29
    untuk menghalangi perilaku reaktif
    dan mungkin --
  • 17:29 - 17:32
    memakai gaya bahasa Tristan Harris --
  • 17:32 - 17:36
    mengikutsertakan pemikiran reflektif
    orang.
  • 17:36 - 17:38
    Seberapa majukah itu?
  • 17:38 - 17:42
    Apa alternatif dari tombol "suka'?
  • 17:44 - 17:47
    Pertama dan terutama,
  • 17:47 - 17:53
    tujuan pribadi saya untuk layanan ini
    adalah saya percaya secara fundamental
  • 17:53 - 17:56
    bahwa percakapan publik adalah kritis.
  • 17:56 - 17:58
    Dunia mengalami masalah eksitensial
  • 17:58 - 18:02
    yang dialami seluruh dunia, bukan hanya
    bangsa tertentu,
  • 18:02 - 18:05
    yang diuntungkan oleh percakapan publik.
  • 18:05 - 18:08
    Dan itu adalah satu dari
    dinamika unik Twitter,
  • 18:08 - 18:09
    bahwa Twitter sangat terbuka,
  • 18:09 - 18:11
    sangat terbuka untuk umum,
  • 18:11 - 18:12
    sangat luwes,
  • 18:12 - 18:16
    dan siapapun bisa melihat percakapan lain
    dan ikut serta.
  • 18:16 - 18:19
    Jadi ada percakapan tentang
    perubahan iklim.
  • 18:19 - 18:21
    Ada percakapan tentang
    penggantian kerja
  • 18:21 - 18:23
    melalui kecerdasan artifisial.
  • 18:23 - 18:26
    Ada percakapan tentang
    kesenjangan ekonomi.
  • 18:26 - 18:29
    Tidak peduli apa yang dilakukan negara,
  • 18:29 - 18:32
    mereka tidak akan mampu menyelesaikan
    masalah sendirian.
  • 18:32 - 18:34
    Dibutuhkan koordinasi seluruh dunia,
  • 18:34 - 18:37
    dan itulah saya pikir
    Twitter bisa berperan.
  • 18:37 - 18:43
    Yang kedua adalah Twitter, saat ini,
    jika Anda membukanya,
  • 18:43 - 18:47
    Anda tidak benar-benar pergi dengan
    perasaan sudah belajar sesuatu.
  • 18:47 - 18:48
    Beberapa orang demikian.
  • 18:48 - 18:51
    Beberapa orang punya jaringan yang
    amat sangat, sangat luas,
  • 18:51 - 18:54
    komunitas yang yang besar jadi mereka
    bisa belajar setiap harinya.
  • 18:54 - 18:58
    Tapi butuh kerja keras dan waktu untuk
    membangun itu semua.
  • 18:58 - 19:02
    Jadi kami ingin membawa orang-orang ke
    topik dan minat tersebut
  • 19:02 - 19:03
    lebih cepat lagi
  • 19:03 - 19:06
    dan memastikan bahwa mereka
    menemukan sesuatu yang,
  • 19:06 - 19:09
    seberapapun lamanya mereka
    menghabiskan waktu di Twitter --
  • 19:09 - 19:12
    dan saya tidak mau memaksimalkan waktu
    mereka di Twitter,
  • 19:12 - 19:14
    saya mau memaksimalkan apa yang
    mereka dapat dari Twitter
  • 19:15 - 19:16
    dan apa yang mereka pelajari,
    dan --
  • 19:18 - 19:19
    Apakah Anda begitu?
  • 19:19 - 19:22
    Karena itulah pertanyaan pokoknya yang
    ingin diketahui orang-orang.
  • 19:22 - 19:26
    Tentunya, Jack, Anda dibatasi, di tingkat
    yang sangat besar,
  • 19:26 - 19:28
    oleh fakta bahwa Twitter
    adalah perusahaan publik,
  • 19:28 - 19:30
    ada investor yang menekan Anda,
  • 19:30 - 19:33
    cara nomor satu untuk menghasilkan uang
    adalah dari iklan --
  • 19:33 - 19:36
    itu tergantung perjanjian pengguna.
  • 19:36 - 19:41
    Apakah Anda rela mengorbankan waktu
    pengguna, jika diperlukan,
  • 19:41 - 19:45
    untuk memperoleh
    percakapan yang reflektif?
  • 19:45 - 19:48
    Yah; lebih relevan berarti lebih
    sedikit waktu untuk layanan,
  • 19:48 - 19:50
    dan itu tidak apa-apa,
  • 19:50 - 19:53
    sebab kami ingin memastikan bahwa Anda
    datang ke Twitter
  • 19:53 - 19:57
    dan Anda langsung melihat sesuatu yang
    bisa dipelajari dan Anda mendorongnya.
  • 19:57 - 20:01
    Kami masih bisa menampilkan iklan
    melawannya.
  • 20:01 - 20:04
    Bukan berarti Anda harus menyediakan waktu
    lagi untuk melihat lebih.
  • 20:04 - 20:05
    Hal kedua yang kami lihat --
  • 20:05 - 20:08
    Tapi -- tujuan itu,
    penggunaan aktif harian,
  • 20:08 - 20:11
    jika Anda mengukurnya, bukan berarti
    hal yang
  • 20:11 - 20:13
    dihargai orang setiap harinya.
  • 20:13 - 20:14
    Mungkin bisa berarti
  • 20:14 - 20:18
    hal yang menarik orang-orang seperti
    ngengat tertarik pada api, setiap hari.
  • 20:18 - 20:21
    Kita ketagihan karena kita melihat sesuatu
    yang menjengkelkan kita,
  • 20:21 - 20:24
    jadi kita masuk dan
    menyiram minyak ke api,
  • 20:24 - 20:26
    dan penggunaan aktif harian meningkat,
  • 20:26 - 20:28
    dan ada penerimaan iklan yang lebih,
  • 20:28 - 20:30
    tapi kita menjadi lebih marah pada satu
    sama lain.
  • 20:30 - 20:33
    Bagaimana Anda mendefinisikan ...
  • 20:33 - 20:37
    "penggunaan aktif harian" terlihat seperti
    istilah berbahaya untuk dioptimalisasi.
  • 20:37 - 20:42
    (Tepuk tangan)
  • 20:42 - 20:43
    Berdiri sendiri, iya
  • 20:43 - 20:46
    tapi Anda tidak membiarkan saya
    menyelesaikan,
  • 20:46 - 20:50
    yaitu kita memperhatikan percakapan
  • 20:50 - 20:52
    dan rantai percakapan.
  • 20:52 - 20:57
    Jadi kami ingin mendorong kontribusi yang
    sehat kembali ke dalam jaringan,
  • 20:57 - 21:01
    dan yang kami yakini adalah ikut serta
    dalam percakapan
  • 21:01 - 21:02
    yang sehat,
  • 21:02 - 21:07
    sesuai yang didefinisikan oleh empat
    indikator yang saya sebutkan di awal.
  • 21:07 - 21:10
    Jadi Anda tidak bisa hanya mengoptimalkan
    di satu metrik.
  • 21:10 - 21:13
    Anda harus menyeimbangkan dan melihat
    secara konstan
  • 21:13 - 21:17
    pada apa yang akan menghasilkan konrtibusi
    yang sehat untuk jaringan
  • 21:17 - 21:19
    dan pengalaman yang
    sehat bagi banyak orang.
  • 21:19 - 21:21
    Akhirnya, kami ingin mendapatkan metrik
  • 21:21 - 21:25
    di mana orang bisa mengatakan pada kami
    "Hei, saya belajar sesuatu dari Twitter,
  • 21:25 - 21:27
    dan saya pergi dengan hal yang berharga."
  • 21:27 - 21:29
    Itulah tujuan pokok kami,
  • 21:29 - 21:31
    tapi akan butuh waktu.
  • 21:31 - 21:36
    Anda dilihat banyak orang,
    menurut saya terutama, sebagai misteri.
  • 21:36 - 21:41
    Mungkin ini tidak adil, tapi saya
    terbangun di suatu malam
  • 21:41 - 21:45
    dengan gambaran bagaimana saya sedang
    berpikir tentang Anda dan situasi ini,
  • 21:45 - 21:52
    bahwa kita sedang berada dalam perjalanan
    di atas kapal bernama "Twittanic" --
  • 21:52 - 21:53
    (tertawa)
  • 21:53 - 21:57
    dan ada orang-orang di geladak
  • 21:57 - 22:00
    yang menyatakan ketidaknyamanan,
  • 22:00 - 22:02
    dan Anda, tidak seperti
    banyak kapten lainnya,
  • 22:02 - 22:06
    berkata, "Nah, bicaralah pada saya,
    dengarkan saya, saya ingin dengar."
  • 22:06 - 22:09
    Dan mereka bicara dan kata mereka, "Kami
    khawatir dengan gunung es di depan."
  • 22:09 - 22:11
    Dan Anda jawab, "Anda tahu,
    itu poin yang kuat,
  • 22:11 - 22:14
    dan kapal kita, sejujurnya, belum dibangun
    dengan benar
  • 22:14 - 22:16
    untuk dikemudikan sebaik seharusnya."
  • 22:16 - 22:18
    Dan kata kami,
    "Tolong lakukan sesuatu."
  • 22:18 - 22:19
    Dan Anda pergi ke anjungan,
  • 22:19 - 22:21
    dan kami menunggu,
  • 22:21 - 22:26
    dan kami melihat dan kemudian Anda
    menunjukkan ketenangan luar biasa,
  • 22:26 - 22:30
    tapi kita semua berdiri di luar, berkata,
    "Jack, putar setirnya!"
  • 22:30 - 22:31
    Anda tahu?
  • 22:31 - 22:32
    (Tertawa)
  • 22:32 - 22:34
    (Tepuk tangan)
  • 22:34 - 22:36
    Maksud saya --
  • 22:36 - 22:37
    (Tepuk tangan)
  • 22:37 - 22:42
    Demokrasi jadi taruhan.
  • 22:42 - 22:45
    Kebudayaan kita jadi taruhan.
    Dunia kita jadi taruhan.
  • 22:45 - 22:50
    Dan Twitter amat mengagumkan dan
    membentuk begitu banyak.
  • 22:50 - 22:52
    Ini tidak sebesar wadah yang lain,
  • 22:52 - 22:55
    tapi orang-orang yang berpengaruh
    menggunakannya untuk membuat agenda,
  • 22:55 - 23:01
    dan sungguh sulit membayangkan peran
    yang lebih penting di dunia daripada ...
  • 23:02 - 23:05
    maksud saya, Anda melakukan hal hebat
    dalam mendengarkan, Jack dan mendengar,
  • 23:05 - 23:10
    tapi untuk benar-benar memahami
    kegawatannya dan bertindak --
  • 23:10 - 23:12
    akankah Anda melakukannya?
  • 23:13 - 23:17
    Ya, dan kami sudah bergerak
    secara substansial.
  • 23:17 - 23:20
    Maksud saya, ada bebeapa dinamika
    dalam sejarah Twitter.
  • 23:20 - 23:22
    Satu, saat saya kembali ke perusahaan,
  • 23:23 - 23:30
    kami sedang dalam situasi yang buruk
    mengenai masa depan perusahaan,
  • 23:30 - 23:34
    dan bukan hanya bagaimana orang
    menggunakan wadah ini,
  • 23:34 - 23:36
    tapi juga dari sisi perusahaan.
  • 23:36 - 23:40
    Jadi kami harus memperbaiki
    beberapa dasar,
  • 23:40 - 23:42
    membalik perusahaan,
  • 23:42 - 23:45
    melewati dua kali rangkaian PHK,
  • 23:45 - 23:49
    karena kami menjadi terlalu besar untuk
    apa yang kami lakukan,
  • 23:49 - 23:51
    dan kami memusatkan seluruh energi
  • 23:51 - 23:54
    untuk konsep melayani
    percakapan publik ini.
  • 23:54 - 23:56
    Dan itu membutuhkan usaha.
  • 23:56 - 23:58
    Dan sementara kami mengerjakannya,
  • 23:58 - 24:01
    kami menyadari beberapa isu
    tentang hal-hal fundamental.
  • 24:02 - 24:07
    Kami bisa melakukan banyak hal dangkal
    untuk mengangkat pembicaraan orang,
  • 24:07 - 24:09
    tapi kami butuh perubahan untuk bertahan
  • 24:09 - 24:11
    dan itu artinya masuk ke dalam sekali
  • 24:11 - 24:15
    dan memperhatikan pada apa yang kami
    mulai 13 tahun lalu
  • 24:15 - 24:18
    dan benar-benar mempertanyakan
  • 24:18 - 24:20
    bagaiman cara kerja sistem dan
    cara kerja susunan
  • 24:20 - 24:24
    dan apa yang dibutuhkan
    oleh dunia saat ini,
  • 24:24 - 24:28
    dilihat dari cepatnya semua bergerak dan
    bagaimana orang-orang menggunakannya.
  • 24:28 - 24:35
    Jadi kami bekerja secepat yang kami bisa
    tapi cepat tidak menyelesaikan masalah.
  • 24:35 - 24:37
    Dibutuhkan fokus, prioritas,
  • 24:37 - 24:40
    memahami hal mendasar dari jaringan
  • 24:40 - 24:43
    dan membangun rangka yang mengukur
  • 24:43 - 24:46
    dan yang bertahan terhadap perubahan,
  • 24:46 - 24:51
    dan terbuka tentang di mana kita dan
    transparan tentang di mana kita
  • 24:51 - 24:53
    agar kita bisa terus
    memperoleh kepercayaan.
  • 24:54 - 24:57
    Jadi saya bangga dengan semua rangka
    yang kami letakkan.
  • 24:57 - 25:00
    Saya bangga dengan tujuan kami.
  • 25:01 - 25:04
    Sudah tentu kami bisa
    bergerak lebih cepat,
  • 25:04 - 25:08
    tapi perlu menghentikan banyak hal bodoh
    yang kita lakukan di masa lalu.
  • 25:09 - 25:10
    Baiklah.
  • 25:10 - 25:14
    Saya kira ada banyak orang di sini yang
    jika diberi kesempatan,
  • 25:14 - 25:18
    akan senang membantu Anda dalam
    agenda membuat perubahan Anda,
  • 25:18 - 25:20
    dan saya tidak tahu apakah Whitney --
  • 25:20 - 25:23
    Jack, terima kasih sudah datang ke sini
    dan berbicara dengan terbuka
  • 25:23 - 25:24
    Membutuhkan keberanian.
  • 25:24 - 25:28
    Saya sangat menghargai yang Anda katakan,
    dan semoga beruntung dengan misi Anda.
  • 25:28 - 25:31
    Terima kasih banyak.
    Terima kasih sudah menerima saya.
  • 25:31 - 25:33
    (Tepuk tangan)
  • 25:33 - 25:34
    Terima kasih.
Title:
Bagaimana Twitter harus berubah
Speaker:
Jack Dorsey
Description:

Bisakah Twitter diselamatkan? Dalam percakapan panjang dengan Chris Anderson dan Whitney Pennington Rodgers dari TED, direktur pelaksana Twitter Jack Dorsey mendiskusikan masa depan wadah ini -- mengakui permasalahan yang ada terkait pelecehan dan moderasi, dan mengajukan beberapa perubahan fundamental yang ia harapkan akan mendorong percakapan yang sehat dan saling menghormati. "Apakah kita benar-benar menghasilkan sesuatu yang dihargai orang-orang setiap harinya?" tanya Dorsey.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47

Indonesian subtitles

Revisions