Return to Video

Ini cara Facebook menghancurkan demokrasi

  • 0:01 - 0:03
    Sekitar lima tahun yang lalu,
  • 0:03 - 0:05
    Saya menyadari saya sudah tidak bisa
  • 0:05 - 0:08
    berhubungan dengan orang lain
    yang tidak sepemikiran.
  • 0:09 - 0:13
    Ide untuk membahas isu-isu panas
    bersama rekan Amerika saya
  • 0:13 - 0:15
    mulai terasa lebih tidak nyaman
  • 0:15 - 0:19
    dibandingkan saat menghadapi
    tersangka teroris di luar negeri.
  • 0:20 - 0:23
    Ini membuat saya merasa
    semakin sakit hati dan frustasi.
  • 0:23 - 0:25
    Dan karena itu,
  • 0:25 - 0:27
    saya mengalihkan seluruh fokus saya
  • 0:27 - 0:29
    dari ancaman keamanan global
  • 0:29 - 0:32
    untuk memahami apa yang
    menyebabkan dorongan
  • 0:32 - 0:36
    ke arah polarisasi ekstrem di tanah air.
  • 0:36 - 0:38
    Sebagai mantan pegawai CIA dan diplomat
  • 0:38 - 0:41
    yang bertahun-tahun bekerja
    menanggulangi ekstremisme,
  • 0:41 - 0:45
    saya mulai khawatir ini akan menjadi
    ancaman yang lebih besar ke demokrasi kita
  • 0:45 - 0:48
    daripada musuh asing mana pun.
  • 0:48 - 0:50
    Jadi, saya mulai menyelidikinya,
  • 0:50 - 0:51
    dan mulai menyuarakannya,
  • 0:51 - 0:54
    hingga akhirnya,
    saya direkrut Facebook
  • 0:54 - 0:57
    dan akhirnya membawa
    saya ke sini hari ini
  • 0:57 - 1:00
    untuk terus memperingatkan Anda
    tentang cara platform ini
  • 1:00 - 1:04
    memanipulasi dan meradikalisasi kita
  • 1:04 - 1:07
    dan membahas cara
    untuk merebut kembali ruang publik kita.
  • 1:08 - 1:10
    Saya dulu petugas luar negeri di Kenya,
  • 1:10 - 1:13
    hanya beberapa tahun setelah
    serangan 11 September,
  • 1:13 - 1:15
    dan saya memimpin
    kampanye "hati dan pikiran"
  • 1:15 - 1:17
    di sepanjang perbatasan Somalia.
  • 1:17 - 1:21
    Pekerjaan saya adalah untuk
    membangun kepercayaan masyarakat
  • 1:21 - 1:23
    yang dianggap paling rentan
    terhadap pesan ekstremis.
  • 1:24 - 1:28
    Saya berjam-jam minum teh dengan
    tokoh anti-barat yang blak-blakan
  • 1:28 - 1:32
    dan bahkan berdialog dengan
    beberapa tersangka teroris,
  • 1:32 - 1:35
    dan meski kebanyakan ini
    berawal dari saling curiga,
  • 1:35 - 1:39
    saya tidak ingat ada
    yang mengakibatkan teriakan atau hinaan,
  • 1:39 - 1:43
    dan beberapa kali, kami bekerja sama
    di area yang sama-sama menarik.
  • 1:44 - 1:48
    Alat paling ampuh yang kami miliki
    adalah menyimak, mempelajari,
  • 1:48 - 1:50
    dan membangun empati.
  • 1:50 - 1:53
    Ini adalah inti dari pekerjaan
    "hati dan pikiran,"
  • 1:53 - 1:56
    karena yang selalu saya temukan
    adalah orang-orang
  • 1:56 - 2:00
    ingin merasa didengar,
    diakui, dan dihormati.
  • 2:00 - 2:03
    Dan saya percaya
    itu adalah keinginan kita semua.
  • 2:03 - 2:06
    Jadi, kejadian di internet saat ini
    sangat memilukan
  • 2:06 - 2:08
    dan masalahnya sangat sulit diatasi.
  • 2:09 - 2:13
    Kita sedang dimanipulasi
    oleh ekosistem informasi saat ini
  • 2:13 - 2:16
    yang membawa kebanyakan dari kita
    menuju absolutisme
  • 2:16 - 2:19
    sehingga kompromi
    telah menjadi kata kotor.
  • 2:20 - 2:21
    Karena kini,
  • 2:21 - 2:23
    perusahaan sosial media seperti Facebook
  • 2:23 - 2:27
    meraup untung dari memecah
    dan memberi kita konten khusus
  • 2:27 - 2:31
    yang mengakui
    dan mengeksploitasi bias kita.
  • 2:31 - 2:34
    Inti bisnis mereka
    adalah memprovokasi emosi kuat kita
  • 2:34 - 2:36
    untuk menarik perhatian kita,
  • 2:36 - 2:40
    seringnya mengedepankan
    opini yang paling menghasut dan radikal,
  • 2:40 - 2:45
    sampai ke titik
    di mana mufakat terasa mustahil.
  • 2:45 - 2:49
    Dan meskipun banyak orang
    menginginkan platformnya berubah,
  • 2:49 - 2:52
    sudah jelas
    bahwa mereka akan diam saja.
  • 2:52 - 2:55
    Jadi, pemerintah harus
    memperjelas tanggung jawab
  • 2:55 - 2:59
    terhadap dampak negatif
    dari bisnis model seperti ini,
  • 2:59 - 3:02
    dan memberikan sanksi
    atas kerusakan yang disebabkan
  • 3:02 - 3:07
    terhadap kesehatan masyarakat,
    ruang publik, dan demokrasi kita.
  • 3:07 - 3:12
    Sayangnya, hal ini tidak mungkin terjadi
    sebelum pemilu presiden AS.
  • 3:12 - 3:15
    Jadi, saya akan
    terus mengingatkan ini,
  • 3:15 - 3:18
    karena, meskipun nanti
    kami punya peraturan yang jelas
  • 3:18 - 3:20
    kita semua tetap harus membantu.
  • 3:21 - 3:24
    Saat saya berpaling
    dari ancaman luar negeri
  • 3:24 - 3:26
    ke kacaunya diskusi publik di tanah air,
  • 3:26 - 3:30
    saya berpikir, bisakah kami
    mengubah kampanye "hati dan pikiran"
  • 3:30 - 3:32
    untuk menyatukan kita kembali.
  • 3:32 - 3:36
    Eksperimen kami selama 200 tahun
    dengan demokrasi berhasil
  • 3:36 - 3:41
    karena kami bisa bermusyawarah
    dengan semangat dan terbuka
  • 3:41 - 3:43
    untuk mendapatkan solusi yang terbaik.
  • 3:43 - 3:45
    Meskipun saya masih percaya
  • 3:45 - 3:47
    kekuatan dari pengaruh
    diskusi publik tatap muka,
  • 3:47 - 3:49
    tetap saja ini akan kalah
  • 3:49 - 3:53
    dengan pengaruh sosial media
    yang begitu besar dan radikal.
  • 3:53 - 3:55
    Orang-orang yang sudah terperangkap
  • 3:55 - 3:56
    dalam huru-hara sosial media
  • 3:56 - 4:00
    biasanya lebih kesulitan
    untuk keluar dari mindset radikal
  • 4:00 - 4:03
    dibandingkan orang-orang di wilayah rentan
    yang dulu saya kunjungi.
  • 4:04 - 4:06
    Jadi, saat Facebook menghubungi saya
    pada 2018
  • 4:06 - 4:07
    dan menawarkan pekerjaan
  • 4:07 - 4:11
    sebagai kepala operasi integritas pemilu
    untuk iklan kampanye,
  • 4:11 - 4:13
    saya merasa harus menerimanya.
  • 4:13 - 4:16
    Saya tahu saya tidak dapat
    membenahi semuanya
  • 4:16 - 4:18
    tapi ketika saya diberi kesempatan
  • 4:18 - 4:20
    untuk ikut mengatur haluan,
  • 4:20 - 4:21
    paling tidak saya harus mencoba.
  • 4:23 - 4:25
    Saya tidak melawan polarisasi
    secara langsung,
  • 4:25 - 4:29
    tapi saya mencari isu apa yang paling
    memecah belah masyarakat,
  • 4:29 - 4:33
    maka paling bisa dieksploitasi
    dalam usaha mengganggu pemilu,
  • 4:33 - 4:36
    yaitu taktik Rusia menjelang tahun 2016.
  • 4:37 - 4:39
    Saya mulai dengan beberapa pertanyaan.
  • 4:39 - 4:42
    Saya ingin memahami isu-isu sistemik dasar
  • 4:42 - 4:44
    yang menjadi akar permasalahan semua ini
  • 4:44 - 4:46
    agar saya bisa menyelesaikannya.
  • 4:48 - 4:50
    Saya yakin akan dampak baik internet
  • 4:50 - 4:53
    dalam menyuarakan
    suara lebih banyak orang.
  • 4:53 - 4:56
    Meskipun tujuannya
    adalah membangun komunitas,
  • 4:56 - 4:59
    korporasi sosial media besar
    yang ada saat ini
  • 4:59 - 5:03
    tidak dibangun di atas
    konsep diskusi publik yang wajar.
  • 5:03 - 5:05
    Saling mendengarkan,
  • 5:05 - 5:07
    saling berdebat,
  • 5:07 - 5:11
    dan saling bertanya
    tidak akan mungkin didorong
  • 5:11 - 5:14
    oleh bisnis yang kesuksesannya
    ditentukan oleh
  • 5:14 - 5:17
    ketertarikan publik dan jumlah pengguna.
  • 5:17 - 5:21
    Tidak ada insentif bagi mereka
    untuk menenangkan pembaca,
  • 5:21 - 5:24
    untuk memperlambat,
    sehingga pembaca dapat berhenti sejenak,
  • 5:24 - 5:27
    menyadari reaksi emosional mereka
    terhadap sesuatu,
  • 5:27 - 5:30
    dan mempertanyakan asumsi mereka
    sebelum ikut berdiskusi.
  • 5:31 - 5:33
    Sayangnya, kenyataannya:
  • 5:33 - 5:36
    dusta lebih manis dibanding fakta,
  • 5:36 - 5:39
    dan gosip panas lebih menarik
    dibandingkan fakta
  • 5:39 - 5:42
    di dalam dunia
    yang memupuk ketenaran semata.
  • 5:43 - 5:47
    Selama algoritmenya dirancang
    untuk terus memancing perhatian kita,
  • 5:47 - 5:51
    mereka akan terus memberi racun
    yang mengeksploitasi insting terburuk kita
  • 5:51 - 5:52
    dan kelemahan manusiawi kita.
  • 5:53 - 5:56
    Dan juga, amarah, keraguan,
  • 5:56 - 5:58
    budaya ketakutan dan kebencian,
  • 5:58 - 6:01
    semua ini bukan hal baru di Amerika.
  • 6:01 - 6:04
    Tapi beberapa tahun ini,
    media sosial sudah memanfaatkan semua itu
  • 6:04 - 6:08
    dan, setahu saya,
    sudah membalik keadaan secara drastis.
  • 6:08 - 6:10
    Dan Facebook menyadari hal ini.
  • 6:10 - 6:12
    Barusan, artikel Wall Street Journal
  • 6:12 - 6:16
    mengekspos sebuah
    presentasi internal Facebook pada 2018
  • 6:16 - 6:20
    yang menunjukkan bahwa
    algoritme perusahaan mereka
  • 6:20 - 6:23
    mendukung pertambahan
    grup ekstremis di platform mereka
  • 6:23 - 6:26
    dan meradikalisasi pengguna mereka.
  • 6:27 - 6:30
    Tetapi, mereka meraup keuntungan
    dengan terus memancing perhatian kita.
  • 6:30 - 6:35
    Dalam ekosistem informasi masa kini,
    jantungnya adalah melakukan profiling,
  • 6:35 - 6:38
    lalu membagi-bagi kita
    ke dalam banyak kategori kecil
  • 6:38 - 6:41
    untuk menyempurnakan
    proses personalisasi ini.
  • 6:41 - 6:45
    Kita lalu dihujani dengan informasi
    yang meyakinkan pandangan kita,
  • 6:45 - 6:47
    memperkuat bias kita,
  • 6:47 - 6:50
    dan membuat kita merasa
    menjadi bagian dari sesuatu.
  • 6:50 - 6:54
    Ini taktik yang juga digunakan
    oleh perekrut teroris
  • 6:54 - 6:56
    yang memanfaatkan pemuda yang rentan,
  • 6:56 - 7:00
    walau secara lokal dan kecil-kecilan
    sebelum media sosial,
  • 7:00 - 7:03
    agar akhirnya mereka dapat dibujuk
    untuk ikut beraksi.
  • 7:03 - 7:08
    Sayangnya, saya tidak didukung Facebook
    untuk memberikan dampak nyata.
  • 7:08 - 7:12
    Bahkan, di hari kedua saya bekerja,
    jabatan dan uraian tugas saya diganti,
  • 7:12 - 7:15
    dan saya dikeluarkan
    dari rapat-rapat penting.
  • 7:15 - 7:16
    Kerja keras saya,
  • 7:16 - 7:18
    rencana yang saya susun
  • 7:18 - 7:21
    untuk melawan disinformasi
    dan penindasan pemilih di iklan kampanye
  • 7:22 - 7:23
    ditolak.
  • 7:23 - 7:26
    Jadi, saya hanya bertahan
    kurang dari enam bulan.
  • 7:26 - 7:30
    Tetapi, ini pelajaran yang saya dapatkan
    setelah bekerja di sana.
  • 7:30 - 7:32
    Ada ribuan orang di Facebook
  • 7:32 - 7:34
    yang sangat antusias mengerjakan
  • 7:34 - 7:38
    sebuah produk yang mereka yakini
    membuat dunia ini lebih baik,
  • 7:38 - 7:42
    tetapi selama korporasi tersebut
    terus melakukan seadanya
  • 7:42 - 7:44
    dalam kebijakan konten dan moderasi,
  • 7:44 - 7:46
    alih-alih membenahi
  • 7:46 - 7:49
    desain dan monetisasi
    dari keseluruhan sistem,
  • 7:49 - 7:52
    mereka tidak akan betul-betul menangani
    dampak dari platform mereka
  • 7:52 - 7:57
    yang menyebarkan kebencian, perpecahan,
    dan radikalisasi.
  • 7:57 - 8:01
    Inilah perbincangan yang tidak pernah
    saya dengar saat saya di sana,
  • 8:01 - 8:04
    karena mereka harus
    terlebih dahulu menerima
  • 8:04 - 8:08
    bahwa karya mereka
    mungkin tidak selalu berdampak baik
  • 8:08 - 8:12
    dan juga berani merombak
    seluruh produk dan profit model mereka.
  • 8:12 - 8:14
    Jadi, apa yang bisa kita lakukan?
  • 8:15 - 8:19
    Saya tidak mengatakan
    bahwa hanya media sosial saja
  • 8:19 - 8:21
    yang bersalah atas situasi kita saat ini.
  • 8:21 - 8:26
    Jelas, ada masalah sosial yang mengakar
    yang harus sama-sama kita pecahkan.
  • 8:26 - 8:30
    Namun, pernyataan dari Facebook,
    bahwa semua ini hanya cerminan masyarakat,
  • 8:30 - 8:33
    hanyalah alasan mereka
    untuk lari dari tanggung jawab
  • 8:34 - 8:38
    terhadap platform mereka
    yang menyebarluaskan konten berbahaya
  • 8:38 - 8:41
    dan mendorong beberapa pengguna
    terhadap ekstremisme.
  • 8:42 - 8:44
    Dan Facebook bisa, kalau mereka mau,
  • 8:44 - 8:46
    memperbaiki beberapa masalah ini.
  • 8:46 - 8:50
    Mereka bisa berhenti menyebarkan
    dan merekomendasikan teori konspirasi,
  • 8:50 - 8:53
    kelompok kebencian,
    penyebar disinformasi
  • 8:53 - 8:57
    dan ya, dalam beberapa kasus
    bahkan presiden kita sendiri.
  • 8:57 - 9:00
    Mereka bisa berhenti
    menyampaikan retorika politik
  • 9:00 - 9:04
    menggunakan taktik personalisasi
    yang digunakan untuk menjual sepatu.
  • 9:04 - 9:06
    Algoritme mereka bisa dilatih ulang
  • 9:06 - 9:08
    agar tidak fokus memancing perhatian,
  • 9:08 - 9:13
    dan mereka bisa membuat haluan untuk
    mencegah konten tertentu menjadi viral
  • 9:13 - 9:14
    sebelum diulas.
  • 9:15 - 9:17
    Mereka bisa melakukan semua ini
  • 9:17 - 9:21
    tanpa menjadi apa yang mereka sebut
    sebagai sang penentu kebenaran.
  • 9:21 - 9:24
    Tetapi mereka sudah terus terang
    tidak akan berupaya besar
  • 9:24 - 9:27
    untuk melakukan hal benar
    tanpa dipaksa terlebih dulu,
  • 9:27 - 9:30
    ya, karena, untuk apa?
  • 9:30 - 9:34
    Pasar akan terus mendukung,
    dan mereka tidak melanggar hukum.
  • 9:34 - 9:35
    Karena situasinya saat ini,
  • 9:35 - 9:40
    tidak ada ketentuan di AS yang mewajibkan
    Facebook, atau media sosial lainnya,
  • 9:40 - 9:42
    untuk melindungi ruang publik kita,
  • 9:42 - 9:43
    demokrasi kita,
  • 9:43 - 9:46
    dan bahkan pemilu kita.
  • 9:46 - 9:50
    Kita sudah menyerahkan kendali
    atas keputusan peraturannya
  • 9:50 - 9:53
    kepada para CEO perusahaan profit.
  • 9:54 - 9:56
    Apakah ini yang kita mau?
  • 9:56 - 9:59
    dunia paska-kebenaran
    di mana toksisitas dan tribalisme
  • 9:59 - 10:02
    berjaya atas pengertian dan musyawarah?
  • 10:03 - 10:07
    Saya masih optimis kita memiliki
    lebih banyak persamaan di antara kita
  • 10:07 - 10:10
    daripada yang media dan internet
    saat ini tunjukkan,
  • 10:10 - 10:14
    dan saya percaya memberikan ruang
    untuk berbagai perspektif
  • 10:14 - 10:17
    akan membuat demokrasi kita
    menjadi lebih kuat dan inklusif.
  • 10:17 - 10:20
    Tapi, keadaan saat ini
    tidak mengarah ke sana.
  • 10:20 - 10:24
    Dan perlu digarisbawahi, saya bukan ingin
    perusahaan-perusahaan ini ditutup.
  • 10:24 - 10:28
    Saya hanya ingin mereka memegang
    tanggung jawab yang sepadan,
  • 10:28 - 10:30
    sama seperti yang masyarakat pegang.
  • 10:31 - 10:35
    Sudah seharusnya pemerintah
    maju dan melakukan pekerjaan mereka,
  • 10:35 - 10:37
    yaitu melindungi rakyat.
  • 10:37 - 10:40
    Dan meskipun tidak mungkin
    ada satu undang-undang ajaib
  • 10:40 - 10:41
    yang dapat memperbaiki semuanya,
  • 10:41 - 10:46
    saya percaya pemerintah
    bisa dan harus menemukan keseimbangan
  • 10:46 - 10:48
    antara menjaga kebebasan berpendapat
  • 10:48 - 10:52
    dan menjaga tanggung jawab para platform
    atas dampaknya terhadap masyarakat.
  • 10:52 - 10:57
    Mereka dapat menegakkannya dengan
    menuntut transparansi
  • 10:57 - 11:00
    mengenai bagaimana proses sistem
    rekomendasi mereka,
  • 11:00 - 11:05
    melakukan penilaian, amplifikasi,
    dan penargetan konten.
  • 11:05 - 11:07
    Saya berharap
    para korporasi bertanggung jawab,
  • 11:07 - 11:10
    bukan atas satu individu
    yang menyebar misinformasi
  • 11:10 - 11:12
    atau retorik ekstrem,
  • 11:12 - 11:15
    tetapi atas bagaimana
    sistem rekomendasi mereka menyebarkannya,
  • 11:16 - 11:19
    bagaimana algoritme mereka
    menggiring banyak orang,
  • 11:19 - 11:23
    dan bagaimana peranti mereka
    menargetkan pengguna.
  • 11:23 - 11:27
    Saya sudah berusaha mengubahnya
    dari dalam Facebook, dan saya gagal,
  • 11:27 - 11:30
    jadi sekarang saya bersuara lagi
  • 11:30 - 11:33
    untuk terus menyadarkan semua orang
  • 11:33 - 11:37
    sehingga semoga semakin banyak yang
    menuntut pertanggungjawaban ini.
  • 11:37 - 11:40
    Pesan saya simpel:
  • 11:40 - 11:42
    desak anggota perwakilan rakyat Anda
  • 11:42 - 11:47
    untuk maju agar ruang publik kita jangan
    diserahkan untuk kepentingan perusahaan.
  • 11:47 - 11:49
    Bantu edukasi teman dan keluarga Anda
  • 11:49 - 11:52
    tentang bagaimana mereka
    dimanipulasi di situs daring.
  • 11:52 - 11:56
    Dorong diri Anda untuk berhubungan
    dengan orang yang tidak sepemikiran.
  • 11:56 - 11:59
    Prioritaskan isu ini.
  • 11:59 - 12:02
    Kita perlu kontribusi dari masyarakat luas
    untuk memperbaiki hal ini.
  • 12:03 - 12:09
    Dan pesan saya kepada para pimpinan
    dan mantan rekan saya di Facebook adalah:
  • 12:09 - 12:15
    saat ini, banyak pihak memanfaatkan
    alat kalian sesuai dengan rancangannya
  • 12:15 - 12:17
    untuk menabur kebencian, perpecahan,
    dan kecurigaan,
  • 12:17 - 12:21
    dan kalian bukan sekedar membiarkannya,
    kalian memungkinkannya.
  • 12:21 - 12:24
    Dan ya, ada banyak cerita hebat
  • 12:24 - 12:28
    tentang hal-hal positif yang terjadi
    di platform kalian di seluruh dunia.
  • 12:28 - 12:31
    Namun, bukan berarti semuanya
    aman-aman saja.
  • 12:31 - 12:34
    Keadaan justru akan semakin memburuk
    dengan pemilu mendatang,
  • 12:34 - 12:36
    dan yang lebih mengkhawatirkan,
  • 12:36 - 12:38
    yaitu potensi krisis paling besar
    sejauh ini,
  • 12:38 - 12:42
    jika hasilnya tidak dipercayai publik,
    kemudian terjadi kericuhan.
  • 12:42 - 12:47
    Jika di tahun 2021 Anda bilang,
    "Kita tahu kita harus jadi lebih baik,"
  • 12:47 - 12:50
    saya ingin Anda mengenang momen ini,
  • 12:50 - 12:53
    karena isu ini bukan diangkat
    oleh satu dua orang saja.
  • 12:53 - 12:56
    Para pejuang hak sipil, civitas akademika,
  • 12:56 - 12:59
    jurnalis, pemasang iklan,
    pegawai kalian sendiri,
  • 12:59 - 13:01
    mereka semua terang-terangan mengatakan
  • 13:01 - 13:03
    bahwa kebijakan dan praktik bisnis kalian
  • 13:03 - 13:06
    merusak masyarakat dan demokrasi.
  • 13:07 - 13:09
    Anda tentukan sendiri,
  • 13:09 - 13:13
    tapi jangan bilang kalau
    Anda tidak menyangkanya.
  • 13:14 - 13:15
    Terima kasih.
Title:
Ini cara Facebook menghancurkan demokrasi
Speaker:
Yaël Eisenstat
Description:

"Kebohongan lebih menarik di internet daripada kebenaran," menurut mantan analis CIA dan diplomat Yaël Eisenstat. "Selama tujuan algoritma (media sosial) untuk membuat kita tetap terikat, mereka akan memberi kita racun yang memainkan ke insting terburuk dan kelemahan manusia." Di ceramah yang mencolok ini, Eisenstat mengeksplorasi bagaimana perusahaan media sosial seperti Facebook memberi insentif konten yang menghasut, berkontribusi ke budaya polarisasi politik dan ketidakpercayaan -- dan meminta pemerintah untuk membuat platform ini bertanggungjawab untuk melindungi diskursus sipil dan demokrasi.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Indonesian subtitles

Revisions