Ini cara Facebook menghancurkan demokrasi
-
0:01 - 0:03Sekitar lima tahun yang lalu,
-
0:03 - 0:05Saya menyadari saya sudah tidak bisa
-
0:05 - 0:08berhubungan dengan orang lain
yang tidak sepemikiran. -
0:09 - 0:13Ide untuk membahas isu-isu panas
bersama rekan Amerika saya -
0:13 - 0:15mulai terasa lebih tidak nyaman
-
0:15 - 0:19dibandingkan saat menghadapi
tersangka teroris di luar negeri. -
0:20 - 0:23Ini membuat saya merasa
semakin sakit hati dan frustasi. -
0:23 - 0:25Dan karena itu,
-
0:25 - 0:27saya mengalihkan seluruh fokus saya
-
0:27 - 0:29dari ancaman keamanan global
-
0:29 - 0:32untuk memahami apa yang
menyebabkan dorongan -
0:32 - 0:36ke arah polarisasi ekstrem di tanah air.
-
0:36 - 0:38Sebagai mantan pegawai CIA dan diplomat
-
0:38 - 0:41yang bertahun-tahun bekerja
menanggulangi ekstremisme, -
0:41 - 0:45saya mulai khawatir ini akan menjadi
ancaman yang lebih besar ke demokrasi kita -
0:45 - 0:48daripada musuh asing mana pun.
-
0:48 - 0:50Jadi, saya mulai menyelidikinya,
-
0:50 - 0:51dan mulai menyuarakannya,
-
0:51 - 0:54hingga akhirnya,
saya direkrut Facebook -
0:54 - 0:57dan akhirnya membawa
saya ke sini hari ini -
0:57 - 1:00untuk terus memperingatkan Anda
tentang cara platform ini -
1:00 - 1:04memanipulasi dan meradikalisasi kita
-
1:04 - 1:07dan membahas cara
untuk merebut kembali ruang publik kita. -
1:08 - 1:10Saya dulu petugas luar negeri di Kenya,
-
1:10 - 1:13hanya beberapa tahun setelah
serangan 11 September, -
1:13 - 1:15dan saya memimpin
kampanye "hati dan pikiran" -
1:15 - 1:17di sepanjang perbatasan Somalia.
-
1:17 - 1:21Pekerjaan saya adalah untuk
membangun kepercayaan masyarakat -
1:21 - 1:23yang dianggap paling rentan
terhadap pesan ekstremis. -
1:24 - 1:28Saya berjam-jam minum teh dengan
tokoh anti-barat yang blak-blakan -
1:28 - 1:32dan bahkan berdialog dengan
beberapa tersangka teroris, -
1:32 - 1:35dan meski kebanyakan ini
berawal dari saling curiga, -
1:35 - 1:39saya tidak ingat ada
yang mengakibatkan teriakan atau hinaan, -
1:39 - 1:43dan beberapa kali, kami bekerja sama
di area yang sama-sama menarik. -
1:44 - 1:48Alat paling ampuh yang kami miliki
adalah menyimak, mempelajari, -
1:48 - 1:50dan membangun empati.
-
1:50 - 1:53Ini adalah inti dari pekerjaan
"hati dan pikiran," -
1:53 - 1:56karena yang selalu saya temukan
adalah orang-orang -
1:56 - 2:00ingin merasa didengar,
diakui, dan dihormati. -
2:00 - 2:03Dan saya percaya
itu adalah keinginan kita semua. -
2:03 - 2:06Jadi, kejadian di internet saat ini
sangat memilukan -
2:06 - 2:08dan masalahnya sangat sulit diatasi.
-
2:09 - 2:13Kita sedang dimanipulasi
oleh ekosistem informasi saat ini -
2:13 - 2:16yang membawa kebanyakan dari kita
menuju absolutisme -
2:16 - 2:19sehingga kompromi
telah menjadi kata kotor. -
2:20 - 2:21Karena kini,
-
2:21 - 2:23perusahaan sosial media seperti Facebook
-
2:23 - 2:27meraup untung dari memecah
dan memberi kita konten khusus -
2:27 - 2:31yang mengakui
dan mengeksploitasi bias kita. -
2:31 - 2:34Inti bisnis mereka
adalah memprovokasi emosi kuat kita -
2:34 - 2:36untuk menarik perhatian kita,
-
2:36 - 2:40seringnya mengedepankan
opini yang paling menghasut dan radikal, -
2:40 - 2:45sampai ke titik
di mana mufakat terasa mustahil. -
2:45 - 2:49Dan meskipun banyak orang
menginginkan platformnya berubah, -
2:49 - 2:52sudah jelas
bahwa mereka akan diam saja. -
2:52 - 2:55Jadi, pemerintah harus
memperjelas tanggung jawab -
2:55 - 2:59terhadap dampak negatif
dari bisnis model seperti ini, -
2:59 - 3:02dan memberikan sanksi
atas kerusakan yang disebabkan -
3:02 - 3:07terhadap kesehatan masyarakat,
ruang publik, dan demokrasi kita. -
3:07 - 3:12Sayangnya, hal ini tidak mungkin terjadi
sebelum pemilu presiden AS. -
3:12 - 3:15Jadi, saya akan
terus mengingatkan ini, -
3:15 - 3:18karena, meskipun nanti
kami punya peraturan yang jelas -
3:18 - 3:20kita semua tetap harus membantu.
-
3:21 - 3:24Saat saya berpaling
dari ancaman luar negeri -
3:24 - 3:26ke kacaunya diskusi publik di tanah air,
-
3:26 - 3:30saya berpikir, bisakah kami
mengubah kampanye "hati dan pikiran" -
3:30 - 3:32untuk menyatukan kita kembali.
-
3:32 - 3:36Eksperimen kami selama 200 tahun
dengan demokrasi berhasil -
3:36 - 3:41karena kami bisa bermusyawarah
dengan semangat dan terbuka -
3:41 - 3:43untuk mendapatkan solusi yang terbaik.
-
3:43 - 3:45Meskipun saya masih percaya
-
3:45 - 3:47kekuatan dari pengaruh
diskusi publik tatap muka, -
3:47 - 3:49tetap saja ini akan kalah
-
3:49 - 3:53dengan pengaruh sosial media
yang begitu besar dan radikal. -
3:53 - 3:55Orang-orang yang sudah terperangkap
-
3:55 - 3:56dalam huru-hara sosial media
-
3:56 - 4:00biasanya lebih kesulitan
untuk keluar dari mindset radikal -
4:00 - 4:03dibandingkan orang-orang di wilayah rentan
yang dulu saya kunjungi. -
4:04 - 4:06Jadi, saat Facebook menghubungi saya
pada 2018 -
4:06 - 4:07dan menawarkan pekerjaan
-
4:07 - 4:11sebagai kepala operasi integritas pemilu
untuk iklan kampanye, -
4:11 - 4:13saya merasa harus menerimanya.
-
4:13 - 4:16Saya tahu saya tidak dapat
membenahi semuanya -
4:16 - 4:18tapi ketika saya diberi kesempatan
-
4:18 - 4:20untuk ikut mengatur haluan,
-
4:20 - 4:21paling tidak saya harus mencoba.
-
4:23 - 4:25Saya tidak melawan polarisasi
secara langsung, -
4:25 - 4:29tapi saya mencari isu apa yang paling
memecah belah masyarakat, -
4:29 - 4:33maka paling bisa dieksploitasi
dalam usaha mengganggu pemilu, -
4:33 - 4:36yaitu taktik Rusia menjelang tahun 2016.
-
4:37 - 4:39Saya mulai dengan beberapa pertanyaan.
-
4:39 - 4:42Saya ingin memahami isu-isu sistemik dasar
-
4:42 - 4:44yang menjadi akar permasalahan semua ini
-
4:44 - 4:46agar saya bisa menyelesaikannya.
-
4:48 - 4:50Saya yakin akan dampak baik internet
-
4:50 - 4:53dalam menyuarakan
suara lebih banyak orang. -
4:53 - 4:56Meskipun tujuannya
adalah membangun komunitas, -
4:56 - 4:59korporasi sosial media besar
yang ada saat ini -
4:59 - 5:03tidak dibangun di atas
konsep diskusi publik yang wajar. -
5:03 - 5:05Saling mendengarkan,
-
5:05 - 5:07saling berdebat,
-
5:07 - 5:11dan saling bertanya
tidak akan mungkin didorong -
5:11 - 5:14oleh bisnis yang kesuksesannya
ditentukan oleh -
5:14 - 5:17ketertarikan publik dan jumlah pengguna.
-
5:17 - 5:21Tidak ada insentif bagi mereka
untuk menenangkan pembaca, -
5:21 - 5:24untuk memperlambat,
sehingga pembaca dapat berhenti sejenak, -
5:24 - 5:27menyadari reaksi emosional mereka
terhadap sesuatu, -
5:27 - 5:30dan mempertanyakan asumsi mereka
sebelum ikut berdiskusi. -
5:31 - 5:33Sayangnya, kenyataannya:
-
5:33 - 5:36dusta lebih manis dibanding fakta,
-
5:36 - 5:39dan gosip panas lebih menarik
dibandingkan fakta -
5:39 - 5:42di dalam dunia
yang memupuk ketenaran semata. -
5:43 - 5:47Selama algoritmenya dirancang
untuk terus memancing perhatian kita, -
5:47 - 5:51mereka akan terus memberi racun
yang mengeksploitasi insting terburuk kita -
5:51 - 5:52dan kelemahan manusiawi kita.
-
5:53 - 5:56Dan juga, amarah, keraguan,
-
5:56 - 5:58budaya ketakutan dan kebencian,
-
5:58 - 6:01semua ini bukan hal baru di Amerika.
-
6:01 - 6:04Tapi beberapa tahun ini,
media sosial sudah memanfaatkan semua itu -
6:04 - 6:08dan, setahu saya,
sudah membalik keadaan secara drastis. -
6:08 - 6:10Dan Facebook menyadari hal ini.
-
6:10 - 6:12Barusan, artikel Wall Street Journal
-
6:12 - 6:16mengekspos sebuah
presentasi internal Facebook pada 2018 -
6:16 - 6:20yang menunjukkan bahwa
algoritme perusahaan mereka -
6:20 - 6:23mendukung pertambahan
grup ekstremis di platform mereka -
6:23 - 6:26dan meradikalisasi pengguna mereka.
-
6:27 - 6:30Tetapi, mereka meraup keuntungan
dengan terus memancing perhatian kita. -
6:30 - 6:35Dalam ekosistem informasi masa kini,
jantungnya adalah melakukan profiling, -
6:35 - 6:38lalu membagi-bagi kita
ke dalam banyak kategori kecil -
6:38 - 6:41untuk menyempurnakan
proses personalisasi ini. -
6:41 - 6:45Kita lalu dihujani dengan informasi
yang meyakinkan pandangan kita, -
6:45 - 6:47memperkuat bias kita,
-
6:47 - 6:50dan membuat kita merasa
menjadi bagian dari sesuatu. -
6:50 - 6:54Ini taktik yang juga digunakan
oleh perekrut teroris -
6:54 - 6:56yang memanfaatkan pemuda yang rentan,
-
6:56 - 7:00walau secara lokal dan kecil-kecilan
sebelum media sosial, -
7:00 - 7:03agar akhirnya mereka dapat dibujuk
untuk ikut beraksi. -
7:03 - 7:08Sayangnya, saya tidak didukung Facebook
untuk memberikan dampak nyata. -
7:08 - 7:12Bahkan, di hari kedua saya bekerja,
jabatan dan uraian tugas saya diganti, -
7:12 - 7:15dan saya dikeluarkan
dari rapat-rapat penting. -
7:15 - 7:16Kerja keras saya,
-
7:16 - 7:18rencana yang saya susun
-
7:18 - 7:21untuk melawan disinformasi
dan penindasan pemilih di iklan kampanye -
7:22 - 7:23ditolak.
-
7:23 - 7:26Jadi, saya hanya bertahan
kurang dari enam bulan. -
7:26 - 7:30Tetapi, ini pelajaran yang saya dapatkan
setelah bekerja di sana. -
7:30 - 7:32Ada ribuan orang di Facebook
-
7:32 - 7:34yang sangat antusias mengerjakan
-
7:34 - 7:38sebuah produk yang mereka yakini
membuat dunia ini lebih baik, -
7:38 - 7:42tetapi selama korporasi tersebut
terus melakukan seadanya -
7:42 - 7:44dalam kebijakan konten dan moderasi,
-
7:44 - 7:46alih-alih membenahi
-
7:46 - 7:49desain dan monetisasi
dari keseluruhan sistem, -
7:49 - 7:52mereka tidak akan betul-betul menangani
dampak dari platform mereka -
7:52 - 7:57yang menyebarkan kebencian, perpecahan,
dan radikalisasi. -
7:57 - 8:01Inilah perbincangan yang tidak pernah
saya dengar saat saya di sana, -
8:01 - 8:04karena mereka harus
terlebih dahulu menerima -
8:04 - 8:08bahwa karya mereka
mungkin tidak selalu berdampak baik -
8:08 - 8:12dan juga berani merombak
seluruh produk dan profit model mereka. -
8:12 - 8:14Jadi, apa yang bisa kita lakukan?
-
8:15 - 8:19Saya tidak mengatakan
bahwa hanya media sosial saja -
8:19 - 8:21yang bersalah atas situasi kita saat ini.
-
8:21 - 8:26Jelas, ada masalah sosial yang mengakar
yang harus sama-sama kita pecahkan. -
8:26 - 8:30Namun, pernyataan dari Facebook,
bahwa semua ini hanya cerminan masyarakat, -
8:30 - 8:33hanyalah alasan mereka
untuk lari dari tanggung jawab -
8:34 - 8:38terhadap platform mereka
yang menyebarluaskan konten berbahaya -
8:38 - 8:41dan mendorong beberapa pengguna
terhadap ekstremisme. -
8:42 - 8:44Dan Facebook bisa, kalau mereka mau,
-
8:44 - 8:46memperbaiki beberapa masalah ini.
-
8:46 - 8:50Mereka bisa berhenti menyebarkan
dan merekomendasikan teori konspirasi, -
8:50 - 8:53kelompok kebencian,
penyebar disinformasi -
8:53 - 8:57dan ya, dalam beberapa kasus
bahkan presiden kita sendiri. -
8:57 - 9:00Mereka bisa berhenti
menyampaikan retorika politik -
9:00 - 9:04menggunakan taktik personalisasi
yang digunakan untuk menjual sepatu. -
9:04 - 9:06Algoritme mereka bisa dilatih ulang
-
9:06 - 9:08agar tidak fokus memancing perhatian,
-
9:08 - 9:13dan mereka bisa membuat haluan untuk
mencegah konten tertentu menjadi viral -
9:13 - 9:14sebelum diulas.
-
9:15 - 9:17Mereka bisa melakukan semua ini
-
9:17 - 9:21tanpa menjadi apa yang mereka sebut
sebagai sang penentu kebenaran. -
9:21 - 9:24Tetapi mereka sudah terus terang
tidak akan berupaya besar -
9:24 - 9:27untuk melakukan hal benar
tanpa dipaksa terlebih dulu, -
9:27 - 9:30ya, karena, untuk apa?
-
9:30 - 9:34Pasar akan terus mendukung,
dan mereka tidak melanggar hukum. -
9:34 - 9:35Karena situasinya saat ini,
-
9:35 - 9:40tidak ada ketentuan di AS yang mewajibkan
Facebook, atau media sosial lainnya, -
9:40 - 9:42untuk melindungi ruang publik kita,
-
9:42 - 9:43demokrasi kita,
-
9:43 - 9:46dan bahkan pemilu kita.
-
9:46 - 9:50Kita sudah menyerahkan kendali
atas keputusan peraturannya -
9:50 - 9:53kepada para CEO perusahaan profit.
-
9:54 - 9:56Apakah ini yang kita mau?
-
9:56 - 9:59dunia paska-kebenaran
di mana toksisitas dan tribalisme -
9:59 - 10:02berjaya atas pengertian dan musyawarah?
-
10:03 - 10:07Saya masih optimis kita memiliki
lebih banyak persamaan di antara kita -
10:07 - 10:10daripada yang media dan internet
saat ini tunjukkan, -
10:10 - 10:14dan saya percaya memberikan ruang
untuk berbagai perspektif -
10:14 - 10:17akan membuat demokrasi kita
menjadi lebih kuat dan inklusif. -
10:17 - 10:20Tapi, keadaan saat ini
tidak mengarah ke sana. -
10:20 - 10:24Dan perlu digarisbawahi, saya bukan ingin
perusahaan-perusahaan ini ditutup. -
10:24 - 10:28Saya hanya ingin mereka memegang
tanggung jawab yang sepadan, -
10:28 - 10:30sama seperti yang masyarakat pegang.
-
10:31 - 10:35Sudah seharusnya pemerintah
maju dan melakukan pekerjaan mereka, -
10:35 - 10:37yaitu melindungi rakyat.
-
10:37 - 10:40Dan meskipun tidak mungkin
ada satu undang-undang ajaib -
10:40 - 10:41yang dapat memperbaiki semuanya,
-
10:41 - 10:46saya percaya pemerintah
bisa dan harus menemukan keseimbangan -
10:46 - 10:48antara menjaga kebebasan berpendapat
-
10:48 - 10:52dan menjaga tanggung jawab para platform
atas dampaknya terhadap masyarakat. -
10:52 - 10:57Mereka dapat menegakkannya dengan
menuntut transparansi -
10:57 - 11:00mengenai bagaimana proses sistem
rekomendasi mereka, -
11:00 - 11:05melakukan penilaian, amplifikasi,
dan penargetan konten. -
11:05 - 11:07Saya berharap
para korporasi bertanggung jawab, -
11:07 - 11:10bukan atas satu individu
yang menyebar misinformasi -
11:10 - 11:12atau retorik ekstrem,
-
11:12 - 11:15tetapi atas bagaimana
sistem rekomendasi mereka menyebarkannya, -
11:16 - 11:19bagaimana algoritme mereka
menggiring banyak orang, -
11:19 - 11:23dan bagaimana peranti mereka
menargetkan pengguna. -
11:23 - 11:27Saya sudah berusaha mengubahnya
dari dalam Facebook, dan saya gagal, -
11:27 - 11:30jadi sekarang saya bersuara lagi
-
11:30 - 11:33untuk terus menyadarkan semua orang
-
11:33 - 11:37sehingga semoga semakin banyak yang
menuntut pertanggungjawaban ini. -
11:37 - 11:40Pesan saya simpel:
-
11:40 - 11:42desak anggota perwakilan rakyat Anda
-
11:42 - 11:47untuk maju agar ruang publik kita jangan
diserahkan untuk kepentingan perusahaan. -
11:47 - 11:49Bantu edukasi teman dan keluarga Anda
-
11:49 - 11:52tentang bagaimana mereka
dimanipulasi di situs daring. -
11:52 - 11:56Dorong diri Anda untuk berhubungan
dengan orang yang tidak sepemikiran. -
11:56 - 11:59Prioritaskan isu ini.
-
11:59 - 12:02Kita perlu kontribusi dari masyarakat luas
untuk memperbaiki hal ini. -
12:03 - 12:09Dan pesan saya kepada para pimpinan
dan mantan rekan saya di Facebook adalah: -
12:09 - 12:15saat ini, banyak pihak memanfaatkan
alat kalian sesuai dengan rancangannya -
12:15 - 12:17untuk menabur kebencian, perpecahan,
dan kecurigaan, -
12:17 - 12:21dan kalian bukan sekedar membiarkannya,
kalian memungkinkannya. -
12:21 - 12:24Dan ya, ada banyak cerita hebat
-
12:24 - 12:28tentang hal-hal positif yang terjadi
di platform kalian di seluruh dunia. -
12:28 - 12:31Namun, bukan berarti semuanya
aman-aman saja. -
12:31 - 12:34Keadaan justru akan semakin memburuk
dengan pemilu mendatang, -
12:34 - 12:36dan yang lebih mengkhawatirkan,
-
12:36 - 12:38yaitu potensi krisis paling besar
sejauh ini, -
12:38 - 12:42jika hasilnya tidak dipercayai publik,
kemudian terjadi kericuhan. -
12:42 - 12:47Jika di tahun 2021 Anda bilang,
"Kita tahu kita harus jadi lebih baik," -
12:47 - 12:50saya ingin Anda mengenang momen ini,
-
12:50 - 12:53karena isu ini bukan diangkat
oleh satu dua orang saja. -
12:53 - 12:56Para pejuang hak sipil, civitas akademika,
-
12:56 - 12:59jurnalis, pemasang iklan,
pegawai kalian sendiri, -
12:59 - 13:01mereka semua terang-terangan mengatakan
-
13:01 - 13:03bahwa kebijakan dan praktik bisnis kalian
-
13:03 - 13:06merusak masyarakat dan demokrasi.
-
13:07 - 13:09Anda tentukan sendiri,
-
13:09 - 13:13tapi jangan bilang kalau
Anda tidak menyangkanya. -
13:14 - 13:15Terima kasih.
- Title:
- Ini cara Facebook menghancurkan demokrasi
- Speaker:
- Yaël Eisenstat
- Description:
-
"Kebohongan lebih menarik di internet daripada kebenaran," menurut mantan analis CIA dan diplomat Yaël Eisenstat. "Selama tujuan algoritma (media sosial) untuk membuat kita tetap terikat, mereka akan memberi kita racun yang memainkan ke insting terburuk dan kelemahan manusia." Di ceramah yang mencolok ini, Eisenstat mengeksplorasi bagaimana perusahaan media sosial seperti Facebook memberi insentif konten yang menghasut, berkontribusi ke budaya polarisasi politik dan ketidakpercayaan -- dan meminta pemerintah untuk membuat platform ini bertanggungjawab untuk melindungi diskursus sipil dan demokrasi.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Ade Indarta approved Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Nathaniel Luis Reyhan Soesilo accepted Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Nathaniel Luis Reyhan Soesilo edited Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Nathaniel Luis Reyhan Soesilo edited Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Priscilla Joanne edited Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Priscilla Joanne edited Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Priscilla Joanne edited Indonesian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Priscilla Joanne edited Indonesian subtitles for Dear Facebook, this is how you're breaking democracy |