Bagaimana kita bisa membantu mengubah internet menjadi tempat kepercayaan
-
0:02 - 0:04Tidak peduli siapa Anda dan di mana Anda
tinggal, -
0:04 - 0:06saya rasa Anda pasti setidaknya
mengenal seseorang -
0:06 - 0:09yang suka meneruskan email-email itu.
-
0:09 - 0:11Anda tahu yang saya bicarakan -
-
0:11 - 0:14surel dengan klaim meragukan
atau video konspirasi. -
0:14 - 0:17Anda mungkin sudah
mendiamkan mereka di Facebook -
0:17 - 0:19karena telah
membagikan pos sosial seperti ini. -
0:19 - 0:21Ini adalah sebuah foto pisang
-
0:21 - 0:23dengan bentuk salib merah yang aneh
di tengah-tengah -
0:23 - 0:26Dan teks di sekelilingnya
memperingatkan orang -
0:26 - 0:28untuk tidak memakan buah seperti ini,
-
0:28 - 0:30menginfokan buah itu
telah disuntik -
0:30 - 0:32darah yang terkontaminasi oleh virus HIV.
-
0:32 - 0:35Dan pesan sosial
di atasnya hanya mengatakan -
0:35 - 0:37"Sebarkan untuk menyelamatkan hidup."
-
0:38 - 0:41Sekarang, pemeriksa fakta telah menyanggah
ini selama bertahun-tahun, -
0:41 - 0:44tapi itu salah satu rumor
yang tidak akan mati. -
0:44 - 0:45Rumor serupa zombie.
-
0:46 - 0:48Dan, tentu saja, itu sepenuhnya salah.
-
0:48 - 0:51Mungkin Anda tergoda menertawakan
contohnya, untuk bilang, -
0:51 - 0:53"Yah, siapa yang akan percaya ini?"
-
0:53 - 0:55Alasan rumor itu menjadi zombie,
-
0:55 - 0:59karena itu menyentuh ketakutan terdalam
orang tentang keamanan mereka sendiri -
0:59 - 1:01dan orang-orang yang mereka cintai.
-
1:02 - 1:05Jika Anda telah sering
melihat informasi yang salah seperti saya, -
1:05 - 1:08Anda tahu bahwa ini hanya
satu dari banyak contoh -
1:08 - 1:11yang menyentuh ketakutan
terdalam dan terentan orang. -
1:11 - 1:16Setiap hari, di seluruh dunia, kita
melihat puluhan meme baru di Instagram -
1:16 - 1:19yang mendorong orang tua untuk
tidak memvaksinasi anak mereka. -
1:19 - 1:23Kita melihat video baru YouTube yang
menjelaskan perubahan iklim ialah tipuan. -
1:23 - 1:28Di seluruh platform, kita melihat banyak
unggahan yang menjelekkan orang lain -
1:28 - 1:31berdasarkan ras, agama atau
seksualitas mereka. -
1:32 - 1:35Selamat datang di salah satu
tantangan penting zaman kita. -
1:36 - 1:40Bagaimana kita bisa mempertahankan
kebebasan berekspresi di internet, -
1:40 - 1:43sambil memastikan
bahwa konten yang disebarluaskan -
1:43 - 1:47tidak menyebabkan kerusakan permanen
pada demokrasi kita, komunitas kita -
1:47 - 1:49serta kesehatan fisik dan mental kita?
-
1:50 - 1:52Karena kita hidup dalam era informasi,
-
1:52 - 1:56namun mata uang pusat yang menyangkut
kehidupan kita semua - informasi - -
1:56 - 1:58tidak lagi dianggap
dapat sepenuhnya dipercaya -
1:58 - 2:00dan, terkdadang dapat
tampak sangat berbahaya. -
2:01 - 2:05Sebagian ini berkat pertumbuhan
cepat dari platform berbagi sosial -
2:05 - 2:06yang memungkinkan kita menelusuri,
-
2:06 - 2:09dimana kebohongan dan fakta
hidup bersisian, -
2:09 - 2:12tetapi tanpa sinyal
tradisional kepercayaan. -
2:12 - 2:16Dan kebaikan - bahasa kita di
sekitar ini sangat kacau. -
2:16 - 2:19Orang-orang masih terobsesi
dengan frasa "berita palsu," -
2:19 - 2:22walaupun itu sangat tidak membantu dan
-
2:22 - 2:25digunakan untuk menjabarkan beberapa
hal yang sebenarnya sangat berbeda: -
2:25 - 2:28kebohongan, rumor, tipuan,
konspirasi, propaganda. -
2:29 - 2:32Dan saya sangat berharap kita
bisa berhenti menggunakan frasa -
2:32 - 2:35yang telah dipahami berbeda
oleh politikus di seluruh dunia, -
2:35 - 2:36dari sayap kiri dan kanan,
-
2:36 - 2:39digunakan sebagai senjata menyerang
pers yang bebas dan independen. -
2:40 - 2:45(Tepuk tangan)
-
2:45 - 2:48sebab kita butuh media berita profesional
lebih dari sebelumnya. -
2:49 - 2:52Dan selain itu, sebagian besar konten
tidak menyamar sebagai berita. -
2:52 - 2:55Mereka berupa meme, video, pos sosial.
-
2:55 - 2:58Dan sebagian besar dari mereka
tidak palsu; justru menyesatkan. -
2:58 - 3:01Kita cenderung terpaku pada apa
yang benar atau salah. -
3:01 - 3:05Tetapi kekhawatiran terbesar sebenarnya
adalah persenjataan konteks. -
3:07 - 3:09
Karena disinformasi paling efektif -
3:09 - 3:12selalu berupa hal yang memiliki inti
kebenaran di dalamnya. -
3:12 - 3:15Mari kita ambil contoh ini dari London,
bulan Maret 2017, -
3:15 - 3:17tweet yang beredar luas
-
3:17 - 3:21setelah insiden teroris di
Jembatan Westminster. -
3:21 - 3:23Ini adalah gambar asli, bukan palsu.
-
3:23 - 3:26Wanita yang muncul di foto
diwawancarai setelah peristiwa itu, -
3:26 - 3:29dan dia menjelaskan bahwa
dia benar-benar trauma. -
3:29 - 3:30Dia menelepon
orang yang dicintai, -
3:30 - 3:33dan dia tidak memandang
korban atas rasa hormat. -
3:33 - 3:37Tapi kabar itu masih beredar luas dengan
sudut pandang Islamofobik ini, -
3:37 - 3:40dengan banyak tagar, termasuk: #BanIslam.
-
3:40 - 3:43Jika Anda pegawai Twitter,
apa yang Anda lakukan? -
3:43 - 3:45Apa Anda akan menghapusnya atau
membiarkannya? -
3:47 - 3:50Reaksi naluriah dan emosional saya,
adalah menghapusnya. -
3:50 - 3:52Saya benci sudut pandang gambar ini.
-
3:53 - 3:55Tapi kebebasan berekspresi
ialah HAM, -
3:55 - 3:58dan jika kita mulai menghapus ujaran
yang membuat kita tidak nyaman, -
3:58 - 3:59kita punya masalah.
-
4:00 - 4:02Mungkin ini terlihat
seperti kasus yang jelas, -
4:02 - 4:04tapi, sebenarnya,
kebanyakan tidak. -
4:04 - 4:06Garis batas ini luar biasa
sulit untuk dibuat. -
4:06 - 4:08Keputusan dengan niat baik dari satu orang
-
4:08 - 4:10ialah sensor terhadap hal berikutnya.
-
4:11 - 4:14Apa yang sekarang kita tahu
ialah akun ini, Texas Lone Star, -
4:14 - 4:17adalah bagian dari kampanye
disinformasi Rusia yang lebih luas, -
4:17 - 4:19kampanye yang telah lama dihapus.
-
4:19 - 4:21Apa itu mengubah
pandangan Anda? -
4:21 - 4:22Bagi saya, iya,
-
4:23 - 4:25sebab kini, itu contoh
kampanye terkoordinasi -
4:25 - 4:26demi menabur perpecahan.
-
4:26 - 4:28Dan bagi Anda yang ingin berpikir
-
4:28 - 4:31bahwa kecerdasan buatan akan
selesaikan semua masalah kita, -
4:31 - 4:33Saya pikir bisa sepakat
bahwa kita masih jauh -
4:33 - 4:36dari AI yang bisa memahami
unggahan seperti ini. -
4:37 - 4:39Jadi saya ingin jelaskan
tiga masalah saling terkait -
4:39 - 4:42yang membuat hal ini sangat kompleks
-
4:42 - 4:45dan memikirkan cara-cara untuk
mempertimbangkan tantangan ini. -
4:45 - 4:49Pertama, kita tidak hanya memiliki
hubungan rasional dengan informasi, -
4:49 - 4:51tapi juga hubungan emosional.
-
4:51 - 4:55Pemikiran semakin banyak fakta membuat
semua lebih baik tidaklah benar, -
4:55 - 4:58karena algoritma yang menentukan
konten apa yang kita lihat, -
4:58 - 5:01yah, mereka dirancang untuk
menghargai respons emosional kita. -
5:01 - 5:02Dan ketika kita takut,
-
5:02 - 5:05narasi yang terlalu disederhanakan,
penjelasan konspirasi -
5:05 - 5:09dan bahasa yang menjelekkan orang
lain jauh lebih efektif. -
5:10 - 5:11Selain itu, banyak dari perusahaan ini,
-
5:11 - 5:14model bisnis mereka
berkaitan dengan perhatian, -
5:14 - 5:18yang berarti algoritma ini akan
selalu condong ke arah emosi. -
5:18 - 5:23Kedua, sebagian besar ujaran yang
saya bicarakan di sini bersifat sah. -
5:23 - 5:25Itu akan jadi kasus berbeda
-
5:25 - 5:27jika saya membicarakan
konten pelecehan seksual -
5:27 - 5:29terhadap anak atau pemicu kekerasan.
-
5:29 - 5:32Memposting kebohongan jelas ialah legal,
-
5:33 - 5:37tapi orang terus bicara tentang menghapus
konten "bermasalah" atau "berbahaya", -
5:37 - 5:40tanpa adanya definisi jelas tentang
maksud mereka, -
5:40 - 5:41termasuk Mark Zuckerberg,
-
5:41 - 5:45yang baru-baru ini menyerukan regulasi
global demi ujaran moderat. -
5:45 - 5:47Dan kekhawatiran saya
ialah melihat pemerintah -
5:47 - 5:48di seluruh dunia
-
5:48 - 5:51meluncurkan keputusan
kebijakan yang tergesa-gesa -
5:51 - 5:54dan mungkin akan memicu
konsekuensi yang jauh lebih serius -
5:54 - 5:56bila berbicara
tentang ujaran kita. -
5:56 - 6:00Dan jika kita bisa memutuskan ujaran mana
yang akan kita naikkan atau hapus, -
6:00 - 6:02kita belum memiliki ujaran sebanyak ini.
-
6:02 - 6:04Setiap detik, jutaan keping konten
-
6:04 - 6:06diunggah oleh orang-orang di seluruh dunia
-
6:06 - 6:07dalam berbagai bahasa,
-
6:07 - 6:10berdasarkan ribuan konteks
budaya yang berbeda. -
6:10 - 6:13Kita belum pernah memiliki
mekanisme yang efektif -
6:13 - 6:14untuk memoderasi ujaran skala ini,
-
6:15 - 6:17entah yang dilakukan oleh
manusia atau teknologi. -
6:18 - 6:22Dan ketiga, semua perusahaan ini -
Google, Twitter, Facebook, WhatsApp - -
6:22 - 6:25mereka ialah bagian dari ekosistem
informasi lebih luas. -
6:25 - 6:28Kita suka menyalahkan semua
pihak, tetapi kenyataannya adalah -
6:28 - 6:32media massa dan pejabat terpilih
juga dapat memainkan peran yang sama -
6:32 - 6:35dalam memperkuat rumor dan
konspirasi jika mereka ingin. -
6:36 - 6:41Seperti saat kita asal meneruskan
konten tak teratur atau menyesatkan -
6:41 - 6:42tanpa berusaha.
-
6:42 - 6:44Kita menambah polusi.
-
6:45 - 6:48Saya tahu kita semua mencari
solusi yang mudah. -
6:48 - 6:50Tapi sayangnya tidak ada.
-
6:50 - 6:54Solusi apa pun harus diluncurkan dalam
skala besar, skala internet, -
6:54 - 6:58dan ya, platform, mereka sudah terbiasa
beroperasi di tingkat itu. -
6:58 - 7:01tapi bisakah dan haruskah kita izinkan
mereka perbaiki masalah ini? -
7:02 - 7:03Mereka tentu berusaha.
-
7:03 - 7:07tapi sebagian kita akan setuju, faktanya,
kita tak ingin perusahaan global -
7:07 - 7:09menjadi penjaga kebenaran
dan keadilan online. -
7:09 - 7:12Dan saya juga pikir platform
akan setuju dengan itu. -
7:12 - 7:15Dan saat ini, mereka menandai
pekerjaan rumah sendiri. -
7:15 - 7:16Mereka suka bilang
-
7:16 - 7:19bahwa intervensi yang
mereka jalankan bekerja, -
7:19 - 7:22tapi karena mereka ada
laporan transparansi sendiri, -
7:22 - 7:25sulit bagi kita untuk memverifikasi
kebenarannya secara mandiri. -
7:26 - 7:30
(Tepuk tangan) -
7:30 - 7:33Dan mari kita pahami bahwa
kebanyakan perubahan kita lihat -
7:33 - 7:36hanya terjadi setelah wartawan
melakukan penyelidikan -
7:36 - 7:37dan menemukan bukti bias
-
7:37 - 7:40atau konten yang melanggar
pedoman komunitas mereka. -
7:41 - 7:45Jadi ya, perusahaan ini harus berperan
sangat penting dalam proses ini, tapi -
7:45 - 7:47mereka tak boleh ambil kendali.
-
7:48 - 7:49Lalu, pemerintah bagaimana?
-
7:50 - 7:53Banyak orang percaya regulasi global
ialah harapan terakhir kita -
7:53 - 7:56dalam hal membersihkan
ekosistem informasi kita. -
7:56 - 7:59Tapi yang saya lihat adalah
anggota parlemen kesulitan -
7:59 - 8:01mengikuti perubahan teknologi yang cepat.
-
8:01 - 8:03Parahnya, mereka kerja dalam kegelapan,
-
8:03 - 8:05sebab mereka tidak
punya akses ke data -
8:05 - 8:08untuk memahami apa yang
terjadi pada platform ini. -
8:08 - 8:11Lagipula, pemerintah mana yang
kita percayakan dengan tugas ini? -
8:11 - 8:14Kita membutuhkan respons global,
bukan respons nasional. -
8:15 - 8:18Jadi hal penting yang tersisa adalah kita.
-
8:18 - 8:21Orang-orang yang menggunakan
teknologi ini setiap hari. -
8:21 - 8:26Bisakah kita merancang infrastruktur baru
untuk mendukung informasi berkualitas? -
8:26 - 8:28Saya percaya kita bisa,
-
8:28 - 8:31dan saya punya beberapa ide tentang apa
yang bisa kita lakukan. -
8:31 - 8:34Jadi pertama, jika kita serius membawa
masyarakat ke sini, -
8:34 - 8:37dapatkah kita mengambil
inspirasi dari Wikipedia? -
8:37 - 8:38Mereka telah menunjukkan yang mungkin.
-
8:38 - 8:40Ya, itu tidak sempurna,
-
8:40 - 8:42tapi mereka telah menunjukkan
dengan struktur tepat, -
8:42 - 8:45dengan pandangan global dan
banyak transparansi, -
8:45 - 8:48kamu bisa buat hal yang akan mendapat
kepercayaan banyak orang. -
8:48 - 8:51sebab kita harus mencari cara
memanfaatkan kebijaksanaan -
8:51 - 8:53dan pengalaman kolektif semua pengguna.
-
8:54 - 8:56Ini khususnya terjadi pada wanita,
orang kulit berwarna -
8:56 - 8:58dan kelompok tak terwakili.
-
8:58 - 8:59Karena tebak apa?
-
8:59 - 9:01Mereka ahlinya dalam
kebencian dan disinformasi, -
9:02 - 9:05karena mereka telah lama menjadi sasaran
dari semua kampanye ini. -
9:05 - 9:07Mereka sudah bertahun-tahun
mengibarkan bendera, -
9:07 - 9:09dan mereka belum didengarkan.
-
9:09 - 9:10Ini harus berubah.
-
9:11 - 9:15Jadi bisakah kita membangun Wikipedia
untuk kepercayaan? -
9:15 - 9:19Bisakah kita temukan cara agar
pengguna dapat memberikan wawasan? -
9:19 - 9:23Mereka dapat menawarkan wawasan untuk
keputusan moderasi konten yang sulit. -
9:23 - 9:25Mereka bisa beri umpan balik
-
9:25 - 9:28ketika platform memutuskan ingin
melakukan perubahan baru. -
9:28 - 9:32Kedua, pengalaman orang-orang
dengan informasi itu dipersonalisasi. -
9:32 - 9:35Umpan berita FB saya
sangat beda dengan milik Anda. -
9:35 - 9:38Rekomendasi YouTube Anda sangat
berbeda dengan saya. -
9:38 - 9:40Itu menyulitkan kita untuk memeriksa
-
9:40 - 9:42informasi apa saja yang dilihat orang.
-
9:43 - 9:44Jadi, terbayangkah kalau kita
-
9:44 - 9:49mengembangkan semacam repositori
terbuka dan terpusat untuk data anonim, -
9:49 - 9:52dengan mempertimbangkan
masalah privasi dan etika? -
9:52 - 9:54Bayangkan apa yang bisa kita pelajari
-
9:54 - 9:57jika kita membangun jaringan
global warga yang peduli, -
9:57 - 10:01yang ingin menyumbangkan
data sosial mereka demi sains. -
10:01 - 10:03Sebab kita hanya sedikit mengetahui
-
10:03 - 10:06konsekuensi jangka panjang
dari kebencian dan disinformasi -
10:06 - 10:08pada sikap dan perilaku orang.
-
10:08 - 10:09Dan apa yang kita tahu,
-
10:09 - 10:12sebagian besar dari itu
telah dilakukan di AS, -
10:12 - 10:14terlepas dari fakta bahwa
ini masalah global. -
10:14 - 10:16Kita perlu bertindak juga.
-
10:16 - 10:17Dan ketiga,
-
10:17 - 10:20bisakah kita cari cara
menghubungkan segalanya? -
10:20 - 10:23Tidak ada satu sektor, apalagi nirlaba,
start-up atau pemerintah, -
10:23 - 10:25yang akan menyelesaikan ini.
-
10:25 - 10:27Tapi ada orang teramat pintar
di seluruh dunia -
10:27 - 10:29yang menjawab tantangan ini,
-
10:29 - 10:32dari ruang redaksi, masyarakat sipil,
akademisi, kelompok aktivis. -
10:32 - 10:34Dan Anda dapat melihatnya di sini.
-
10:34 - 10:37Beberapa dari mereka membangun
indikator kredibilitas konten. -
10:37 - 10:38Yang lain memeriksa fakta,
-
10:38 - 10:42supaya klaim palsu, video, & gambar
dapat diredam oleh platform. -
10:42 - 10:44Nirlaba yang saya bantu dirikan,
First Draft, -
10:44 - 10:47bekerja dengan ruang berita yang
kompetitif di dunia -
10:47 - 10:51untuk membantu mereka membangun
investigasi, program kolaboratif. -
10:51 - 10:54Dan Danny Hillis, arsitek perangkat lunak,
-
10:54 - 10:56sedang merancang sistem baru bernama
The Underlay, -
10:56 - 10:59yang akan mencatat
semua pernyataan fakta publik -
10:59 - 11:00terhubung ke sumber mereka,
-
11:00 - 11:04agar orang dan algoritma dapat
menilai lebih baik apa yang kredibel. -
11:05 - 11:08Dan pendidik di seluruh dunia sedang
menguji teknik yang berbeda -
11:08 - 11:12untuk mencari cara agar orang kritis
terhadap konten yang mereka konsumsi. -
11:13 - 11:16Semua upaya ini luar biasa,
tetapi mereka bekerja sendirian, -
11:16 - 11:18dan banyak dari mereka
sangat kekurangan dana. -
11:19 - 11:21Ada juga ratusan orang yang sangat pintar
-
11:21 - 11:22bekerja di perusahaan-perusahaan,
-
11:22 - 11:25tapi, upaya ini bisa terasa
tidak berhubungan, -
11:25 - 11:29karena mereka sebenarnya mengembangkan
solusi berbeda untuk masalah yang sama. -
11:29 - 11:31Bagaimana kita bisa cari cara
menyatukan orang -
11:31 - 11:35di satu lokasi fisik selama berhari-hari
atau berminggu-minggu, -
11:35 - 11:37hingga mereka dapat
mengatasi masalah bersama -
11:37 - 11:39tapi dari beragam sudut pandang?
-
11:39 - 11:40Bisakah kita melakukannya?
-
11:40 - 11:44Bisakah kita membangun respons
yang terkoordinasi dan ambisius, -
11:44 - 11:47yang cocok dengan skala dan
kompleksitas masalah ini? -
11:48 - 11:49Saya pikir kita bisa.
-
11:49 - 11:52Bersama-sama, mari kita bangun kembali
sumber informasi kita. -
11:53 - 11:54Terima kasih.
-
11:54 - 11:58(Tepuk tangan)
- Title:
- Bagaimana kita bisa membantu mengubah internet menjadi tempat kepercayaan
- Speaker:
- Claire Wardle
- Description:
-
Bagaimana kita bisa menghentikan penyebaran konten yang menyesatkan, bahkan terkadang berbahaya, sambil mempertahankan internet dengan kebebasan berekspresi pada intinya? Ahli misinformasi, Claire Wardle, mengeksplorasi tantangan baru dari lingkungan online kita yang tercemar dan memetakan rencana untuk mengubah internet menjadi tempat kepercayaan - dengan bantuan pengguna sehari-hari. "Bersama-sama, mari kita bangun kembali sumber informasi kita," katanya.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Ade Indarta approved Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Ade Indarta edited Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Karen Winardi accepted Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Karen Winardi edited Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Yohealvien Himerlyn edited Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Yohealvien Himerlyn edited Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Yohealvien Himerlyn edited Indonesian subtitles for How you can help transform the internet into a place of trust | ||
Yohealvien Himerlyn edited Indonesian subtitles for How you can help transform the internet into a place of trust |