Return to Video

Bagaimana kita bisa membantu mengubah internet menjadi tempat kepercayaan

  • 0:02 - 0:04
    Tidak peduli siapa Anda dan di mana Anda
    tinggal,
  • 0:04 - 0:06
    saya rasa Anda pasti setidaknya
    mengenal seseorang
  • 0:06 - 0:09
    yang suka meneruskan email-email itu.
  • 0:09 - 0:11
    Anda tahu yang saya bicarakan -
  • 0:11 - 0:14
    surel dengan klaim meragukan
    atau video konspirasi.
  • 0:14 - 0:17
    Anda mungkin sudah
    mendiamkan mereka di Facebook
  • 0:17 - 0:19
    karena telah
    membagikan pos sosial seperti ini.
  • 0:19 - 0:21
    Ini adalah sebuah foto pisang
  • 0:21 - 0:23
    dengan bentuk salib merah yang aneh
    di tengah-tengah
  • 0:23 - 0:26
    Dan teks di sekelilingnya
    memperingatkan orang
  • 0:26 - 0:28
    untuk tidak memakan buah seperti ini,
  • 0:28 - 0:30
    menginfokan buah itu
    telah disuntik
  • 0:30 - 0:32
    darah yang terkontaminasi oleh virus HIV.
  • 0:32 - 0:35
    Dan pesan sosial
    di atasnya hanya mengatakan
  • 0:35 - 0:37
    "Sebarkan untuk menyelamatkan hidup."
  • 0:38 - 0:41
    Sekarang, pemeriksa fakta telah menyanggah
    ini selama bertahun-tahun,
  • 0:41 - 0:44
    tapi itu salah satu rumor
    yang tidak akan mati.
  • 0:44 - 0:45
    Rumor serupa zombie.
  • 0:46 - 0:48
    Dan, tentu saja, itu sepenuhnya salah.
  • 0:48 - 0:51
    Mungkin Anda tergoda menertawakan
    contohnya, untuk bilang,
  • 0:51 - 0:53
    "Yah, siapa yang akan percaya ini?"
  • 0:53 - 0:55
    Alasan rumor itu menjadi zombie,
  • 0:55 - 0:59
    karena itu menyentuh ketakutan terdalam
    orang tentang keamanan mereka sendiri
  • 0:59 - 1:01
    dan orang-orang yang mereka cintai.
  • 1:02 - 1:05
    Jika Anda telah sering
    melihat informasi yang salah seperti saya,
  • 1:05 - 1:08
    Anda tahu bahwa ini hanya
    satu dari banyak contoh
  • 1:08 - 1:11
    yang menyentuh ketakutan
    terdalam dan terentan orang.
  • 1:11 - 1:16
    Setiap hari, di seluruh dunia, kita
    melihat puluhan meme baru di Instagram
  • 1:16 - 1:19
    yang mendorong orang tua untuk
    tidak memvaksinasi anak mereka.
  • 1:19 - 1:23
    Kita melihat video baru YouTube yang
    menjelaskan perubahan iklim ialah tipuan.
  • 1:23 - 1:28
    Di seluruh platform, kita melihat banyak
    unggahan yang menjelekkan orang lain
  • 1:28 - 1:31
    berdasarkan ras, agama atau
    seksualitas mereka.
  • 1:32 - 1:35
    Selamat datang di salah satu
    tantangan penting zaman kita.
  • 1:36 - 1:40
    Bagaimana kita bisa mempertahankan
    kebebasan berekspresi di internet,
  • 1:40 - 1:43
    sambil memastikan
    bahwa konten yang disebarluaskan
  • 1:43 - 1:47
    tidak menyebabkan kerusakan permanen
    pada demokrasi kita, komunitas kita
  • 1:47 - 1:49
    serta kesehatan fisik dan mental kita?
  • 1:50 - 1:52
    Karena kita hidup dalam era informasi,
  • 1:52 - 1:56
    namun mata uang pusat yang menyangkut
    kehidupan kita semua - informasi -
  • 1:56 - 1:58
    tidak lagi dianggap
    dapat sepenuhnya dipercaya
  • 1:58 - 2:00
    dan, terkdadang dapat
    tampak sangat berbahaya.
  • 2:01 - 2:05
    Sebagian ini berkat pertumbuhan
    cepat dari platform berbagi sosial
  • 2:05 - 2:06
    yang memungkinkan kita menelusuri,
  • 2:06 - 2:09
    dimana kebohongan dan fakta
    hidup bersisian,
  • 2:09 - 2:12
    tetapi tanpa sinyal
    tradisional kepercayaan.
  • 2:12 - 2:16
    Dan kebaikan - bahasa kita di
    sekitar ini sangat kacau.
  • 2:16 - 2:19
    Orang-orang masih terobsesi
    dengan frasa "berita palsu,"
  • 2:19 - 2:22
    walaupun itu sangat tidak membantu dan
  • 2:22 - 2:25
    digunakan untuk menjabarkan beberapa
    hal yang sebenarnya sangat berbeda:
  • 2:25 - 2:28
    kebohongan, rumor, tipuan,
    konspirasi, propaganda.
  • 2:29 - 2:32
    Dan saya sangat berharap kita
    bisa berhenti menggunakan frasa
  • 2:32 - 2:35
    yang telah dipahami berbeda
    oleh politikus di seluruh dunia,
  • 2:35 - 2:36
    dari sayap kiri dan kanan,
  • 2:36 - 2:39
    digunakan sebagai senjata menyerang
    pers yang bebas dan independen.
  • 2:40 - 2:45
    (Tepuk tangan)
  • 2:45 - 2:48
    sebab kita butuh media berita profesional
    lebih dari sebelumnya.
  • 2:49 - 2:52
    Dan selain itu, sebagian besar konten
    tidak menyamar sebagai berita.
  • 2:52 - 2:55
    Mereka berupa meme, video, pos sosial.
  • 2:55 - 2:58
    Dan sebagian besar dari mereka
    tidak palsu; justru menyesatkan.
  • 2:58 - 3:01
    Kita cenderung terpaku pada apa
    yang benar atau salah.
  • 3:01 - 3:05
    Tetapi kekhawatiran terbesar sebenarnya
    adalah persenjataan konteks.
  • 3:07 - 3:09

    Karena disinformasi paling efektif
  • 3:09 - 3:12
    selalu berupa hal yang memiliki inti
    kebenaran di dalamnya.
  • 3:12 - 3:15
    Mari kita ambil contoh ini dari London,
    bulan Maret 2017,
  • 3:15 - 3:17
    tweet yang beredar luas
  • 3:17 - 3:21
    setelah insiden teroris di
    Jembatan Westminster.
  • 3:21 - 3:23
    Ini adalah gambar asli, bukan palsu.
  • 3:23 - 3:26
    Wanita yang muncul di foto
    diwawancarai setelah peristiwa itu,
  • 3:26 - 3:29
    dan dia menjelaskan bahwa
    dia benar-benar trauma.
  • 3:29 - 3:30
    Dia menelepon
    orang yang dicintai,
  • 3:30 - 3:33
    dan dia tidak memandang
    korban atas rasa hormat.
  • 3:33 - 3:37
    Tapi kabar itu masih beredar luas dengan
    sudut pandang Islamofobik ini,
  • 3:37 - 3:40
    dengan banyak tagar, termasuk: #BanIslam.
  • 3:40 - 3:43
    Jika Anda pegawai Twitter,
    apa yang Anda lakukan?
  • 3:43 - 3:45
    Apa Anda akan menghapusnya atau
    membiarkannya?
  • 3:47 - 3:50
    Reaksi naluriah dan emosional saya,
    adalah menghapusnya.
  • 3:50 - 3:52
    Saya benci sudut pandang gambar ini.
  • 3:53 - 3:55
    Tapi kebebasan berekspresi
    ialah HAM,
  • 3:55 - 3:58
    dan jika kita mulai menghapus ujaran
    yang membuat kita tidak nyaman,
  • 3:58 - 3:59
    kita punya masalah.
  • 4:00 - 4:02
    Mungkin ini terlihat
    seperti kasus yang jelas,
  • 4:02 - 4:04
    tapi, sebenarnya,
    kebanyakan tidak.
  • 4:04 - 4:06
    Garis batas ini luar biasa
    sulit untuk dibuat.
  • 4:06 - 4:08
    Keputusan dengan niat baik dari satu orang
  • 4:08 - 4:10
    ialah sensor terhadap hal berikutnya.
  • 4:11 - 4:14
    Apa yang sekarang kita tahu
    ialah akun ini, Texas Lone Star,
  • 4:14 - 4:17
    adalah bagian dari kampanye
    disinformasi Rusia yang lebih luas,
  • 4:17 - 4:19
    kampanye yang telah lama dihapus.
  • 4:19 - 4:21
    Apa itu mengubah
    pandangan Anda?
  • 4:21 - 4:22
    Bagi saya, iya,
  • 4:23 - 4:25
    sebab kini, itu contoh
    kampanye terkoordinasi
  • 4:25 - 4:26
    demi menabur perpecahan.
  • 4:26 - 4:28
    Dan bagi Anda yang ingin berpikir
  • 4:28 - 4:31
    bahwa kecerdasan buatan akan
    selesaikan semua masalah kita,
  • 4:31 - 4:33
    Saya pikir bisa sepakat
    bahwa kita masih jauh
  • 4:33 - 4:36
    dari AI yang bisa memahami
    unggahan seperti ini.
  • 4:37 - 4:39
    Jadi saya ingin jelaskan
    tiga masalah saling terkait
  • 4:39 - 4:42
    yang membuat hal ini sangat kompleks
  • 4:42 - 4:45
    dan memikirkan cara-cara untuk
    mempertimbangkan tantangan ini.
  • 4:45 - 4:49
    Pertama, kita tidak hanya memiliki
    hubungan rasional dengan informasi,
  • 4:49 - 4:51
    tapi juga hubungan emosional.
  • 4:51 - 4:55
    Pemikiran semakin banyak fakta membuat
    semua lebih baik tidaklah benar,
  • 4:55 - 4:58
    karena algoritma yang menentukan
    konten apa yang kita lihat,
  • 4:58 - 5:01
    yah, mereka dirancang untuk
    menghargai respons emosional kita.
  • 5:01 - 5:02
    Dan ketika kita takut,
  • 5:02 - 5:05
    narasi yang terlalu disederhanakan,
    penjelasan konspirasi
  • 5:05 - 5:09
    dan bahasa yang menjelekkan orang
    lain jauh lebih efektif.
  • 5:10 - 5:11
    Selain itu, banyak dari perusahaan ini,
  • 5:11 - 5:14
    model bisnis mereka
    berkaitan dengan perhatian,
  • 5:14 - 5:18
    yang berarti algoritma ini akan
    selalu condong ke arah emosi.
  • 5:18 - 5:23
    Kedua, sebagian besar ujaran yang
    saya bicarakan di sini bersifat sah.
  • 5:23 - 5:25
    Itu akan jadi kasus berbeda
  • 5:25 - 5:27
    jika saya membicarakan
    konten pelecehan seksual
  • 5:27 - 5:29
    terhadap anak atau pemicu kekerasan.
  • 5:29 - 5:32
    Memposting kebohongan jelas ialah legal,
  • 5:33 - 5:37
    tapi orang terus bicara tentang menghapus
    konten "bermasalah" atau "berbahaya",
  • 5:37 - 5:40
    tanpa adanya definisi jelas tentang
    maksud mereka,
  • 5:40 - 5:41
    termasuk Mark Zuckerberg,
  • 5:41 - 5:45
    yang baru-baru ini menyerukan regulasi
    global demi ujaran moderat.
  • 5:45 - 5:47
    Dan kekhawatiran saya
    ialah melihat pemerintah
  • 5:47 - 5:48
    di seluruh dunia
  • 5:48 - 5:51
    meluncurkan keputusan
    kebijakan yang tergesa-gesa
  • 5:51 - 5:54
    dan mungkin akan memicu
    konsekuensi yang jauh lebih serius
  • 5:54 - 5:56
    bila berbicara
    tentang ujaran kita.
  • 5:56 - 6:00
    Dan jika kita bisa memutuskan ujaran mana
    yang akan kita naikkan atau hapus,
  • 6:00 - 6:02
    kita belum memiliki ujaran sebanyak ini.
  • 6:02 - 6:04
    Setiap detik, jutaan keping konten
  • 6:04 - 6:06
    diunggah oleh orang-orang di seluruh dunia
  • 6:06 - 6:07
    dalam berbagai bahasa,
  • 6:07 - 6:10
    berdasarkan ribuan konteks
    budaya yang berbeda.
  • 6:10 - 6:13
    Kita belum pernah memiliki
    mekanisme yang efektif
  • 6:13 - 6:14
    untuk memoderasi ujaran skala ini,
  • 6:15 - 6:17
    entah yang dilakukan oleh
    manusia atau teknologi.
  • 6:18 - 6:22
    Dan ketiga, semua perusahaan ini -
    Google, Twitter, Facebook, WhatsApp -
  • 6:22 - 6:25
    mereka ialah bagian dari ekosistem
    informasi lebih luas.
  • 6:25 - 6:28
    Kita suka menyalahkan semua
    pihak, tetapi kenyataannya adalah
  • 6:28 - 6:32
    media massa dan pejabat terpilih
    juga dapat memainkan peran yang sama
  • 6:32 - 6:35
    dalam memperkuat rumor dan
    konspirasi jika mereka ingin.
  • 6:36 - 6:41
    Seperti saat kita asal meneruskan
    konten tak teratur atau menyesatkan
  • 6:41 - 6:42
    tanpa berusaha.
  • 6:42 - 6:44
    Kita menambah polusi.
  • 6:45 - 6:48
    Saya tahu kita semua mencari
    solusi yang mudah.
  • 6:48 - 6:50
    Tapi sayangnya tidak ada.
  • 6:50 - 6:54
    Solusi apa pun harus diluncurkan dalam
    skala besar, skala internet,
  • 6:54 - 6:58
    dan ya, platform, mereka sudah terbiasa
    beroperasi di tingkat itu.
  • 6:58 - 7:01
    tapi bisakah dan haruskah kita izinkan
    mereka perbaiki masalah ini?
  • 7:02 - 7:03
    Mereka tentu berusaha.
  • 7:03 - 7:07
    tapi sebagian kita akan setuju, faktanya,
    kita tak ingin perusahaan global
  • 7:07 - 7:09
    menjadi penjaga kebenaran
    dan keadilan online.
  • 7:09 - 7:12
    Dan saya juga pikir platform
    akan setuju dengan itu.
  • 7:12 - 7:15
    Dan saat ini, mereka menandai
    pekerjaan rumah sendiri.
  • 7:15 - 7:16
    Mereka suka bilang
  • 7:16 - 7:19
    bahwa intervensi yang
    mereka jalankan bekerja,
  • 7:19 - 7:22
    tapi karena mereka ada
    laporan transparansi sendiri,
  • 7:22 - 7:25
    sulit bagi kita untuk memverifikasi
    kebenarannya secara mandiri.
  • 7:26 - 7:30

    (Tepuk tangan)
  • 7:30 - 7:33
    Dan mari kita pahami bahwa
    kebanyakan perubahan kita lihat
  • 7:33 - 7:36
    hanya terjadi setelah wartawan
    melakukan penyelidikan
  • 7:36 - 7:37
    dan menemukan bukti bias
  • 7:37 - 7:40
    atau konten yang melanggar
    pedoman komunitas mereka.
  • 7:41 - 7:45
    Jadi ya, perusahaan ini harus berperan
    sangat penting dalam proses ini, tapi
  • 7:45 - 7:47
    mereka tak boleh ambil kendali.
  • 7:48 - 7:49
    Lalu, pemerintah bagaimana?
  • 7:50 - 7:53
    Banyak orang percaya regulasi global
    ialah harapan terakhir kita
  • 7:53 - 7:56
    dalam hal membersihkan
    ekosistem informasi kita.
  • 7:56 - 7:59
    Tapi yang saya lihat adalah
    anggota parlemen kesulitan
  • 7:59 - 8:01
    mengikuti perubahan teknologi yang cepat.
  • 8:01 - 8:03
    Parahnya, mereka kerja dalam kegelapan,
  • 8:03 - 8:05
    sebab mereka tidak
    punya akses ke data
  • 8:05 - 8:08
    untuk memahami apa yang
    terjadi pada platform ini.
  • 8:08 - 8:11
    Lagipula, pemerintah mana yang
    kita percayakan dengan tugas ini?
  • 8:11 - 8:14
    Kita membutuhkan respons global,
    bukan respons nasional.
  • 8:15 - 8:18
    Jadi hal penting yang tersisa adalah kita.
  • 8:18 - 8:21
    Orang-orang yang menggunakan
    teknologi ini setiap hari.
  • 8:21 - 8:26
    Bisakah kita merancang infrastruktur baru
    untuk mendukung informasi berkualitas?
  • 8:26 - 8:28
    Saya percaya kita bisa,
  • 8:28 - 8:31
    dan saya punya beberapa ide tentang apa
    yang bisa kita lakukan.
  • 8:31 - 8:34
    Jadi pertama, jika kita serius membawa
    masyarakat ke sini,
  • 8:34 - 8:37
    dapatkah kita mengambil
    inspirasi dari Wikipedia?
  • 8:37 - 8:38
    Mereka telah menunjukkan yang mungkin.
  • 8:38 - 8:40
    Ya, itu tidak sempurna,
  • 8:40 - 8:42
    tapi mereka telah menunjukkan
    dengan struktur tepat,
  • 8:42 - 8:45
    dengan pandangan global dan
    banyak transparansi,
  • 8:45 - 8:48
    kamu bisa buat hal yang akan mendapat
    kepercayaan banyak orang.
  • 8:48 - 8:51
    sebab kita harus mencari cara
    memanfaatkan kebijaksanaan
  • 8:51 - 8:53
    dan pengalaman kolektif semua pengguna.
  • 8:54 - 8:56
    Ini khususnya terjadi pada wanita,
    orang kulit berwarna
  • 8:56 - 8:58
    dan kelompok tak terwakili.
  • 8:58 - 8:59
    Karena tebak apa?
  • 8:59 - 9:01
    Mereka ahlinya dalam
    kebencian dan disinformasi,
  • 9:02 - 9:05
    karena mereka telah lama menjadi sasaran
    dari semua kampanye ini.
  • 9:05 - 9:07
    Mereka sudah bertahun-tahun
    mengibarkan bendera,
  • 9:07 - 9:09
    dan mereka belum didengarkan.
  • 9:09 - 9:10
    Ini harus berubah.
  • 9:11 - 9:15
    Jadi bisakah kita membangun Wikipedia
    untuk kepercayaan?
  • 9:15 - 9:19
    Bisakah kita temukan cara agar
    pengguna dapat memberikan wawasan?
  • 9:19 - 9:23
    Mereka dapat menawarkan wawasan untuk
    keputusan moderasi konten yang sulit.
  • 9:23 - 9:25
    Mereka bisa beri umpan balik
  • 9:25 - 9:28
    ketika platform memutuskan ingin
    melakukan perubahan baru.
  • 9:28 - 9:32
    Kedua, pengalaman orang-orang
    dengan informasi itu dipersonalisasi.
  • 9:32 - 9:35
    Umpan berita FB saya
    sangat beda dengan milik Anda.
  • 9:35 - 9:38
    Rekomendasi YouTube Anda sangat
    berbeda dengan saya.
  • 9:38 - 9:40
    Itu menyulitkan kita untuk memeriksa
  • 9:40 - 9:42
    informasi apa saja yang dilihat orang.
  • 9:43 - 9:44
    Jadi, terbayangkah kalau kita
  • 9:44 - 9:49
    mengembangkan semacam repositori
    terbuka dan terpusat untuk data anonim,
  • 9:49 - 9:52
    dengan mempertimbangkan
    masalah privasi dan etika?
  • 9:52 - 9:54
    Bayangkan apa yang bisa kita pelajari
  • 9:54 - 9:57
    jika kita membangun jaringan
    global warga yang peduli,
  • 9:57 - 10:01
    yang ingin menyumbangkan
    data sosial mereka demi sains.
  • 10:01 - 10:03
    Sebab kita hanya sedikit mengetahui
  • 10:03 - 10:06
    konsekuensi jangka panjang
    dari kebencian dan disinformasi
  • 10:06 - 10:08
    pada sikap dan perilaku orang.
  • 10:08 - 10:09
    Dan apa yang kita tahu,
  • 10:09 - 10:12
    sebagian besar dari itu
    telah dilakukan di AS,
  • 10:12 - 10:14
    terlepas dari fakta bahwa
    ini masalah global.
  • 10:14 - 10:16
    Kita perlu bertindak juga.
  • 10:16 - 10:17
    Dan ketiga,
  • 10:17 - 10:20
    bisakah kita cari cara
    menghubungkan segalanya?
  • 10:20 - 10:23
    Tidak ada satu sektor, apalagi nirlaba,
    start-up atau pemerintah,
  • 10:23 - 10:25
    yang akan menyelesaikan ini.
  • 10:25 - 10:27
    Tapi ada orang teramat pintar
    di seluruh dunia
  • 10:27 - 10:29
    yang menjawab tantangan ini,
  • 10:29 - 10:32
    dari ruang redaksi, masyarakat sipil,
    akademisi, kelompok aktivis.
  • 10:32 - 10:34
    Dan Anda dapat melihatnya di sini.
  • 10:34 - 10:37
    Beberapa dari mereka membangun
    indikator kredibilitas konten.
  • 10:37 - 10:38
    Yang lain memeriksa fakta,
  • 10:38 - 10:42
    supaya klaim palsu, video, & gambar
    dapat diredam oleh platform.
  • 10:42 - 10:44
    Nirlaba yang saya bantu dirikan,
    First Draft,
  • 10:44 - 10:47
    bekerja dengan ruang berita yang
    kompetitif di dunia
  • 10:47 - 10:51
    untuk membantu mereka membangun
    investigasi, program kolaboratif.
  • 10:51 - 10:54
    Dan Danny Hillis, arsitek perangkat lunak,
  • 10:54 - 10:56
    sedang merancang sistem baru bernama
    The Underlay,
  • 10:56 - 10:59
    yang akan mencatat
    semua pernyataan fakta publik
  • 10:59 - 11:00
    terhubung ke sumber mereka,
  • 11:00 - 11:04
    agar orang dan algoritma dapat
    menilai lebih baik apa yang kredibel.
  • 11:05 - 11:08
    Dan pendidik di seluruh dunia sedang
    menguji teknik yang berbeda
  • 11:08 - 11:12
    untuk mencari cara agar orang kritis
    terhadap konten yang mereka konsumsi.
  • 11:13 - 11:16
    Semua upaya ini luar biasa,
    tetapi mereka bekerja sendirian,
  • 11:16 - 11:18
    dan banyak dari mereka
    sangat kekurangan dana.
  • 11:19 - 11:21
    Ada juga ratusan orang yang sangat pintar
  • 11:21 - 11:22
    bekerja di perusahaan-perusahaan,
  • 11:22 - 11:25
    tapi, upaya ini bisa terasa
    tidak berhubungan,
  • 11:25 - 11:29
    karena mereka sebenarnya mengembangkan
    solusi berbeda untuk masalah yang sama.
  • 11:29 - 11:31
    Bagaimana kita bisa cari cara
    menyatukan orang
  • 11:31 - 11:35
    di satu lokasi fisik selama berhari-hari
    atau berminggu-minggu,
  • 11:35 - 11:37
    hingga mereka dapat
    mengatasi masalah bersama
  • 11:37 - 11:39
    tapi dari beragam sudut pandang?
  • 11:39 - 11:40
    Bisakah kita melakukannya?
  • 11:40 - 11:44
    Bisakah kita membangun respons
    yang terkoordinasi dan ambisius,
  • 11:44 - 11:47
    yang cocok dengan skala dan
    kompleksitas masalah ini?
  • 11:48 - 11:49
    Saya pikir kita bisa.
  • 11:49 - 11:52
    Bersama-sama, mari kita bangun kembali
    sumber informasi kita.
  • 11:53 - 11:54
    Terima kasih.
  • 11:54 - 11:58
    (Tepuk tangan)
Title:
Bagaimana kita bisa membantu mengubah internet menjadi tempat kepercayaan
Speaker:
Claire Wardle
Description:

Bagaimana kita bisa menghentikan penyebaran konten yang menyesatkan, bahkan terkadang berbahaya, sambil mempertahankan internet dengan kebebasan berekspresi pada intinya? Ahli misinformasi, Claire Wardle, mengeksplorasi tantangan baru dari lingkungan online kita yang tercemar dan memetakan rencana untuk mengubah internet menjadi tempat kepercayaan - dengan bantuan pengguna sehari-hari. "Bersama-sama, mari kita bangun kembali sumber informasi kita," katanya.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Indonesian subtitles

Revisions