1 00:00:01,040 --> 00:00:03,780 ♪ (musik) ♪ 2 00:00:10,134 --> 00:00:14,544 Terjemahan oleh Ary Nuansa Ulasan oleh Reno Kanti R 3 00:00:14,880 --> 00:00:19,000 Sebelum kemunculan internet, semua orang melihat berita yang sama. 4 00:00:19,000 --> 00:00:21,750 Berita dari TV, radio, dan koran. 5 00:00:22,670 --> 00:00:25,200 Penjaga pintu informasinya adalah manusia. 6 00:00:25,200 --> 00:00:27,312 Editor meninjau sejumlah berita 7 00:00:27,312 --> 00:00:29,570 dan memilih mana yang harus dilihat oleh publik. 8 00:00:29,660 --> 00:00:31,550 Saat ini, organisasi berita tradisional 9 00:00:31,550 --> 00:00:34,700 dilengkapi oleh sumber berita daring yang jumlahnya tak terhingga. 10 00:00:34,880 --> 00:00:35,920 Di internet, 11 00:00:35,920 --> 00:00:39,456 seringnya program komputerlah yang menentukan apa yang orang bisa lihat. 12 00:00:39,680 --> 00:00:42,700 Saat kamu menelusuri web atau pergi ke situs media sosial, 13 00:00:43,230 --> 00:00:45,450 ada sangat banyak konten yang tersedia 14 00:00:45,450 --> 00:00:48,260 sehingga diperlukan sebuah sistem untuk menyaring hasilnya. 15 00:00:48,590 --> 00:00:51,020 Untuk memprediksi apa yang ingin dilihat pengguna, 16 00:00:51,020 --> 00:00:52,910 platform daring menggunakan algoritma. 17 00:00:54,522 --> 00:00:56,546 Algoritma adalah serangkaian intruksi 18 00:00:56,546 --> 00:00:59,410 yang menyuruh komputer untuk mengerjakan tugas tertentu, 19 00:00:59,410 --> 00:01:02,059 seperti bagaimana menyortir informasi. 20 00:01:02,339 --> 00:01:04,667 Algoritma menentukan konten yang akan ditampilkan 21 00:01:04,667 --> 00:01:06,790 berdasarkan kombinasi dari apa yang populer 22 00:01:06,790 --> 00:01:09,470 dan apa yang mereka ketahui tentang sikap dan minatmu. 23 00:01:12,880 --> 00:01:14,870 Saat kamu membuat akun media sosial, 24 00:01:14,870 --> 00:01:17,200 kamu mungkin menyediakan beberapa informasi dasar 25 00:01:17,200 --> 00:01:19,990 seperti nama, jenis kelamin, dan usiamu. 26 00:01:21,100 --> 00:01:24,568 Kamu mungkin membagi informasi lain bahkan tanpa menyadarinya 27 00:01:24,730 --> 00:01:27,766 Setiap kamu menyukai, membagikan, atau berkomentar pada posting, 28 00:01:27,766 --> 00:01:30,977 informasi itu disimpan dan digunakan untuk membangun profilmu. 29 00:01:30,977 --> 00:01:33,269 Di web, tindakan yang kamu lakukan 30 00:01:33,269 --> 00:01:36,441 dilacak dan dapat diakses oleh algoritma media sosial. 31 00:01:36,441 --> 00:01:37,580 Mungkin ini mengejutkan 32 00:01:37,580 --> 00:01:40,870 seberapa banyak algoritma bisa belajar tentangmu melalui tindakanmu. 33 00:01:40,870 --> 00:01:42,990 Data yang kamu tinggalkan ini amat bernilai 34 00:01:42,990 --> 00:01:46,920 karena platform daring menghasilkan uang dengan menjual iklan. 35 00:01:46,920 --> 00:01:49,100 Pengiklan akan membayar untuk menjangkau orang 36 00:01:49,100 --> 00:01:52,158 yang kemungkinan besar tertarik pada pesan mereka. 37 00:01:52,158 --> 00:01:54,040 Semakin banyak platform tahu tentangmu, 38 00:01:54,040 --> 00:01:58,297 semakin efektif konten dan iklan yang dipersonalisasinya. 39 00:01:58,297 --> 00:02:01,870 Algoritma bisa mendorongmu untuk terus mengklik, menggulir, atau menonton 40 00:02:01,870 --> 00:02:05,590 dengan menampilkan konten yang populer, menarik, atau baru. 41 00:02:06,090 --> 00:02:08,410 Karena tujuannya untuk menarik perhatianmu, 42 00:02:08,430 --> 00:02:12,808 algoritma bisa mendukung konten yang sensasional, palsu, atau sesat. 43 00:02:14,110 --> 00:02:16,346 Ada kalanya algoritma bisa sangat membantu, 44 00:02:16,346 --> 00:02:18,940 misalnya, ketika musik streaming menyarankan lagu baru 45 00:02:18,940 --> 00:02:21,350 berdasarkan apa yang telah kamu dengar sebelumnya. 46 00:02:22,360 --> 00:02:25,307 Namun, saat algoritma menentukan informasi yang kita lihat 47 00:02:25,307 --> 00:02:27,810 konsekuensinya mungkin akan lebih signifikan. 48 00:02:27,810 --> 00:02:30,290 Ketika informasi dipersonalisasi hanya untuk kita, 49 00:02:30,290 --> 00:02:32,414 kita bisa berakhir dalam gelembung filter. 50 00:02:32,414 --> 00:02:34,758 Gelembung filter terbentuk saat kita hanya melihat 51 00:02:34,758 --> 00:02:37,768 informasi yang cenderung kita setujui saja. 52 00:02:37,768 --> 00:02:40,940 Berada pada gelembung filter membuat kita menjadi kurang menerima 53 00:02:40,940 --> 00:02:42,730 pandangan yang berbeda dengan kita. 54 00:02:42,780 --> 00:02:44,780 Ini bisa berdampak negatif pada demokrasi 55 00:02:44,880 --> 00:02:49,061 yang menuntut warga untuk mendengarkan satu sama lain dan menemukan titik temu. 56 00:02:49,710 --> 00:02:52,540 Memahami kenapa kita melihat apa yang kita lihat saat daring 57 00:02:52,540 --> 00:02:55,710 bisa membantu kita menjadi konsumen informasi yang lebih kritis. 58 00:02:55,710 --> 00:02:57,988 Lini masa kita tak pernah memberi gambaran utuh. 59 00:02:57,988 --> 00:03:00,230 Jadi, kita perlu membiasakan diri mencari berita 60 00:03:00,230 --> 00:03:02,668 dan informasi dari berbagai sumber. 61 00:03:03,832 --> 00:03:07,110 Terjemahan takarir oleh Ary Nuansa Ulasan oleh Reno Kanti R