WEBVTT 00:00:01.040 --> 00:00:03.780 ♪ (musik) ♪ 00:00:10.134 --> 00:00:14.544 Terjemahan oleh Ary Nuansa Ulasan oleh Reno Kanti R 00:00:14.880 --> 00:00:19.000 Sebelum kemunculan internet, semua orang melihat berita yang sama. 00:00:19.000 --> 00:00:21.750 Berita dari TV, radio, dan koran. 00:00:22.670 --> 00:00:25.200 Penjaga pintu informasinya adalah manusia. 00:00:25.200 --> 00:00:27.312 Editor meninjau sejumlah berita 00:00:27.312 --> 00:00:29.570 dan memilih mana yang harus dilihat oleh publik. 00:00:29.660 --> 00:00:31.550 Saat ini, organisasi berita tradisional 00:00:31.550 --> 00:00:34.700 dilengkapi oleh sumber berita daring yang jumlahnya tak terhingga. 00:00:34.880 --> 00:00:35.920 Di internet, 00:00:35.920 --> 00:00:39.456 seringnya program komputerlah yang menentukan apa yang orang bisa lihat. 00:00:39.680 --> 00:00:42.700 Saat kamu menelusuri web atau pergi ke situs media sosial, 00:00:43.230 --> 00:00:45.450 ada sangat banyak konten yang tersedia 00:00:45.450 --> 00:00:48.260 sehingga diperlukan sebuah sistem untuk menyaring hasilnya. 00:00:48.590 --> 00:00:51.020 Untuk memprediksi apa yang ingin dilihat pengguna, 00:00:51.020 --> 00:00:52.910 platform daring menggunakan algoritma. 00:00:54.522 --> 00:00:56.546 Algoritma adalah serangkaian intruksi 00:00:56.546 --> 00:00:59.410 yang menyuruh komputer untuk mengerjakan tugas tertentu, 00:00:59.410 --> 00:01:02.059 seperti bagaimana menyortir informasi. 00:01:02.339 --> 00:01:04.667 Algoritma menentukan konten yang akan ditampilkan 00:01:04.667 --> 00:01:06.790 berdasarkan kombinasi dari apa yang populer 00:01:06.790 --> 00:01:09.470 dan apa yang mereka ketahui tentang sikap dan minatmu. 00:01:12.880 --> 00:01:14.870 Saat kamu membuat akun media sosial, 00:01:14.870 --> 00:01:17.200 kamu mungkin menyediakan beberapa informasi dasar 00:01:17.200 --> 00:01:19.990 seperti nama, jenis kelamin, dan usiamu. 00:01:21.100 --> 00:01:24.568 Kamu mungkin membagi informasi lain bahkan tanpa menyadarinya 00:01:24.730 --> 00:01:27.766 Setiap kamu menyukai, membagikan, atau berkomentar pada posting, 00:01:27.766 --> 00:01:30.977 informasi itu disimpan dan digunakan untuk membangun profilmu. 00:01:30.977 --> 00:01:33.269 Di web, tindakan yang kamu lakukan 00:01:33.269 --> 00:01:36.441 dilacak dan dapat diakses oleh algoritma media sosial. 00:01:36.441 --> 00:01:37.580 Mungkin ini mengejutkan 00:01:37.580 --> 00:01:40.870 seberapa banyak algoritma bisa belajar tentangmu melalui tindakanmu. 00:01:40.870 --> 00:01:42.990 Data yang kamu tinggalkan ini amat bernilai 00:01:42.990 --> 00:01:46.920 karena platform daring menghasilkan uang dengan menjual iklan. 00:01:46.920 --> 00:01:49.100 Pengiklan akan membayar untuk menjangkau orang 00:01:49.100 --> 00:01:52.158 yang kemungkinan besar tertarik pada pesan mereka. 00:01:52.158 --> 00:01:54.040 Semakin banyak platform tahu tentangmu, 00:01:54.040 --> 00:01:58.297 semakin efektif konten dan iklan yang dipersonalisasinya. 00:01:58.297 --> 00:02:01.870 Algoritma bisa mendorongmu untuk terus mengklik, menggulir, atau menonton 00:02:01.870 --> 00:02:05.590 dengan menampilkan konten yang populer, menarik, atau baru. 00:02:06.090 --> 00:02:08.410 Karena tujuannya untuk menarik perhatianmu, 00:02:08.430 --> 00:02:12.808 algoritma bisa mendukung konten yang sensasional, palsu, atau sesat. 00:02:14.110 --> 00:02:16.346 Ada kalanya algoritma bisa sangat membantu, 00:02:16.346 --> 00:02:18.940 misalnya, ketika musik streaming menyarankan lagu baru 00:02:18.940 --> 00:02:21.350 berdasarkan apa yang telah kamu dengar sebelumnya. 00:02:22.360 --> 00:02:25.307 Namun, saat algoritma menentukan informasi yang kita lihat 00:02:25.307 --> 00:02:27.810 konsekuensinya mungkin akan lebih signifikan. 00:02:27.810 --> 00:02:30.290 Ketika informasi dipersonalisasi hanya untuk kita, 00:02:30.290 --> 00:02:32.414 kita bisa berakhir dalam gelembung filter. 00:02:32.414 --> 00:02:34.758 Gelembung filter terbentuk saat kita hanya melihat 00:02:34.758 --> 00:02:37.768 informasi yang cenderung kita setujui saja. 00:02:37.768 --> 00:02:40.940 Berada pada gelembung filter membuat kita menjadi kurang menerima 00:02:40.940 --> 00:02:42.730 pandangan yang berbeda dengan kita. 00:02:42.780 --> 00:02:44.780 Ini bisa berdampak negatif pada demokrasi 00:02:44.880 --> 00:02:49.061 yang menuntut warga untuk mendengarkan satu sama lain dan menemukan titik temu. 00:02:49.710 --> 00:02:52.540 Memahami kenapa kita melihat apa yang kita lihat saat daring 00:02:52.540 --> 00:02:55.710 bisa membantu kita menjadi konsumen informasi yang lebih kritis. 00:02:55.710 --> 00:02:57.988 Lini masa kita tak pernah memberi gambaran utuh. 00:02:57.988 --> 00:03:00.230 Jadi, kita perlu membiasakan diri mencari berita 00:03:00.230 --> 00:03:02.668 dan informasi dari berbagai sumber. 00:03:03.832 --> 00:03:07.110 Terjemahan takarir oleh Ary Nuansa Ulasan oleh Reno Kanti R