1 00:00:03,634 --> 00:00:07,363 [Di balik layar: Siapa yang menentukan apa yang kulihat secara online?] 2 00:00:08,376 --> 00:00:09,526 Hai, aku Taylor. 3 00:00:09,526 --> 00:00:11,778 Aku mempelajari internet dan jurnalisme 4 00:00:11,778 --> 00:00:16,077 serta cara kita sebagai masyarakat menerima informasi tentang dunia. 5 00:00:17,389 --> 00:00:19,628 Di masa lalu, ketika orang mendapat informasi, 6 00:00:19,628 --> 00:00:22,828 sebagian besar informasi tersebut ditentukan oleh orang itu sendiri. 7 00:00:22,828 --> 00:00:25,381 Manusia yang memutuskan apa yang perlu diketahui. 8 00:00:25,560 --> 00:00:28,550 Jadi, ketika kita membuka koran atau menyalakan berita malam, 9 00:00:28,550 --> 00:00:32,570 orang itulah yang memutuskan apa yang didengar dan lihat. 10 00:00:33,240 --> 00:00:36,546 Hasilnya, kita semua tahu hal serupa. 11 00:00:38,059 --> 00:00:40,742 Sekarang, internet mengubah segalanya. 12 00:00:41,090 --> 00:00:43,904 Ketika kalian online atau membuka aplikasi, 13 00:00:44,504 --> 00:00:47,224 apa yang kalian lihat bukan ditentukan oleh seseorang 14 00:00:47,489 --> 00:00:48,710 tapi oleh mesin. 15 00:00:49,589 --> 00:00:51,820 Ini sangat menakjubkan dalam banyak hal: 16 00:00:51,984 --> 00:00:54,053 Itu memungkinkanmu menggunakan Google Maps; 17 00:00:54,053 --> 00:00:56,523 memungkinkanmu untuk memesan makanan secara online 18 00:00:56,523 --> 00:01:00,162 memungkinkanmu untuk terhubung dengan teman di seluruh dunia 19 00:01:00,162 --> 00:01:01,870 dan berbagi informasi... 20 00:01:02,290 --> 00:01:04,911 Namun, ada aspek dari mesin 21 00:01:05,221 --> 00:01:07,511 yang harus kita pikirkan dengan matang, 22 00:01:07,741 --> 00:01:11,618 karena mereka menentukan semua informasi yang kita terima 23 00:01:11,793 --> 00:01:15,050 sebagai warga negara dalam masyarakat dan demokrasi. 24 00:01:15,489 --> 00:01:17,029 Jadi, saat kamu membuka aplikasi 25 00:01:17,179 --> 00:01:20,531 dan kamu diperlihatkan sebuah gambar dari snapchatmu 26 00:01:20,764 --> 00:01:24,420 semua informasi itu ditentukan oleh mesin 27 00:01:24,465 --> 00:01:28,951 dan mesin itu digerakkan oleh insentif perusahaan 28 00:01:28,951 --> 00:01:32,251 yang memiliki situs web atau yang memiliki aplikasi 29 00:01:32,684 --> 00:01:36,680 dan insentifnya untukmu menghabiskan waktu sebanyak mungkin 30 00:01:36,680 --> 00:01:38,080 di dalam aplikasi itu 31 00:01:38,680 --> 00:01:42,087 Jadi mereka melakukan hal yang membuatmu merasa betah berada di sana. 32 00:01:42,250 --> 00:01:44,553 Mereka memungkinkan orang menyukai fotomu 33 00:01:44,975 --> 00:01:47,943 Mereka menunjukkan konten yang menurutnya kamu menyukainya 34 00:01:48,066 --> 00:01:50,850 Itu akan membuatmu sangat senang atau sangat marah 35 00:01:50,850 --> 00:01:53,880 itu akan memikatmu agar kamu tetap di sana 36 00:01:54,260 --> 00:01:57,173 Itu karena mereka ingin menampilkan banyak iklan padamu 37 00:01:57,173 --> 00:01:58,173 Saat kamu di sana 38 00:01:58,173 --> 00:02:00,160 karena itu adalah model bisnis mereka 39 00:02:00,897 --> 00:02:04,414 Mereka juga menyediakan peluang untukmu, agar tetap di aplikasi mereka 40 00:02:04,414 --> 00:02:06,140 untuk mengumpulkan data tentangmu 41 00:02:06,370 --> 00:02:08,005 dan mereka menggunakan data itu 42 00:02:08,005 --> 00:02:11,553 untuk menciptakan detail profil hidupmu dan perilakumu, 43 00:02:11,845 --> 00:02:13,924 dan profil itu kemudian digunakan 44 00:02:13,924 --> 00:02:16,930 untuk menargetkan lebih banyak iklan padamu 45 00:02:17,200 --> 00:02:19,700 dan itu menentukan apa yang kamu lihat juga 46 00:02:21,470 --> 00:02:25,170 tapi semua itu tidak hanya tentang model bisnis perusahaan itu 47 00:02:25,614 --> 00:02:28,277 Sebenarnya itu berdampak pada demokrasi kita 48 00:02:28,735 --> 00:02:34,509 karena apa yang masing-masing kita lihat di internet sudah disesuaikan 49 00:02:34,990 --> 00:02:36,183 pada apa yang kita suka 50 00:02:36,453 --> 00:02:37,843 pada apa yang kita percaya 51 00:02:38,253 --> 00:02:41,203 pada apa yang ingin kita lihat atau ingin percaya 52 00:02:41,523 --> 00:02:43,498 dan itu berarti sebagai masyarakat 53 00:02:43,756 --> 00:02:47,500 kita tidak lagi memiliki seperangkat pengetahuan bersama 54 00:02:47,500 --> 00:02:50,197 Yang sulit bagi demokrasi yang mengharuskan kita 55 00:02:50,197 --> 00:02:52,621 untuk bekerjasama dan mengetahui hal yang sama 56 00:02:52,851 --> 00:02:55,171 untuk membuat keputusan tentang kehidupan bersama 57 00:02:55,391 --> 00:02:57,030 Ketika kita tahu hal yang berbeda 58 00:02:57,030 --> 00:03:01,059 dan kita dibungkam oleh gelembung kecil informasi kita sendiri 59 00:03:01,567 --> 00:03:04,860 Itu luar biasa sulit bagi kita untuk bergaul satu sama lain 60 00:03:04,860 --> 00:03:07,670 Kita tidak punya pengalaman atau pengetahuan untuk dibagi 61 00:03:08,241 --> 00:03:11,335 Aku pikir itu sangat penting bahwa kita harus berpikir kritis 62 00:03:11,545 --> 00:03:13,897 tentang informasi yang kita terima secara online 63 00:03:14,247 --> 00:03:17,167 dan tentang perusahaan dan struktur yang menentukan 64 00:03:17,337 --> 00:03:19,455 apa yang kita lihat di internet 65 00:03:21,504 --> 00:03:24,702 [NewsWise adalah proyek CIVIX& Yayasan Jurnalisme Kanada] 66 00:03:25,172 --> 00:03:27,595 Terjemahan oleh TJ Mon Ami