1 00:00:00,910 --> 00:00:02,183 Beberapa tahun lalu, 2 00:00:02,207 --> 00:00:07,119 saya naik pesawat bersama putra saya yang saat itu berusia lima tahun. 3 00:00:08,245 --> 00:00:13,340 Ia sangat gembira bisa naik pesawat dengan Ibunya. 4 00:00:13,364 --> 00:00:16,304 Ia melihat sekeliling, memerhatikan segala sesuatu 5 00:00:16,328 --> 00:00:17,794 dan memerhatikan semua orang. 6 00:00:17,794 --> 00:00:19,818 Lalu ia melihat seorang pria, dan berkata, 7 00:00:19,842 --> 00:00:22,703 "Bu, pria itu mirip Ayah!" 8 00:00:23,882 --> 00:00:25,802 Saya melihat pria tadi, 9 00:00:25,826 --> 00:00:29,556 dan dia tak mirip sama sekali dengan suami saya, 10 00:00:29,580 --> 00:00:30,949 sama sekali. 11 00:00:31,461 --> 00:00:33,797 Kemudian saya pun melihat sekeliling di pesawat, 12 00:00:33,821 --> 00:00:39,706 dan saya sadar pria tadi adalah satu-satunya pria kulit hitam di sana. 13 00:00:40,874 --> 00:00:42,286 Saya berpikir, 14 00:00:42,310 --> 00:00:43,504 "Baiklah. 15 00:00:44,369 --> 00:00:46,894 Saya harus menasihati putra saya 16 00:00:46,918 --> 00:00:49,847 bahwa tak semua orang kulit hitam tampak serupa." 17 00:00:49,871 --> 00:00:54,248 Putra saya mendongakkan kepala, lalu berkata pada saya, 18 00:00:56,246 --> 00:00:58,617 "Semoga dia tak membajak pesawat ini." 19 00:00:59,359 --> 00:01:01,874 Saya pun berkata, "Apa? Apa katamu?" 20 00:01:01,898 --> 00:01:05,326 Ia menjawab, "Semoga pria itu tidak membajak pesawat ini." 21 00:01:07,200 --> 00:01:09,952 Saya bilang, "Kenapa kau berkata begitu? 22 00:01:10,486 --> 00:01:13,149 Kau tahu Ayah tak akan membajak pesawat." 23 00:01:13,173 --> 00:01:15,485 Ia menjawab, "Ya, ya, aku tahu." 24 00:01:15,729 --> 00:01:18,306 Saya bertanya, "Kenapa tadi kau berkata begitu?" 25 00:01:20,346 --> 00:01:23,303 Dia menatap saya dengan raut muka sedih, 26 00:01:24,168 --> 00:01:25,422 lalu dia berkata, 27 00:01:26,890 --> 00:01:28,996 "Aku tak tahu kenapa aku bilang begitu. 28 00:01:30,600 --> 00:01:32,958 Aku tak tahu kenapa berpikir begitu." 29 00:01:33,724 --> 00:01:37,242 Kita hidup dalam stratifikasi rasial yang begitu parah 30 00:01:37,266 --> 00:01:42,326 hingga anak berusia lima tahun bisa memberi tahu apa yang seharusnya terjadi, 31 00:01:43,990 --> 00:01:46,097 bahkan tanpa adanya penjahat, 32 00:01:46,121 --> 00:01:48,700 tanpa adanya kebencian eksplisit. 33 00:01:50,184 --> 00:01:54,097 Kaitan antara orang kulit hitam dan kejahatan 34 00:01:54,121 --> 00:01:58,455 merasuk pikiran putra saya yang baru berusia lima tahun. 35 00:01:59,787 --> 00:02:03,050 Gagasan itu mencapai anak-anak kita, 36 00:02:04,201 --> 00:02:05,592 mencapai kita semua. 37 00:02:06,793 --> 00:02:10,317 Pikiran kita terbentuk oleh perbedaan rasial 38 00:02:10,341 --> 00:02:11,933 yang kita lihat di dunia 39 00:02:12,752 --> 00:02:18,093 dan narasi yang membantu kita memahami perbedaan tersebut berupa: 40 00:02:19,637 --> 00:02:22,163 "Mereka adalah penjahat." 41 00:02:22,187 --> 00:02:24,112 "Mereka suka kekerasan." 42 00:02:24,136 --> 00:02:27,101 "Mereka menakutkan." 43 00:02:27,814 --> 00:02:30,685 Saat tim peneliti saya membawa orang-orang ke lab kami 44 00:02:30,845 --> 00:02:33,336 dan menunjukkan mereka pada beberapa gambar wajah, 45 00:02:33,336 --> 00:02:40,336 kami mendapati wajah kulit hitam membuat mereka melihat gambar senjata yang buram 46 00:02:40,360 --> 00:02:43,616 dengan lebih jelas dan cepat. 47 00:02:43,640 --> 00:02:46,994 Prasangka tak hanya mengontrol apa yang kita lihat, 48 00:02:47,018 --> 00:02:48,666 tetapi ke mana kita melihat. 49 00:02:48,690 --> 00:02:52,134 Kami mendapati bahwa mendorong seseorang memikirkan aksi kekerasan 50 00:02:52,158 --> 00:02:56,454 bisa membuat mereka mengarahkan mata ke arah gambar wajah kulit hitam 51 00:02:56,478 --> 00:02:58,608 dan menjauhi gambar wajah kulit putih. 52 00:02:58,632 --> 00:03:02,474 Mendorong polisi untuk memikirkan penangkapan dan penembakan 53 00:03:02,498 --> 00:03:03,727 serta penahanan 54 00:03:03,751 --> 00:03:07,610 membuat mereka melihat ke arah wajah kulit hitam pula. 55 00:03:07,634 --> 00:03:12,700 Prasangka bisa memengaruhi segala aspek sistem peradilan pidana kita. 56 00:03:13,100 --> 00:03:16,031 Dalam satu kumpulan besar data terdakwa hukuman mati, 57 00:03:16,031 --> 00:03:20,412 kami mendapati semakin hitam kulitnya maka semakin tinggi peluangnya 58 00:03:20,412 --> 00:03:22,493 untuk dihukum mati -- 59 00:03:23,494 --> 00:03:25,921 setidaknya jika korbannya adalah orang kulit putih. 60 00:03:25,921 --> 00:03:27,383 Efek ini signifikan, 61 00:03:27,383 --> 00:03:30,708 walau kita diatur atas beratnya kejahatan 62 00:03:30,708 --> 00:03:33,013 dan daya tarik terdakwa. 63 00:03:33,013 --> 00:03:35,686 Tak peduli apa pun aturannya, 64 00:03:35,686 --> 00:03:39,055 kami mendapati orang kulit hitam dihukum 65 00:03:39,079 --> 00:03:43,404 atas kadar kehitaman sosok fisiknya: 66 00:03:43,404 --> 00:03:45,309 semakin hitam, 67 00:03:45,309 --> 00:03:47,086 semakin pantas dihukum mati. 68 00:03:47,086 --> 00:03:51,319 Prasangka juga dapat memengaruhi cara para guru mendisiplinkan siswanya. 69 00:03:51,781 --> 00:03:56,188 Saya dan kolega saya mendapati para guru memiliki keinginan 70 00:03:56,212 --> 00:03:59,478 untuk menghukum lebih keras seorang siswa SMP berkulit hitam 71 00:03:59,492 --> 00:04:00,970 daripada siswa berkulit putih 72 00:04:00,994 --> 00:04:03,570 untuk pelanggaran berulang yang sama. 73 00:04:03,594 --> 00:04:04,888 Dalam studi terbaru, 74 00:04:04,912 --> 00:04:09,270 para guru memperlakukan siswa kulit hitam sebagai sebuah kelompok 75 00:04:09,294 --> 00:04:11,725 tetapi siswa kulit putih sebagai individu. 76 00:04:12,126 --> 00:04:15,725 Contohnya, jika seorang siswa kulit hitam melanggar aturan 77 00:04:15,749 --> 00:04:20,534 lalu seorang siswa berkulit hitam lainnya berbuat sama beberapa hari kemudian, 78 00:04:20,558 --> 00:04:23,786 guru akan merespons siswa yang kedua itu 79 00:04:23,810 --> 00:04:26,435 seolah dia sudah dua kali melanggar aturan. 80 00:04:26,952 --> 00:04:29,763 Seakan-akan dosa seorang anak 81 00:04:29,787 --> 00:04:31,963 terkumpul ke anak lainnya. 82 00:04:31,987 --> 00:04:35,281 Kita membuat kategori untuk memahami dunia, 83 00:04:35,305 --> 00:04:39,788 untuk menerapkan semacam aturan dan keselarasan 84 00:04:39,788 --> 00:04:43,902 atas stimulan yang terus merongrong kita. 85 00:04:43,902 --> 00:04:47,894 Kategorisasi dan prasangka yang terpupuk 86 00:04:47,894 --> 00:04:52,940 membuat otak kita menilai dengan lebih cepat dan efisien, 87 00:04:52,940 --> 00:04:56,366 dan kita melakukannya secara naluriah berdasarkan pola 88 00:04:56,366 --> 00:04:58,059 yang tampak bisa ditebak. 89 00:04:58,059 --> 00:05:04,026 Namun, kategori tadi tak hanya membuat kita bisa mengambil keputusan cepat, 90 00:05:04,026 --> 00:05:06,552 tetapi juga memperkuat prasangka. 91 00:05:06,552 --> 00:05:09,968 Jadi hal-hal yang membantu kita melihat dunia 92 00:05:11,104 --> 00:05:13,084 juga dapat membutakan kita. 93 00:05:13,509 --> 00:05:16,287 Mereka mempermudah pilihan kita, 94 00:05:16,287 --> 00:05:17,680 bebas perselisihan. 95 00:05:18,956 --> 00:05:21,401 Namun dampaknya pun berat. 96 00:05:22,158 --> 00:05:23,809 Lalu apa yang bisa kita lakukan? 97 00:05:24,507 --> 00:05:26,998 Kita semua rentan terhadap prasangka, 98 00:05:27,002 --> 00:05:29,702 tetapi kita tak selalu bertindak berdasar prasangka. 99 00:05:29,702 --> 00:05:33,370 Ada kondisi tertentu yang dapat memicu prasangka 100 00:05:33,394 --> 00:05:35,927 dan kondisi lain yang dapat meredamnya. 101 00:05:35,951 --> 00:05:37,798 Saya beri contoh. 102 00:05:38,663 --> 00:05:43,223 Banyak orang mengenal perusahaan teknologi Nextdoor. 103 00:05:44,073 --> 00:05:50,526 Mereka ingin menciptakan lingkungan yang lebih kuat, sehat, dan aman. 104 00:05:51,468 --> 00:05:54,389 Jadi mereka menawarkan ruang online 105 00:05:54,389 --> 00:05:57,562 tempat warga bisa berkumpul dan berbagi informasi. 106 00:05:57,586 --> 00:06:01,712 Namun, kemudian Nextdoor menemui masalah 107 00:06:01,736 --> 00:06:03,404 dengan pemrofilan rasial. 108 00:06:04,012 --> 00:06:05,979 Dalam kasus biasanya, 109 00:06:06,003 --> 00:06:08,399 ketika orang melihat ke luar jendela 110 00:06:08,423 --> 00:06:12,472 dan melihat seorang lelaki kulit hitam di lingkungan warga kulit putih 111 00:06:12,496 --> 00:06:17,211 lalu segera menarik kesimpulan bahwa ia bermaksud jahat, 112 00:06:17,235 --> 00:06:20,586 bahkan tanpa ada bukti tindak kejahatan. 113 00:06:20,610 --> 00:06:23,544 Dalam banyak hal, perilaku kita di dunia maya 114 00:06:23,544 --> 00:06:26,682 adalah cerminan perilaku kita di dunia nyata. 115 00:06:27,117 --> 00:06:31,062 Namun kita tak ingin menciptakan sebuah sistem sederhana 116 00:06:31,062 --> 00:06:35,249 yang dapat memperkuat prasangka dan memperdalam perbedaan rasial, 117 00:06:36,129 --> 00:06:38,395 alih-alih melenyapkannya. 118 00:06:38,863 --> 00:06:42,292 Jadi, pendiri Nextdoor menghubungi saya dan pihak lainnya 119 00:06:42,316 --> 00:06:44,447 untuk mencari jalan keluar. 120 00:06:44,471 --> 00:06:48,417 Mereka sadar bahwa untuk membatasi pemrofilan rasial di platform itu, 121 00:06:48,441 --> 00:06:50,363 mereka harus menambahkan friksi; 122 00:06:50,387 --> 00:06:53,045 mereka akan memperlambat para penggunanya. 123 00:06:53,069 --> 00:06:55,264 Jadi Nextdoor harus membuat pilihan, 124 00:06:55,288 --> 00:06:57,766 dan melawan segala dorongan, 125 00:06:57,790 --> 00:06:59,906 mereka memutuskan untuk menambahkan friksi. 126 00:07:00,397 --> 00:07:03,837 Mereka melakukannya dengan menambah daftar cek sederhana. 127 00:07:03,861 --> 00:07:05,531 Isinya ada tiga butir. 128 00:07:06,111 --> 00:07:09,052 Pertama, mereka meminta pengguna berhenti sejenak 129 00:07:09,052 --> 00:07:14,193 dan berpikir, "Apa yang dilakukan orang ini sehingga dia mencurigakan?" 130 00:07:14,876 --> 00:07:19,409 Kategori "pria kulit hitam" bukan alasan untuk curiga. 131 00:07:19,433 --> 00:07:24,572 Kedua, mereka meminta pengguna menggambarkan sosok fisik orang tersebut, 132 00:07:24,596 --> 00:07:27,031 bukan hanya ras dan jenis kelaminnya. 133 00:07:27,642 --> 00:07:31,025 Ketiga, mereka sadar ada banyak orang 134 00:07:31,025 --> 00:07:33,977 yang tak tahu apa itu pemrofilan rasial, 135 00:07:33,977 --> 00:07:35,960 atau bahwa mereka terlibat di dalamnya. 136 00:07:36,462 --> 00:07:39,656 Jadi Nextdoor memberikan definisi 137 00:07:39,680 --> 00:07:42,582 dan menegaskan bahwa hal tersebut dilarang. 138 00:07:43,071 --> 00:07:45,683 Banyak dari Anda sudah melihat tanda ini di bandara 139 00:07:45,683 --> 00:07:49,409 dan di banyak stasiun MRT, "Berkatalah jika kau melihat sesuatu." 140 00:07:49,928 --> 00:07:52,742 Nextdoor berusaha mengubahnya. 141 00:07:53,584 --> 00:07:56,156 "Jika kau melihat sesuatu yang mencurigakan, 142 00:07:56,180 --> 00:07:58,253 berkatalah dengan spesifik." 143 00:07:59,491 --> 00:08:03,937 Menggunakan strategi ini, yang memperlambat penggunanya, 144 00:08:03,937 --> 00:08:09,652 Nextdoor berhasil memangkas pemrofilan rasial sebanyak 75 persen. 145 00:08:10,496 --> 00:08:12,586 Orang-orang sering berkata pada saya, 146 00:08:12,610 --> 00:08:17,323 "Anda tak bisa menambahkan friksi di segala situasi dan konteks, 147 00:08:17,323 --> 00:08:21,993 khususnya bagi mereka yang selalu mengambil keputusan kilat." 148 00:08:22,730 --> 00:08:25,293 Namun nyatanya, kita bisa menambahkan friksi 149 00:08:25,317 --> 00:08:27,593 ke lebih banyak situasi dari yang kita kira. 150 00:08:28,031 --> 00:08:30,105 Bersama Departemen Kepolisian Oakland 151 00:08:30,129 --> 00:08:31,546 di California, 152 00:08:31,570 --> 00:08:35,426 saya dan sejumlah kolega berhasil membantu mereka 153 00:08:35,450 --> 00:08:38,121 mengurangi jumlah penghentian 154 00:08:38,145 --> 00:08:41,745 dari orang-orang yang tidak melakukan pelanggaran hukum serius. 155 00:08:41,769 --> 00:08:44,134 Kami melakukannya dengan mendorong petugas 156 00:08:44,134 --> 00:08:48,601 untuk berpikir sebelum menghentikan seseorang: 157 00:08:49,451 --> 00:08:52,466 "Apakah penghentian ini berbasis data intelijen, 158 00:08:52,490 --> 00:08:53,941 ya atau tidak?" 159 00:08:55,353 --> 00:08:56,749 Dengan kata lain, 160 00:08:57,621 --> 00:09:02,105 apakah saya punya cukup informasi untuk mengaitkan orang ini 161 00:09:02,129 --> 00:09:03,730 dengan tindak kejahatan tertentu? 162 00:09:04,587 --> 00:09:06,045 Dengan menambahkan ini 163 00:09:06,069 --> 00:09:09,148 ke formulir yang diisi petugas saat penghentian, 164 00:09:09,172 --> 00:09:11,239 mereka melambat, mereka berhenti sejenak, 165 00:09:11,239 --> 00:09:15,225 mereka berpikir, "Kenapa saya ingin menghentikan orang ini?" 166 00:09:16,721 --> 00:09:22,282 Tahun 2017, sebelum kami menambahkan pertanyaan intelijen itu ke formulir, 167 00:09:23,655 --> 00:09:27,601 petugas kepolisian melakukan 32.000 penghentian di seluruh kota. 168 00:09:27,625 --> 00:09:31,740 Tahun berikutnya, dengan penambahan pertanyaan tadi, 169 00:09:31,764 --> 00:09:34,208 jumlah itu turun menjadi 19.000 penghentian. 170 00:09:34,232 --> 00:09:39,193 Penghentian orang Afrika-Amerika sendiri turun 43 persen. 171 00:09:39,905 --> 00:09:44,343 Menghentikan lebih sedikit orang kulit hitam tak membuat kota lebih berbahaya. 172 00:09:44,367 --> 00:09:46,801 Bahkan, tingkat kejahatan terus menurun, 173 00:09:46,801 --> 00:09:50,462 dan kota jadi lebih aman untuk semua orang 174 00:09:50,486 --> 00:09:55,841 Jadi, satu solusi muncul dari mengurangi jumlah penghentian tak perlu. 175 00:09:56,285 --> 00:10:00,555 Yang lainnya dari peningkatan kualitas penghentian 176 00:10:00,579 --> 00:10:01,884 yang dilakukan polisi. 177 00:10:02,512 --> 00:10:05,108 Teknologi dapat berperan di sini. 178 00:10:05,132 --> 00:10:07,547 Kita semua tahu tentang kematian George Floyd, 179 00:10:08,499 --> 00:10:13,271 karena mereka yang mencoba menolong menggunakan kamera ponselnya 180 00:10:13,295 --> 00:10:18,726 untuk merekam pertemuan mengerikan dan mematikan dengan polisi itu. 181 00:10:18,750 --> 00:10:23,781 Namun kita punya banyak teknologi yang tidak dimanfaatkan dengan baik. 182 00:10:23,805 --> 00:10:26,308 Departemen kepolisian di seluruh negeri 183 00:10:26,332 --> 00:10:29,885 kini diwajibkan menggunakan kamera tubuh 184 00:10:29,909 --> 00:10:35,839 jadi kita punya rekaman tak hanya dari pertemuan ekstrim dan mengerikan 185 00:10:35,863 --> 00:10:38,337 tetapi juga interaksi sehari-hari. 186 00:10:38,337 --> 00:10:41,418 Bersama kelompok interdisipliner di Stanford 187 00:10:41,442 --> 00:10:44,129 kami mulai menggunakan teknik pembelajaran mesin 188 00:10:44,153 --> 00:10:47,520 untuk menganalisa sejumlah besar pertemuan. 189 00:10:47,544 --> 00:10:52,155 Ini untuk memahami apa yang terjadi di penghentian lalu lintas rutin. 190 00:10:52,179 --> 00:10:54,334 Yang kami temukan adalah 191 00:10:54,358 --> 00:10:58,020 bahkan jika polisi bertindak profesional, 192 00:10:58,860 --> 00:11:03,322 cara bicara mereka pada pengemudi kulit hitam tak seramah pada kulit putih. 193 00:11:04,052 --> 00:11:08,127 Malah, dari beberapa penggunaan katanya, 194 00:11:08,151 --> 00:11:13,313 kami dapat menebak mereka berbicara dengan kulit hitam atau kulit putih. 195 00:11:13,337 --> 00:11:19,099 Masalahnya, kebanyakan rekaman kamera ini 196 00:11:19,123 --> 00:11:21,210 tidak digunakan oleh departemen kepolisian 197 00:11:21,234 --> 00:11:23,510 untuk memahami apa yang terjadi di jalan 198 00:11:23,534 --> 00:11:25,777 atau untuk melatih polisi. 199 00:11:26,554 --> 00:11:28,012 Hal ini sangat disayangkan. 200 00:11:28,796 --> 00:11:33,585 Bagaimana sebuah penghentian rutin bisa jadi mematikan? 201 00:11:33,609 --> 00:11:36,279 Bagaimana ini terjadi pada kasus George Floyd? 202 00:11:37,588 --> 00:11:39,670 Bagaimana ini terjadi pada orang lain? 203 00:11:39,694 --> 00:11:43,090 Ketika putra tertua saya berusia 16 tahun, 204 00:11:43,114 --> 00:11:46,253 dia menyadari saat orang kulit putih melihatnya, 205 00:11:46,277 --> 00:11:47,838 mereka ketakutan. 206 00:11:49,123 --> 00:11:51,784 Elevator adalah tempat terburuk, katanya. 207 00:11:52,313 --> 00:11:54,644 Saat pintunya tertutup, 208 00:11:54,668 --> 00:11:57,751 orang-orang terjebak dalam ruang kecil 209 00:11:57,775 --> 00:12:02,242 bersama seseorang yang diasosiasikan dengan bahaya. 210 00:12:02,744 --> 00:12:05,964 Anak saya merasakan ketidaknyamanan mereka, 211 00:12:05,988 --> 00:12:09,145 dan dia tersenyum untuk membuat mereka nyaman, 212 00:12:09,169 --> 00:12:10,938 untuk meredakan ketakutan mereka. 213 00:12:11,351 --> 00:12:13,296 Ketika dia berbicara, 214 00:12:13,320 --> 00:12:15,003 tubuh mereka menjadi rileks. 215 00:12:15,442 --> 00:12:17,345 Mereka bernapas lebih mudah. 216 00:12:17,369 --> 00:12:19,900 Mereka senang akan nada suaranya, 217 00:12:19,924 --> 00:12:22,241 diksinya, pilihan kata-katanya. 218 00:12:22,986 --> 00:12:24,829 Dia terdengar seperti mereka. 219 00:12:24,853 --> 00:12:29,583 Saya dulu mengira putra saya seorang ekstrover alami seperti ayahnya. 220 00:12:29,607 --> 00:12:33,157 Namun dalam percakapan itu saya sadar, 221 00:12:34,143 --> 00:12:39,221 senyumnya bukan karena ia ingin berkenalan 222 00:12:39,245 --> 00:12:41,209 dengan orang asing. 223 00:12:41,920 --> 00:12:45,572 Namun sebuah jimat yang dia pakai untuk melindungi dirinya sendiri, 224 00:12:45,596 --> 00:12:51,815 keterampilan bertahan hidup yang diasah dari ribuan kali naik elevator. 225 00:12:52,387 --> 00:12:57,558 Dia belajar meredakan ketegangan yang disebabkan warna kulitnya 226 00:12:59,026 --> 00:13:01,693 dan membuat nyawanya terancam. 227 00:13:02,249 --> 00:13:06,402 Kita tahu otak dirancang untuk berprasangka 228 00:13:06,426 --> 00:13:10,891 dan cara memutusnya adalah dengan berhenti sejenak dan menimbang 229 00:13:10,915 --> 00:13:13,220 bukti dari asumsi kita. 230 00:13:13,244 --> 00:13:14,999 Kita harus bertanya pada diri kita: 231 00:13:15,023 --> 00:13:19,688 Asumsi apa yang kita bawa saat memasuki elevator? 232 00:13:21,776 --> 00:13:23,087 Atau naik pesawat? 233 00:13:23,532 --> 00:13:28,131 Bagaimana kita menyadari prasangka bawah sadar kita? 234 00:13:28,155 --> 00:13:30,506 Siapa yang dijaga oleh asumsi itu? 235 00:13:32,615 --> 00:13:34,547 Siapa yang diancam olehnya? 236 00:13:35,649 --> 00:13:38,003 Sampai kita mempertimbangkan hal-hal ini 237 00:13:38,978 --> 00:13:43,602 dan mendesak sekolah, pengadilan, dan departemen kepolisian kita 238 00:13:43,626 --> 00:13:46,168 juga setiap institusi berbuat sama, 239 00:13:47,835 --> 00:13:51,664 kita akan terus membiarkan prasangka 240 00:13:51,688 --> 00:13:52,966 membutakan kita. 241 00:13:53,348 --> 00:13:54,757 Jika demikian, 242 00:13:56,066 --> 00:13:59,274 tak ada dari kita yang benar-benar aman. 243 00:14:02,103 --> 00:14:03,411 Terima kasih.