1 00:00:01,546 --> 00:00:04,386 [วิดีโอนี้มีเนื้อหาที่เหมาะกับผู้ใหญ่] 2 00:00:04,913 --> 00:00:09,365 Moritz Riesewieck: วันที่ 23 มีนาคม 2013 3 00:00:09,389 --> 00:00:13,446 ผู้ใช้ทั่วโลกพบว่าบนหน้านิวส์ฟีดของตน 4 00:00:14,415 --> 00:00:19,478 มีวิดีโอเด็กผู้หญิงถูกชายแก่ข่มขืน 5 00:00:19,478 --> 00:00:23,334 ก่อนที่วิดีโอนี้จะถูกลบออกจากเฟสบุ๊ค 6 00:00:23,358 --> 00:00:27,974 ก็มีการแชร์ไปแล้ว 16,000 ครั้ง 7 00:00:27,998 --> 00:00:31,640 และมีคนกดไลค์ถึง 4,000 ครั้ง 8 00:00:33,268 --> 00:00:36,931 วีดิโอนี้กลายเป็นกระแส ลามไปทั่วอินเตอร์เน็ต 9 00:00:37,873 --> 00:00:40,968 Hans Block: และนั่นเป็นตอนที่ เราถามตัวเองว่า 10 00:00:40,992 --> 00:00:43,770 เนื้อหาแบบนี้มาอยู่ในเฟสบุ๊คได้อย่างไร 11 00:00:43,794 --> 00:00:48,196 แต่ในเวลาเดียวกัน ทำไมเราถึงไม่ค่อยเห็นเนื้อหาแบบนี้บ่อยๆ 12 00:00:48,220 --> 00:00:51,903 ในเมื่อมีสื่อแย่ๆ เต็มโลกออนไลน์ไปหมด 13 00:00:51,927 --> 00:00:56,382 แต่ทำไมเราจึงไม่ค่อยเห็นขยะแบบนั้น ในเฟสบุ๊ค, ทวิตเตอร์ หรือกูเกิล ล่ะ 14 00:00:56,958 --> 00:00:59,030 MR: แม้ซอฟต์แวร์จดจำใบหน้า 15 00:00:59,223 --> 00:01:03,506 จะระบุรูปทรงอวัยวะที่เกี่ยวกับเพศ 16 00:01:03,530 --> 00:01:08,458 เลือดหรือการเปลือยในรูปและวิดีโอได้ 17 00:01:08,482 --> 00:01:14,022 แต่กลับมีปัญหาในการแยกแยะ เนื้อหาลามก 18 00:01:14,046 --> 00:01:18,394 ออกจากภาพวันหยุด รูปปั้นอโดนิส 19 00:01:18,418 --> 00:01:21,116 หรือแคมเปญตรวจคัดกรองมะเร็งเต้านม 20 00:01:21,140 --> 00:01:25,395 มันไม่สามารถแยกแยะโรมิโอกับจูเลียต ที่ตายบนเวที 21 00:01:25,419 --> 00:01:27,974 จากการโดนแทงจริงๆ 22 00:01:27,998 --> 00:01:33,220 มันไม่สามารถแยกแยะการเสียดสีออกจาก การโฆษณาชวนเชื่อ 23 00:01:33,244 --> 00:01:37,212 หรือการประชดออกจากความเกลียดชังจริงๆ แล้วก็อีกหลายอย่าง 24 00:01:38,077 --> 00:01:42,155 ดังนั้น จึงต้องมีคนที่คอยตัดสิน 25 00:01:42,179 --> 00:01:46,180 ว่าเนื้อหาน่าสงสัยอันไหนควรลบทิ้ง 26 00:01:46,204 --> 00:01:47,804 และอันไหนควรเก็บไว้ 27 00:01:48,909 --> 00:01:51,720 กลุ่มคนที่เราแทบไม่รู้จักเลย 28 00:01:51,744 --> 00:01:53,611 เพราะการทำงานที่เป็นความลับ 29 00:01:54,053 --> 00:01:55,958 พวกเขาเซ็นข้อตกลงห้ามเปิดเผยข้อมูล 30 00:01:55,982 --> 00:01:58,935 ที่ห้ามพูดหรือแชร์ข้อมูล 31 00:01:58,959 --> 00:02:02,544 ที่เห็นบนหน้าจอตัวเอง หรือว่างานนี้ทำให้พวกเขาเป็นอย่างไร 32 00:02:02,887 --> 00:02:07,157 พวกเขาถูกบังคับให้ใช้โค้ดลับ เพื่อปิดบังว่าตนทำงานให้ใคร 33 00:02:07,585 --> 00:02:10,490 พวกเขาถูกจับตา จากบริษัทรักษาความปลอดภัยเอกชน 34 00:02:10,514 --> 00:02:14,024 เพื่อให้แน่ใจว่า จะไม่ไปพูดกับนักข่าว 35 00:02:14,048 --> 00:02:17,587 และจะต้องเสียค่าปรับ ถ้าเกิดทำอย่างนั้น 36 00:02:18,421 --> 00:02:22,183 ทั้งหมดนี้ฟังดูเหมือน อาชญากรรมแปลกๆ 37 00:02:22,207 --> 00:02:23,537 แต่เป็นเรื่องจริงครับ 38 00:02:23,561 --> 00:02:25,053 คนเหล่านี้มีตัวตนจริง 39 00:02:25,633 --> 00:02:29,814 และเรียกกันว่าผู้คัดกรองเนื้อหา 40 00:02:30,942 --> 00:02:34,387 HB: เราเป็นผู้กำกับภาพยนตร์ สารคดีความยาวปานกลางเรื่อง "The Cleaners" 41 00:02:34,411 --> 00:02:36,371 และอยากพาคุณ 42 00:02:36,395 --> 00:02:38,982 เข้าสู่โลกที่หลายๆ คนอาจยังไม่รู้จัก 43 00:02:39,006 --> 00:02:41,139 มาดูคลิปสั้นๆ จากหนังของเรากันครับ 44 00:02:46,639 --> 00:02:50,259 (เสียงดนตรี) 45 00:02:52,400 --> 00:02:56,086 (วิดีโอ) ผู้คัดกรอง:ฉันเปิดเผยตัวตนไม่ได้ เพราะว่าเซ็นสัญญาไว้ 46 00:02:57,784 --> 00:03:01,405 เราเปิดเผยไม่ได้ว่าทำงานกับใคร 47 00:03:02,807 --> 00:03:04,570 เหตุผลที่ฉันบอกคุณ 48 00:03:04,594 --> 00:03:08,974 เพราะโลกควรได้รู้ว่ายังมีพวกเราอยู่ 49 00:03:10,544 --> 00:03:13,347 มีคนที่คอยตรวจสอบ โซเชียลมีเดียอยู่ 50 00:03:14,317 --> 00:03:17,921 เราตั้งใจทำงานสุดความสามารถ เพื่อให้แพลตฟอร์มนี้ 51 00:03:17,945 --> 00:03:19,735 ปลอดภัยสำหรับทุกคน 52 00:03:30,438 --> 00:03:31,588 ลบ 53 00:03:32,278 --> 00:03:33,572 ข้าม 54 00:03:33,596 --> 00:03:34,746 ลบ 55 00:03:35,279 --> 00:03:36,576 ข้าม 56 00:03:36,600 --> 00:03:37,751 ลบ 57 00:03:38,680 --> 00:03:39,831 ข้าม 58 00:03:39,855 --> 00:03:41,005 ข้าม 59 00:03:41,625 --> 00:03:42,775 ลบ 60 00:03:46,030 --> 00:03:48,007 HB: กลุ่มคนที่เรียกว่าผู้คัดกรองเนื้อหา 61 00:03:48,031 --> 00:03:52,031 ไม่ได้รับรายได้จากเฟสบุ๊ค, ทวิตเตอร์ หรือกูเกิล โดยตรง 62 00:03:52,055 --> 00:03:54,372 แต่จากบริษัทจัดจ้างภายนอกทั่วโลก 63 00:03:54,396 --> 00:03:56,463 เพื่อให้ค่าจ้างต่ำ 64 00:03:56,833 --> 00:03:58,800 คนหนุ่มสาวหลายหมื่นคน 65 00:03:58,824 --> 00:04:02,037 ซึ่งเห็นทุกสิ่งที่เราไม่ควรเห็น 66 00:04:02,061 --> 00:04:05,609 ทั้งการฆ่าตัดคอ การตัดแขนขา 67 00:04:05,633 --> 00:04:09,329 การประหารชีวิต การร่วมเพศกับศพ การทรมาน การทารุณเด็ก 68 00:04:09,743 --> 00:04:12,017 นับพันรูปในหนึ่งกะ 69 00:04:12,041 --> 00:04:14,956 ลบ ข้าม ทั้งกลางวันกลางคืน 70 00:04:15,393 --> 00:04:18,791 งานส่วนใหญ่ดำเนินการในมะนิลา 71 00:04:18,815 --> 00:04:22,117 ที่ที่มีการขนส่งขยะอิเล็กทรอนิกส์มีพิษ 72 00:04:22,141 --> 00:04:24,749 มาจากโลกตะวันตกเป็นเวลาหลายปี ทางเรือขนส่ง 73 00:04:24,773 --> 00:04:28,776 ซึ่งตอนนี้เป็นการทิ้งขยะ ผ่านทางสายไฟเบอร์ออปติก 74 00:04:28,800 --> 00:04:31,847 หน้าที่ของพวกเขาไม่ต่างจากคนเก็บขยะ 75 00:04:31,871 --> 00:04:35,347 ที่คุ้ยอยู่เหนือขยะกองมหึมา ใกล้เมือง 76 00:04:35,371 --> 00:04:40,204 ผู้คัดกรองเนื้อหาก็คลิกไปบน มหาสมุทรแห่งสารพิษอันไร้ที่สิ้นสุด 77 00:04:40,228 --> 00:04:44,315 ทั้งรูปภาพ วิดีโอ และขยะที่ประดิษฐ์ขึ้น ทุกรูปแบบ 78 00:04:44,339 --> 00:04:46,641 เพื่อให้เราไม่ต้องเห็นมัน 79 00:04:46,665 --> 00:04:50,205 MR: แต่บาดแผลของผู้คัดกรอง 80 00:04:50,229 --> 00:04:53,680 ไม่เหมือนกับของคนเก็บขยะ ตรงที่มันมองไม่เห็น 81 00:04:54,117 --> 00:04:57,197 เนื้อหาทั้งรูปภาพและวิดีโอ 82 00:04:57,221 --> 00:05:00,484 ที่ชวนผวาและรบกวนใจทั้งหลาย ซุกซ่อนในความทรงจำของพวกเขา 83 00:05:00,508 --> 00:05:03,953 และอาจส่งผลที่คาดเดาไม่ได้ทุกเวลา 84 00:05:03,977 --> 00:05:07,334 ทั้งอาการกินผิดปกติ หมดความรู้สึกทางเพศ 85 00:05:07,358 --> 00:05:10,617 อาการวิตกกังวล ติดเหล้า 86 00:05:10,641 --> 00:05:13,553 ซึมเศร้า กระทั่งนำไปสู่ การฆ่าตัวตาย 87 00:05:14,100 --> 00:05:16,545 รูปภาพและวิดีโอพวกนั้น ส่งผลต่อพวกเขา 88 00:05:16,569 --> 00:05:18,958 และมักไม่มีทางหายไปไหน 89 00:05:18,982 --> 00:05:23,823 หากโชคร้าย พวกเขาก็อาจมี ภาวะผิดปกติทางจิตใจจากเหตุการณ์รุนแรง 90 00:05:23,847 --> 00:05:26,047 เหมือนทหารที่เพิ่งกลับจากสงคราม 91 00:05:27,445 --> 00:05:31,088 ในหนังเรื่องนี้ เราเล่าเรื่อง ชายหนุ่มคนหนึ่ง 92 00:05:31,112 --> 00:05:36,310 ที่ต้องคอยตรวจสอบการไลฟ์วิดีโอ ทำร้ายตัวเองและการพยายามฆ่าตัวตาย 93 00:05:36,334 --> 00:05:38,009 ซ้ำแล้วซ้ำเล่า 94 00:05:38,033 --> 00:05:41,099 และท้ายที่สุดก็ฆ่าตัวตายเอง 95 00:05:41,787 --> 00:05:44,527 เท่าที่เรารู้ เรื่องนี้ไม่ใช่แค่กรณีเดียว 96 00:05:45,184 --> 00:05:49,164 นี่คือราคาที่เราทุกคนจ่าย 97 00:05:49,188 --> 00:05:54,515 ให้กับสิ่งที่เรียกว่า สภาพแวดล้อมในโซเชียลมีเดีย 98 00:05:54,539 --> 00:05:56,823 ที่สะอาด ปลอดภัย และ "ดีต่อจิตใจ" 99 00:05:58,482 --> 00:06:01,077 เราติดต่อกับคนนับล้านทั่วโลก 100 00:06:01,101 --> 00:06:04,433 ได้ง่ายขึ้นอย่างที่ไม่เคยมีมาก่อน ในประวัติศาสตร์ 101 00:06:04,457 --> 00:06:06,124 ด้วยเวลาเพียงไม่กี่วินาที 102 00:06:06,148 --> 00:06:10,093 สิ่งที่โพสต์ลงในโซเชียลมีเดีย แพร่ออกไปอย่างรวดเร็ว 103 00:06:10,117 --> 00:06:14,053 กลายเป็นกระแส และสร้างความตื่นเต้น ให้ผู้คนทั่วโลก 104 00:06:14,450 --> 00:06:16,514 ก่อนที่มันจะถูกลบ 105 00:06:16,538 --> 00:06:18,471 ก็มักสายเกินไปแล้ว 106 00:06:18,966 --> 00:06:21,196 ผู้คนนับล้านติดเชื้อ ความเกลียดชัง 107 00:06:21,220 --> 00:06:23,077 และความโกรธแค้นไปแล้ว 108 00:06:23,101 --> 00:06:25,831 แล้วพวกเขาก็มามีบทบาท ในโลกออนไลน์ 109 00:06:25,855 --> 00:06:28,998 ด้วยการแพร่หรือโหมกระพือ ความเกลียดชัง 110 00:06:29,022 --> 00:06:32,815 ไม่ก็ออกไปก่อความรุนแรง ตามท้องถนน 111 00:06:33,236 --> 00:06:35,776 HB: จึงต้องมีกองทัพผู้คัดกรองเนื้อหา 112 00:06:35,800 --> 00:06:39,695 นั่งประจำตรงหน้าจอเพื่อเลี่ยงไม่ให้เกิด ความเสียหายในแบบเดียวกันอีก 113 00:06:40,434 --> 00:06:42,553 และพวกเขาต้องตัดสินใจ ให้เร็วที่สุด 114 00:06:42,577 --> 00:06:46,672 ว่าเนื้อหานั้นๆ จะอยู่ในแพลตฟอร์ม ด้วยการกดข้าม 115 00:06:46,696 --> 00:06:49,036 หรือต้องหายไปด้วยการกดลบ 116 00:06:49,823 --> 00:06:52,450 แต่ก็ไม่ใช่ว่าทุกการตัดสินใจ จะทำได้อย่างชัดเจน 117 00:06:52,474 --> 00:06:55,371 เหมือนการตัดสินใจเกี่ยวกับ วิดีโอการทารุณเด็ก 118 00:06:55,395 --> 00:06:58,172 แล้วเนื้อหาซึ่งเป็นที่ถกเถียง เนื้อหาที่ก้ำกึ่ง 119 00:06:58,196 --> 00:07:01,349 ที่นักเคลื่อนไหวเพื่อสิทธิ หรือนักข่าวพลเมืองอัปโหลดล่ะ 120 00:07:02,048 --> 00:07:05,270 ผู้คัดกรองเนื้อหา มักตัดสินใจในกรณีดังกล่าว 121 00:07:05,294 --> 00:07:08,027 ด้วยความรวดเร็วเท่ากับ เนื้อหาที่ [ชัดเจน] 122 00:07:09,515 --> 00:07:12,174 MR: เราจะให้คุณดูวิดีโออันหนึ่ง 123 00:07:12,198 --> 00:07:15,507 และอยากขอให้คุณตัดสินใจ 124 00:07:15,531 --> 00:07:17,221 ว่าจะลบ 125 00:07:17,245 --> 00:07:19,046 หรือไม่ลบ 126 00:07:19,070 --> 00:07:20,737 (วิดีโอ) (เสียงการโจมตีทางอากาศ) 127 00:07:21,100 --> 00:07:23,650 (เสียงระเบิด) 128 00:07:28,076 --> 00:07:34,029 (คนพูดภาษาอาหรับ) 129 00:07:34,053 --> 00:07:36,283 MR: เราได้เบลอบางส่วนในวิดีโอนะครับ 130 00:07:37,196 --> 00:07:40,951 เด็กอาจตกใจอย่างรุนแรง 131 00:07:40,975 --> 00:07:43,784 และหวาดกลัวเนื้อหาประะภทนี้อย่างมาก 132 00:07:43,808 --> 00:07:46,105 งั้นคุณก็น่าจะลบใช่ไหมครับ 133 00:07:47,610 --> 00:07:52,249 แต่ถ้าเกิดวิดีโอนี้ช่วยสืนสวน การก่อสงครามในซีเรียได้ล่ะ 134 00:07:52,717 --> 00:07:55,884 ถ้าเกิดไม่มีใครเคยได้ยิน เรื่องการโจมตีทางอากาศนี้ 135 00:07:55,908 --> 00:07:59,646 เพราะเฟสบุ๊ค, ยูทูบ, ทวิตเตอร์ ตัดสินใจลบทิ้งไปล่ะ 136 00:08:00,895 --> 00:08:05,220 Airwars ซึ่งเป็นองค์กรนอกภาครัฐ ในลอนดอน 137 00:08:05,244 --> 00:08:08,141 พยายามค้นหาวิดีโอเหล่านั้น ให้เร็วที่สุด 138 00:08:08,165 --> 00:08:10,725 ไม่ว่าจะอัปโหลดลงใน โซเชียลมีเดียเมื่อไรก็ตาม 139 00:08:10,749 --> 00:08:12,349 เพื่อบันทึกเก็บไว้ 140 00:08:12,693 --> 00:08:15,526 เพราะบริษัทนี้รู้ว่า ไม่ช้าก็เร็ว 141 00:08:15,550 --> 00:08:18,860 เฟสบุ๊ค, ยูทูบ, ทวิตเตอร์ จะลบเนื้อหานั้นออก 142 00:08:19,345 --> 00:08:21,553 ผู้คนที่มีโทรศัพท์มือถือ 143 00:08:21,577 --> 00:08:25,776 สามารถเห็นสิ่งต่างๆ ที่นักข่าวมักไม่ได้เห็น 144 00:08:25,800 --> 00:08:28,863 กลุ่มสิทธิมนุษยชน มักไม่มีทางเลือก 145 00:08:28,887 --> 00:08:32,688 ในการทำให้วิดีโอของกลุ่ม เข้าถึงผู้ชมจำนวนมากอย่างรวดเร็ว 146 00:08:32,712 --> 00:08:35,312 ได้ดีไปกว่าการอัปโหลดลงโซเชียลมีเดีย 147 00:08:35,950 --> 00:08:40,236 นี่ไม่ใช่ศักยภาพของการส่งเสริม ที่เครือข่ายอินเทอร์เน็ตควรมีหรอกหรือครับ 148 00:08:40,966 --> 00:08:42,926 นี่ไม่ใช่ความฝัน 149 00:08:42,950 --> 00:08:47,061 ที่ผู้คนในยุคแรกเริ่มมี เกี่ยวกับอินเทอร์เน็ตหรือครับ 150 00:08:47,608 --> 00:08:50,403 รูปภาพและวิดีโอพวกนี้ 151 00:08:50,427 --> 00:08:55,561 จะโน้มน้าวให้คนที่มีภูมิต้านทาน ต่อความเป็นจริง 152 00:08:55,585 --> 00:08:56,735 คิดทบทวนไม่ได้หรือครับ ? 153 00:08:57,917 --> 00:09:01,519 HB: แต่ทุกสิ่งที่อาจก่อกวนจิตใจ กลับถูกลบทิ้ง 154 00:09:01,543 --> 00:09:03,601 และเกิดการเปลี่ยนแปลงไปทั่วในสังคม 155 00:09:03,928 --> 00:09:07,522 เช่น มีสื่อจำนวนมากขึ้นเรื่อยๆ ที่ขึ้นคำเตือนเนื้อหาสุ่มเสี่ยง 156 00:09:07,546 --> 00:09:09,339 ตรงหัวบทความ 157 00:09:09,363 --> 00:09:12,672 ซึ่งบางคนอาจมองว่า ทำให้ขุ่นเคืองหรือสร้างปัญหา 158 00:09:12,696 --> 00:09:16,610 หรือนักศึกษามหาวิทยาลัย ในสหรัฐอเมริกาจำนวนมากขึ้น 159 00:09:16,634 --> 00:09:19,451 เรียกร้องให้แบนผลงานคลาสสิกยุคเก่า 160 00:09:19,475 --> 00:09:22,590 ที่บรรยายความรุนแรงทางเพศ หรือการล่วงละเมิดออกจากหลักสูตร 161 00:09:22,991 --> 00:09:25,324 แต่มันควรไปไกลขนาดไหนล่ะ 162 00:09:25,875 --> 00:09:29,255 บูรณภาพแห่งร่างกาย เป็นสิทธิมนุษยชนข้อหนึ่ง 163 00:09:29,279 --> 00:09:31,079 ในสถาบันต่างๆ ทั่วโลก 164 00:09:31,422 --> 00:09:35,176 ในกฎบัตรสิทธิขั้นพื้นฐาน ของสหภาพยุโรป 165 00:09:35,200 --> 00:09:38,554 สิทธิข้อนี้จะสื่อถึง บูรณภาพทางจิตใจ 166 00:09:39,347 --> 00:09:42,005 ถึงแม้ว่าผลกระทบจากเหตุรุนแรง 167 00:09:42,029 --> 00:09:44,855 ที่มาจากรูปภาพและวิดีโอนั้นยากจะคาดเดา 168 00:09:44,879 --> 00:09:46,836 แต่เราจำเป็นต้องระวังตัวมาก 169 00:09:46,860 --> 00:09:50,587 จนอาจเสียการตระหนักรู้ ถึงความอยุติธรรมในสังคมเลยหรือครับ 170 00:09:51,203 --> 00:09:52,353 แล้วควรทำอย่างไรดีล่ะ 171 00:09:52,942 --> 00:09:55,934 เมื่อเร็วๆ นี้ Mark Zuckerberg บอกว่าในอนาคต 172 00:09:55,958 --> 00:09:59,760 ผู้ใช้ ก็คือเรา หรือเกือบทุกคน 173 00:09:59,784 --> 00:10:02,045 ต้องเป็นคนตัดสินใจเอง 174 00:10:02,069 --> 00:10:04,117 ว่าอยากเห็นอะไรในแพลตฟอร์ม 175 00:10:04,141 --> 00:10:06,172 ด้วยการตั้งค่าตัวกรองส่วนบุคคล 176 00:10:06,196 --> 00:10:09,268 ทุกคนก็จะเลือกได้ว่า จะไม่ดูภาพสงคราม 177 00:10:09,292 --> 00:10:13,031 หรือเนื้อหารุนแรงอื่นๆ เหมือนเดิม อย่างเช่น... 178 00:10:13,849 --> 00:10:18,295 MR: ผมเป็นคนประเภทที่โอเค กับการเห็นภาพหน้าอก 179 00:10:18,319 --> 00:10:22,085 และผมสนใจเรื่องภาวะโลกร้อนมาก 180 00:10:22,109 --> 00:10:24,673 และไม่ชอบสงครามเอามากๆ 181 00:10:25,109 --> 00:10:26,831 HB: ส่วนผมตรงข้ามเลยครับ 182 00:10:26,855 --> 00:10:30,908 ผมไม่สนใจอะไรกับหน้าอกเปลือย หรือร่างกายเปล่าเปลือยสักนิด 183 00:10:31,209 --> 00:10:34,120 แต่ชอบปืน ชอบมากเลย 184 00:10:34,901 --> 00:10:38,646 MR: แล้วกัน ถ้าเราไม่มี จิตสำนึกทางสังคมร่วมกัน 185 00:10:38,670 --> 00:10:41,339 เราจะถกปัญหาสังคมกันได้อย่างไร 186 00:10:41,363 --> 00:10:43,760 เราจะเรียกร้องให้ผู้คนลงมือทำได้อย่างไร 187 00:10:43,784 --> 00:10:47,069 ในเมื่อเกิดโลกที่แยกขาดจากกันขึ้น 188 00:10:47,665 --> 00:10:50,896 หนึ่งในคำถามสำคัญคือ "ในอนาคต 189 00:10:50,920 --> 00:10:55,823 เสรีภาพในการแสดงออกจะมีความสำคัญแค่ไหน เมื่อเทียบกับที่คนเราอยากได้รับการปกป้อง" 190 00:10:56,441 --> 00:10:57,908 นี่เป็นเรื่องของหลักการ 191 00:10:58,602 --> 00:11:02,850 เราอยากออกแบบสังคม ในโลกดิจิทัลให้เป็น 192 00:11:02,874 --> 00:11:04,513 พื้นที่ปิดหรือเปิดเท่านั้นหรือ 193 00:11:05,054 --> 00:11:10,966 ใจกลางสำคัญของเรื่องนี้ คือ "เสรีภาพ ปะทะ ความปลอดภัย" 194 00:11:12,388 --> 00:11:16,872 เฟสบุ๊ค อยากเป็นแพลตฟอร์ม ที่ "ดีต่อใจ" มาโดยตลอด 195 00:11:16,896 --> 00:11:20,594 เหนือสิ่งอื่นใด ผู้ใช้ต้อง รู้สึกปลอดภัยและได้รับการปกป้อง 196 00:11:20,618 --> 00:11:22,738 ซึ่งเป็นคำเดียวกับที่ 197 00:11:22,762 --> 00:11:25,720 ผู้คัดกรองเนื้อหาในฟิลิปปินส์ เลือกใช้ 198 00:11:25,744 --> 00:11:27,544 จากการสัมภาษณ์จำนวนมาก 199 00:11:28,188 --> 00:11:30,569 (วิดีโอ) โลกที่เราอาศัยอยู่ทุกวันนี้ 200 00:11:30,593 --> 00:11:32,759 ฉันเชื่อว่ามันไม่จรรโลงใจนัก 201 00:11:32,783 --> 00:11:34,331 (เสียงดนตรี) 202 00:11:34,355 --> 00:11:37,513 ในโลกนี้ ปีศาจร้ายมีตัวตนอยู่จริงๆ 203 00:11:37,537 --> 00:11:40,775 (เสียงดนตรี) 204 00:11:40,799 --> 00:11:42,862 เราต้องคอยจับตาดู 205 00:11:42,886 --> 00:11:44,768 (เสียงดนตรี) 206 00:11:44,792 --> 00:11:48,042 เราต้องคอยควบคุมทั้งสิ่งดีและเลว 207 00:11:48,646 --> 00:11:55,646 (ดนตรี) 208 00:11:58,193 --> 00:12:02,296 [ระวังหน่อยเจ้าหนุ่ม! --พระเจ้า] 209 00:12:02,952 --> 00:12:07,230 MR: สำหรับผู้คัดกรองหนุ่มสาว ในสังคมคาทอลิกของฟิลิปปินส์ที่เคร่งศาสนา 210 00:12:07,254 --> 00:12:10,047 งานนี้เชื่อมโยงกับภารกิจของชาวคริสต์ 211 00:12:10,833 --> 00:12:13,799 ในการต่อสู้กับบาปของโลก 212 00:12:13,823 --> 00:12:15,997 ที่แพร่ไปทั่วเว็บไซต์ต่างๆ 213 00:12:16,641 --> 00:12:20,053 "รองจากศรัทธาในพระเจ้าคือความบริสุทธิ์" 214 00:12:20,077 --> 00:12:23,511 นี่เป็นวาทะที่ทุกคนในฟิลิปปินส์รู้จัก 215 00:12:24,035 --> 00:12:25,694 HB: และอีกหลายคนจูงใจตัวเอง 216 00:12:25,718 --> 00:12:29,449 ด้วยการเปรียบเทียบกับ ประธานาธิบดีโรดริโก ดูแตร์เต 217 00:12:29,837 --> 00:12:33,328 ที่ดำรงตำแหน่งมาตั้งแต่ปี 2016 218 00:12:33,352 --> 00:12:37,345 และชนะการเลือกตั้งจากคำสัญญาว่า "ผมจะทำให้ประเทศนี้ใสสะอาด" 219 00:12:37,892 --> 00:12:41,209 ซึ่งหมายถึงการกำจัด ปัญหาทุกอย่างตรงตามตัว 220 00:12:41,233 --> 00:12:43,688 ด้วยการฆ่าผู้คนบนถนน 221 00:12:43,712 --> 00:12:46,577 ที่มีโอกาสเป็นอาชญากร ไม่ว่าอย่างไรก็ตาม 222 00:12:46,601 --> 00:12:47,871 และตั้งแต่เขาได้รับเลือก 223 00:12:47,895 --> 00:12:51,331 มีคนถูกฆ่าไปประมาณ 20,000 คน 224 00:12:51,655 --> 00:12:54,156 ผู้คัดกรองคนหนึ่งในหนังของเราบอกว่า 225 00:12:54,180 --> 00:12:56,235 "ผมทำสิ่งเดียวกับที่ดูแตร์เตทำ 226 00:12:56,259 --> 00:12:57,973 แต่เป็นทางอินเทอร์เน็ต" 227 00:12:58,934 --> 00:13:02,498 พวกเขาเป็นซูเปอร์ฮีโร่ที่ประกาศตน 228 00:13:02,522 --> 00:13:05,498 เป็นผู้บังคับใช้กฎระเบียบ ในโลกดิจิทัล 229 00:13:05,522 --> 00:13:07,903 พวกเขาเก็บกวาด ขัดถูทุกอย่างจนบริสุทธิ์ผุดผ่อง 230 00:13:07,927 --> 00:13:10,260 ทำให้สิ่งชั่วร้ายหายไป 231 00:13:10,284 --> 00:13:14,013 หน้าที่ที่เคยสงวนไว้ สำหรับเจ้าหน้าที่รัฐ 232 00:13:14,037 --> 00:13:17,712 กลายมาเป็นของเด็กจบมหาวิทยาลัย วัย 20 ต้นๆ 233 00:13:17,736 --> 00:13:20,629 ที่ได้รับการฝึกอบรม 3 ถึง 5 วัน 234 00:13:20,653 --> 00:13:22,589 คุณสมบัติประจำตำแหน่งนี้คือ 235 00:13:22,613 --> 00:13:25,680 คนที่ทำงานไม่ต่างไปจาก หน่วยกู้ภัยโลก 236 00:13:26,756 --> 00:13:30,975 MR: อธิปไตยของชาติถูกฝากฝัง ในมือบริษัทเอกชน 237 00:13:30,999 --> 00:13:35,007 แล้วก็ส่งต่อความรับผิดชอบ ให้กับบริษัทภายนอก 238 00:13:35,031 --> 00:13:38,094 ซึ่งเป็นบริษัทภายนอกของภายนอก ของภายนอกอีกที 239 00:13:38,118 --> 00:13:39,268 ที่ได้รับหน้าที่นี้ 240 00:13:39,618 --> 00:13:41,014 ในสังคมออนไลน์ 241 00:13:41,038 --> 00:13:44,053 เราต้องรับมือกับ โครงสร้างพื้นฐานแบบใหม่ล้วนๆ 242 00:13:44,077 --> 00:13:45,593 ที่ระบบกลไกของมัน 243 00:13:45,617 --> 00:13:47,196 และตรรกะในการทำสิ่งต่างๆ 244 00:13:47,220 --> 00:13:52,465 หรือก็คืออันตรายแบบใหม่ 245 00:13:52,489 --> 00:13:56,514 ยังไม่เคยมีการพูดถึงในพื้นที่สาธารณะ ก่อนหน้ายุคดิจิทัล 246 00:13:56,538 --> 00:13:58,747 HB: ตอน Mark Zuckerberg ขึ้นให้การที่สภาคองเกรส 247 00:13:58,771 --> 00:14:00,541 หรือที่รัฐสภายุโรป 248 00:14:00,565 --> 00:14:03,200 เขาต้องเผชิญกับ คำวิจารณ์ทุกรูปแบบ 249 00:14:03,224 --> 00:14:05,804 และเขาก็ตอบแบบเดิมเสมอ 250 00:14:06,501 --> 00:14:07,969 "เราจะแก้ไข 251 00:14:07,993 --> 00:14:10,544 และผมจะติดตามผลเรื่องนี้ กับทีม" 252 00:14:11,167 --> 00:14:14,945 แต่การถกเถียงไม่ควรเกิดขึ้น ที่หลังห้องประชุมของเฟสบุ๊ค 253 00:14:14,969 --> 00:14:16,254 ทวิตเตอร์ หรือกูเกิล 254 00:14:16,278 --> 00:14:21,094 การถกเถียงนั้นควรพูดคุยอย่างเปิดกว้าง ในรัฐสภาแบบใหม่ทั่วโลก 255 00:14:21,118 --> 00:14:25,978 ในสถาบันแบบใหม่ที่มี ผู้คนหลากหลายแบบ 256 00:14:26,002 --> 00:14:30,544 ซึ่งอุทิศตนให้กับโครงการ อินเทอร์เน็ตโลกในอุดมคติ 257 00:14:30,568 --> 00:14:33,945 และแม้การคำนึงถึงค่านิยม ของผู้ใช้ทั่วโลก 258 00:14:33,969 --> 00:14:36,211 อาจเป็นไปได้ยาก 259 00:14:36,235 --> 00:14:37,917 แต่ก็คุ้มที่จะเชื่อมั่น 260 00:14:37,941 --> 00:14:41,227 ว่ามีสิ่งที่เชื่อมโยงเราเข้ากัน มากกว่าแยกเราออกจากกัน 261 00:14:41,624 --> 00:14:45,331 MR: ครับ ในช่วงเวลา ที่ความเป็นประชานิยมมีมากขึ้น 262 00:14:45,355 --> 00:14:48,553 ผู้คนนิยม ตัดสินสิ่งต่างๆ 263 00:14:48,577 --> 00:14:49,855 ถอนรากถอนโคน 264 00:14:49,879 --> 00:14:51,767 และทำให้หายไปจากการรับรู้ 265 00:14:52,919 --> 00:14:56,268 แนวคิดนี้แพร่ไปทั่วโลก 266 00:14:56,292 --> 00:14:59,077 ทั้งโลกอะนาล็อกและดิจิทัล 267 00:14:59,903 --> 00:15:03,395 ซึ่งเราทุกคนมีหน้าที่หยุดเรื่องนี้ 268 00:15:03,419 --> 00:15:05,045 ก่อนจะสายเกินไป 269 00:15:05,665 --> 00:15:09,649 การตั้งคำถามอย่างเสรี และเป็นประชาธิปไตย 270 00:15:09,673 --> 00:15:12,640 ไม่ควรมีแค่สองตัวเลือกนี้ 271 00:15:13,053 --> 00:15:14,219 HB: คือลบ 272 00:15:14,243 --> 00:15:16,390 MR: หรือข้ามไป 273 00:15:17,300 --> 00:15:18,897 HB: ขอบคุณมากครับ 274 00:15:18,921 --> 00:15:24,190 (เสียงปรบมือ)