WEBVTT 00:00:01.546 --> 00:00:04.386 [วิดีโอนี้มีเนื้อหาที่เหมาะกับผู้ใหญ่] NOTE Paragraph 00:00:04.913 --> 00:00:09.365 Moritz Riesewieck: วันที่ 23 มีนาคม 2013 00:00:09.389 --> 00:00:13.446 ผู้ใช้ทั่วโลกพบว่าบนหน้านิวส์ฟีดของตน 00:00:14.415 --> 00:00:19.478 มีวิดีโอเด็กผู้หญิงถูกชายแก่ข่มขืน 00:00:19.478 --> 00:00:23.334 ก่อนที่วิดีโอนี้จะถูกลบออกจากเฟสบุ๊ค 00:00:23.358 --> 00:00:27.974 ก็มีการแชร์ไปแล้ว 16,000 ครั้ง 00:00:27.998 --> 00:00:31.640 และมีคนกดไลค์ถึง 4,000 ครั้ง 00:00:33.268 --> 00:00:36.931 วีดิโอนี้กลายเป็นกระแส ลามไปทั่วอินเตอร์เน็ต NOTE Paragraph 00:00:37.873 --> 00:00:40.968 Hans Block: และนั่นเป็นตอนที่ เราถามตัวเองว่า 00:00:40.992 --> 00:00:43.770 เนื้อหาแบบนี้มาอยู่ในเฟสบุ๊คได้อย่างไร 00:00:43.794 --> 00:00:48.196 แต่ในเวลาเดียวกัน ทำไมเราถึงไม่ค่อยเห็นเนื้อหาแบบนี้บ่อยๆ 00:00:48.220 --> 00:00:51.903 ในเมื่อมีสื่อแย่ๆ เต็มโลกออนไลน์ไปหมด 00:00:51.927 --> 00:00:56.382 แต่ทำไมเราจึงไม่ค่อยเห็นขยะแบบนั้น ในเฟสบุ๊ค, ทวิตเตอร์ หรือกูเกิล ล่ะ NOTE Paragraph 00:00:56.958 --> 00:00:59.030 MR: แม้ซอฟต์แวร์จดจำใบหน้า 00:00:59.223 --> 00:01:03.506 จะระบุรูปทรงอวัยวะที่เกี่ยวกับเพศ 00:01:03.530 --> 00:01:08.458 เลือดหรือการเปลือยในรูปและวิดีโอได้ 00:01:08.482 --> 00:01:14.022 แต่กลับมีปัญหาในการแยกแยะ เนื้อหาลามก 00:01:14.046 --> 00:01:18.394 ออกจากภาพวันหยุด รูปปั้นอโดนิส 00:01:18.418 --> 00:01:21.116 หรือแคมเปญตรวจคัดกรองมะเร็งเต้านม 00:01:21.140 --> 00:01:25.395 มันไม่สามารถแยกแยะโรมิโอกับจูเลียต ที่ตายบนเวที 00:01:25.419 --> 00:01:27.974 จากการโดนแทงจริงๆ 00:01:27.998 --> 00:01:33.220 มันไม่สามารถแยกแยะการเสียดสีออกจาก การโฆษณาชวนเชื่อ 00:01:33.244 --> 00:01:37.212 หรือการประชดออกจากความเกลียดชังจริงๆ แล้วก็อีกหลายอย่าง 00:01:38.077 --> 00:01:42.155 ดังนั้น จึงต้องมีคนที่คอยตัดสิน 00:01:42.179 --> 00:01:46.180 ว่าเนื้อหาน่าสงสัยอันไหนควรลบทิ้ง 00:01:46.204 --> 00:01:47.804 และอันไหนควรเก็บไว้ NOTE Paragraph 00:01:48.909 --> 00:01:51.720 กลุ่มคนที่เราแทบไม่รู้จักเลย 00:01:51.744 --> 00:01:53.611 เพราะการทำงานที่เป็นความลับ 00:01:54.053 --> 00:01:55.958 พวกเขาเซ็นข้อตกลงห้ามเปิดเผยข้อมูล 00:01:55.982 --> 00:01:58.935 ที่ห้ามพูดหรือแชร์ข้อมูล 00:01:58.959 --> 00:02:02.544 ที่เห็นบนหน้าจอตัวเอง หรือว่างานนี้ทำให้พวกเขาเป็นอย่างไร 00:02:02.887 --> 00:02:07.157 พวกเขาถูกบังคับให้ใช้โค้ดลับ เพื่อปิดบังว่าตนทำงานให้ใคร 00:02:07.585 --> 00:02:10.490 พวกเขาถูกจับตา จากบริษัทรักษาความปลอดภัยเอกชน 00:02:10.514 --> 00:02:14.024 เพื่อให้แน่ใจว่า จะไม่ไปพูดกับนักข่าว 00:02:14.048 --> 00:02:17.587 และจะต้องเสียค่าปรับ ถ้าเกิดทำอย่างนั้น 00:02:18.421 --> 00:02:22.183 ทั้งหมดนี้ฟังดูเหมือน อาชญากรรมแปลกๆ 00:02:22.207 --> 00:02:23.537 แต่เป็นเรื่องจริงครับ 00:02:23.561 --> 00:02:25.053 คนเหล่านี้มีตัวตนจริง 00:02:25.633 --> 00:02:29.814 และเรียกกันว่าผู้คัดกรองเนื้อหา NOTE Paragraph 00:02:30.942 --> 00:02:34.387 HB: เราเป็นผู้กำกับภาพยนตร์ สารคดีความยาวปานกลางเรื่อง "The Cleaners" 00:02:34.411 --> 00:02:36.371 และอยากพาคุณ 00:02:36.395 --> 00:02:38.982 เข้าสู่โลกที่หลายๆ คนอาจยังไม่รู้จัก 00:02:39.006 --> 00:02:41.139 มาดูคลิปสั้นๆ จากหนังของเรากันครับ NOTE Paragraph 00:02:46.639 --> 00:02:50.259 (เสียงดนตรี) NOTE Paragraph 00:02:52.400 --> 00:02:56.086 (วิดีโอ) ผู้คัดกรอง:ฉันเปิดเผยตัวตนไม่ได้ เพราะว่าเซ็นสัญญาไว้ 00:02:57.784 --> 00:03:01.405 เราเปิดเผยไม่ได้ว่าทำงานกับใคร 00:03:02.807 --> 00:03:04.570 เหตุผลที่ฉันบอกคุณ 00:03:04.594 --> 00:03:08.974 เพราะโลกควรได้รู้ว่ายังมีพวกเราอยู่ 00:03:10.544 --> 00:03:13.347 มีคนที่คอยตรวจสอบ โซเชียลมีเดียอยู่ 00:03:14.317 --> 00:03:17.921 เราตั้งใจทำงานสุดความสามารถ เพื่อให้แพลตฟอร์มนี้ 00:03:17.945 --> 00:03:19.735 ปลอดภัยสำหรับทุกคน 00:03:30.438 --> 00:03:31.588 ลบ 00:03:32.278 --> 00:03:33.572 ข้าม 00:03:33.596 --> 00:03:34.746 ลบ 00:03:35.279 --> 00:03:36.576 ข้าม 00:03:36.600 --> 00:03:37.751 ลบ 00:03:38.680 --> 00:03:39.831 ข้าม 00:03:39.855 --> 00:03:41.005 ข้าม 00:03:41.625 --> 00:03:42.775 ลบ NOTE Paragraph 00:03:46.030 --> 00:03:48.007 HB: กลุ่มคนที่เรียกว่าผู้คัดกรองเนื้อหา 00:03:48.031 --> 00:03:52.031 ไม่ได้รับรายได้จากเฟสบุ๊ค, ทวิตเตอร์ หรือกูเกิล โดยตรง 00:03:52.055 --> 00:03:54.372 แต่จากบริษัทจัดจ้างภายนอกทั่วโลก 00:03:54.396 --> 00:03:56.463 เพื่อให้ค่าจ้างต่ำ 00:03:56.833 --> 00:03:58.800 คนหนุ่มสาวหลายหมื่นคน 00:03:58.824 --> 00:04:02.037 ซึ่งเห็นทุกสิ่งที่เราไม่ควรเห็น 00:04:02.061 --> 00:04:05.609 ทั้งการฆ่าตัดคอ การตัดแขนขา 00:04:05.633 --> 00:04:09.329 การประหารชีวิต การร่วมเพศกับศพ การทรมาน การทารุณเด็ก 00:04:09.743 --> 00:04:12.017 นับพันรูปในหนึ่งกะ 00:04:12.041 --> 00:04:14.956 ลบ ข้าม ทั้งกลางวันกลางคืน 00:04:15.393 --> 00:04:18.791 งานส่วนใหญ่ดำเนินการในมะนิลา 00:04:18.815 --> 00:04:22.117 ที่ที่มีการขนส่งขยะอิเล็กทรอนิกส์มีพิษ 00:04:22.141 --> 00:04:24.749 มาจากโลกตะวันตกเป็นเวลาหลายปี ทางเรือขนส่ง 00:04:24.773 --> 00:04:28.776 ซึ่งตอนนี้เป็นการทิ้งขยะ ผ่านทางสายไฟเบอร์ออปติก 00:04:28.800 --> 00:04:31.847 หน้าที่ของพวกเขาไม่ต่างจากคนเก็บขยะ 00:04:31.871 --> 00:04:35.347 ที่คุ้ยอยู่เหนือขยะกองมหึมา ใกล้เมือง 00:04:35.371 --> 00:04:40.204 ผู้คัดกรองเนื้อหาก็คลิกไปบน มหาสมุทรแห่งสารพิษอันไร้ที่สิ้นสุด 00:04:40.228 --> 00:04:44.315 ทั้งรูปภาพ วิดีโอ และขยะที่ประดิษฐ์ขึ้น ทุกรูปแบบ 00:04:44.339 --> 00:04:46.641 เพื่อให้เราไม่ต้องเห็นมัน NOTE Paragraph 00:04:46.665 --> 00:04:50.205 MR: แต่บาดแผลของผู้คัดกรอง 00:04:50.229 --> 00:04:53.680 ไม่เหมือนกับของคนเก็บขยะ ตรงที่มันมองไม่เห็น 00:04:54.117 --> 00:04:57.197 เนื้อหาทั้งรูปภาพและวิดีโอ 00:04:57.221 --> 00:05:00.484 ที่ชวนผวาและรบกวนใจทั้งหลาย ซุกซ่อนในความทรงจำของพวกเขา 00:05:00.508 --> 00:05:03.953 และอาจส่งผลที่คาดเดาไม่ได้ทุกเวลา 00:05:03.977 --> 00:05:07.334 ทั้งอาการกินผิดปกติ หมดความรู้สึกทางเพศ 00:05:07.358 --> 00:05:10.617 อาการวิตกกังวล ติดเหล้า 00:05:10.641 --> 00:05:13.553 ซึมเศร้า กระทั่งนำไปสู่ การฆ่าตัวตาย 00:05:14.100 --> 00:05:16.545 รูปภาพและวิดีโอพวกนั้น ส่งผลต่อพวกเขา 00:05:16.569 --> 00:05:18.958 และมักไม่มีทางหายไปไหน 00:05:18.982 --> 00:05:23.823 หากโชคร้าย พวกเขาก็อาจมี ภาวะผิดปกติทางจิตใจจากเหตุการณ์รุนแรง 00:05:23.847 --> 00:05:26.047 เหมือนทหารที่เพิ่งกลับจากสงคราม NOTE Paragraph 00:05:27.445 --> 00:05:31.088 ในหนังเรื่องนี้ เราเล่าเรื่อง ชายหนุ่มคนหนึ่ง 00:05:31.112 --> 00:05:36.310 ที่ต้องคอยตรวจสอบการไลฟ์วิดีโอ ทำร้ายตัวเองและการพยายามฆ่าตัวตาย 00:05:36.334 --> 00:05:38.009 ซ้ำแล้วซ้ำเล่า 00:05:38.033 --> 00:05:41.099 และท้ายที่สุดก็ฆ่าตัวตายเอง 00:05:41.787 --> 00:05:44.527 เท่าที่เรารู้ เรื่องนี้ไม่ใช่แค่กรณีเดียว 00:05:45.184 --> 00:05:49.164 นี่คือราคาที่เราทุกคนจ่าย 00:05:49.188 --> 00:05:54.515 ให้กับสิ่งที่เรียกว่า สภาพแวดล้อมในโซเชียลมีเดีย 00:05:54.539 --> 00:05:56.823 ที่สะอาด ปลอดภัย และ "ดีต่อจิตใจ" 00:05:58.482 --> 00:06:01.077 เราติดต่อกับคนนับล้านทั่วโลก 00:06:01.101 --> 00:06:04.433 ได้ง่ายขึ้นอย่างที่ไม่เคยมีมาก่อน ในประวัติศาสตร์ 00:06:04.457 --> 00:06:06.124 ด้วยเวลาเพียงไม่กี่วินาที 00:06:06.148 --> 00:06:10.093 สิ่งที่โพสต์ลงในโซเชียลมีเดีย แพร่ออกไปอย่างรวดเร็ว 00:06:10.117 --> 00:06:14.053 กลายเป็นกระแส และสร้างความตื่นเต้น ให้ผู้คนทั่วโลก 00:06:14.450 --> 00:06:16.514 ก่อนที่มันจะถูกลบ 00:06:16.538 --> 00:06:18.471 ก็มักสายเกินไปแล้ว 00:06:18.966 --> 00:06:21.196 ผู้คนนับล้านติดเชื้อ ความเกลียดชัง 00:06:21.220 --> 00:06:23.077 และความโกรธแค้นไปแล้ว 00:06:23.101 --> 00:06:25.831 แล้วพวกเขาก็มามีบทบาท ในโลกออนไลน์ 00:06:25.855 --> 00:06:28.998 ด้วยการแพร่หรือโหมกระพือ ความเกลียดชัง 00:06:29.022 --> 00:06:32.815 ไม่ก็ออกไปก่อความรุนแรง ตามท้องถนน NOTE Paragraph 00:06:33.236 --> 00:06:35.776 HB: จึงต้องมีกองทัพผู้คัดกรองเนื้อหา 00:06:35.800 --> 00:06:39.695 นั่งประจำตรงหน้าจอเพื่อเลี่ยงไม่ให้เกิด ความเสียหายในแบบเดียวกันอีก 00:06:40.434 --> 00:06:42.553 และพวกเขาต้องตัดสินใจ ให้เร็วที่สุด 00:06:42.577 --> 00:06:46.672 ว่าเนื้อหานั้นๆ จะอยู่ในแพลตฟอร์ม ด้วยการกดข้าม 00:06:46.696 --> 00:06:49.036 หรือต้องหายไปด้วยการกดลบ 00:06:49.823 --> 00:06:52.450 แต่ก็ไม่ใช่ว่าทุกการตัดสินใจ จะทำได้อย่างชัดเจน 00:06:52.474 --> 00:06:55.371 เหมือนการตัดสินใจเกี่ยวกับ วิดีโอการทารุณเด็ก 00:06:55.395 --> 00:06:58.172 แล้วเนื้อหาซึ่งเป็นที่ถกเถียง เนื้อหาที่ก้ำกึ่ง 00:06:58.196 --> 00:07:01.349 ที่นักเคลื่อนไหวเพื่อสิทธิ หรือนักข่าวพลเมืองอัปโหลดล่ะ 00:07:02.048 --> 00:07:05.270 ผู้คัดกรองเนื้อหา มักตัดสินใจในกรณีดังกล่าว 00:07:05.294 --> 00:07:08.027 ด้วยความรวดเร็วเท่ากับ เนื้อหาที่ [ชัดเจน] NOTE Paragraph 00:07:09.515 --> 00:07:12.174 MR: เราจะให้คุณดูวิดีโออันหนึ่ง 00:07:12.198 --> 00:07:15.507 และอยากขอให้คุณตัดสินใจ 00:07:15.531 --> 00:07:17.221 ว่าจะลบ 00:07:17.245 --> 00:07:19.046 หรือไม่ลบ NOTE Paragraph 00:07:19.070 --> 00:07:20.737 (วิดีโอ) (เสียงการโจมตีทางอากาศ) NOTE Paragraph 00:07:21.100 --> 00:07:23.650 (เสียงระเบิด) NOTE Paragraph 00:07:28.076 --> 00:07:34.029 (คนพูดภาษาอาหรับ) NOTE Paragraph 00:07:34.053 --> 00:07:36.283 MR: เราได้เบลอบางส่วนในวิดีโอนะครับ 00:07:37.196 --> 00:07:40.951 เด็กอาจตกใจอย่างรุนแรง 00:07:40.975 --> 00:07:43.784 และหวาดกลัวเนื้อหาประะภทนี้อย่างมาก 00:07:43.808 --> 00:07:46.105 งั้นคุณก็น่าจะลบใช่ไหมครับ 00:07:47.610 --> 00:07:52.249 แต่ถ้าเกิดวิดีโอนี้ช่วยสืนสวน การก่อสงครามในซีเรียได้ล่ะ 00:07:52.717 --> 00:07:55.884 ถ้าเกิดไม่มีใครเคยได้ยิน เรื่องการโจมตีทางอากาศนี้ 00:07:55.908 --> 00:07:59.646 เพราะเฟสบุ๊ค, ยูทูบ, ทวิตเตอร์ ตัดสินใจลบทิ้งไปล่ะ 00:08:00.895 --> 00:08:05.220 Airwars ซึ่งเป็นองค์กรนอกภาครัฐ ในลอนดอน 00:08:05.244 --> 00:08:08.141 พยายามค้นหาวิดีโอเหล่านั้น ให้เร็วที่สุด 00:08:08.165 --> 00:08:10.725 ไม่ว่าจะอัปโหลดลงใน โซเชียลมีเดียเมื่อไรก็ตาม 00:08:10.749 --> 00:08:12.349 เพื่อบันทึกเก็บไว้ 00:08:12.693 --> 00:08:15.526 เพราะบริษัทนี้รู้ว่า ไม่ช้าก็เร็ว 00:08:15.550 --> 00:08:18.860 เฟสบุ๊ค, ยูทูบ, ทวิตเตอร์ จะลบเนื้อหานั้นออก 00:08:19.345 --> 00:08:21.553 ผู้คนที่มีโทรศัพท์มือถือ 00:08:21.577 --> 00:08:25.776 สามารถเห็นสิ่งต่างๆ ที่นักข่าวมักไม่ได้เห็น 00:08:25.800 --> 00:08:28.863 กลุ่มสิทธิมนุษยชน มักไม่มีทางเลือก 00:08:28.887 --> 00:08:32.688 ในการทำให้วิดีโอของกลุ่ม เข้าถึงผู้ชมจำนวนมากอย่างรวดเร็ว 00:08:32.712 --> 00:08:35.312 ได้ดีไปกว่าการอัปโหลดลงโซเชียลมีเดีย 00:08:35.950 --> 00:08:40.236 นี่ไม่ใช่ศักยภาพของการส่งเสริม ที่เครือข่ายอินเทอร์เน็ตควรมีหรอกหรือครับ 00:08:40.966 --> 00:08:42.926 นี่ไม่ใช่ความฝัน 00:08:42.950 --> 00:08:47.061 ที่ผู้คนในยุคแรกเริ่มมี เกี่ยวกับอินเทอร์เน็ตหรือครับ 00:08:47.608 --> 00:08:50.403 รูปภาพและวิดีโอพวกนี้ 00:08:50.427 --> 00:08:55.561 จะโน้มน้าวให้คนที่มีภูมิต้านทาน ต่อความเป็นจริง 00:08:55.585 --> 00:08:56.735 คิดทบทวนไม่ได้หรือครับ ? NOTE Paragraph 00:08:57.917 --> 00:09:01.519 HB: แต่ทุกสิ่งที่อาจก่อกวนจิตใจ กลับถูกลบทิ้ง 00:09:01.543 --> 00:09:03.601 และเกิดการเปลี่ยนแปลงไปทั่วในสังคม 00:09:03.928 --> 00:09:07.522 เช่น มีสื่อจำนวนมากขึ้นเรื่อยๆ ที่ขึ้นคำเตือนเนื้อหาสุ่มเสี่ยง 00:09:07.546 --> 00:09:09.339 ตรงหัวบทความ 00:09:09.363 --> 00:09:12.672 ซึ่งบางคนอาจมองว่า ทำให้ขุ่นเคืองหรือสร้างปัญหา 00:09:12.696 --> 00:09:16.610 หรือนักศึกษามหาวิทยาลัย ในสหรัฐอเมริกาจำนวนมากขึ้น 00:09:16.634 --> 00:09:19.451 เรียกร้องให้แบนผลงานคลาสสิกยุคเก่า 00:09:19.475 --> 00:09:22.590 ที่บรรยายความรุนแรงทางเพศ หรือการล่วงละเมิดออกจากหลักสูตร 00:09:22.991 --> 00:09:25.324 แต่มันควรไปไกลขนาดไหนล่ะ 00:09:25.875 --> 00:09:29.255 บูรณภาพแห่งร่างกาย เป็นสิทธิมนุษยชนข้อหนึ่ง 00:09:29.279 --> 00:09:31.079 ในสถาบันต่างๆ ทั่วโลก 00:09:31.422 --> 00:09:35.176 ในกฎบัตรสิทธิขั้นพื้นฐาน ของสหภาพยุโรป 00:09:35.200 --> 00:09:38.554 สิทธิข้อนี้จะสื่อถึง บูรณภาพทางจิตใจ 00:09:39.347 --> 00:09:42.005 ถึงแม้ว่าผลกระทบจากเหตุรุนแรง 00:09:42.029 --> 00:09:44.855 ที่มาจากรูปภาพและวิดีโอนั้นยากจะคาดเดา 00:09:44.879 --> 00:09:46.836 แต่เราจำเป็นต้องระวังตัวมาก 00:09:46.860 --> 00:09:50.587 จนอาจเสียการตระหนักรู้ ถึงความอยุติธรรมในสังคมเลยหรือครับ 00:09:51.203 --> 00:09:52.353 แล้วควรทำอย่างไรดีล่ะ 00:09:52.942 --> 00:09:55.934 เมื่อเร็วๆ นี้ Mark Zuckerberg บอกว่าในอนาคต 00:09:55.958 --> 00:09:59.760 ผู้ใช้ ก็คือเรา หรือเกือบทุกคน 00:09:59.784 --> 00:10:02.045 ต้องเป็นคนตัดสินใจเอง 00:10:02.069 --> 00:10:04.117 ว่าอยากเห็นอะไรในแพลตฟอร์ม 00:10:04.141 --> 00:10:06.172 ด้วยการตั้งค่าตัวกรองส่วนบุคคล 00:10:06.196 --> 00:10:09.268 ทุกคนก็จะเลือกได้ว่า จะไม่ดูภาพสงคราม 00:10:09.292 --> 00:10:13.031 หรือเนื้อหารุนแรงอื่นๆ เหมือนเดิม อย่างเช่น... NOTE Paragraph 00:10:13.849 --> 00:10:18.295 MR: ผมเป็นคนประเภทที่โอเค กับการเห็นภาพหน้าอก 00:10:18.319 --> 00:10:22.085 และผมสนใจเรื่องภาวะโลกร้อนมาก 00:10:22.109 --> 00:10:24.673 และไม่ชอบสงครามเอามากๆ NOTE Paragraph 00:10:25.109 --> 00:10:26.831 HB: ส่วนผมตรงข้ามเลยครับ 00:10:26.855 --> 00:10:30.908 ผมไม่สนใจอะไรกับหน้าอกเปลือย หรือร่างกายเปล่าเปลือยสักนิด 00:10:31.209 --> 00:10:34.120 แต่ชอบปืน ชอบมากเลย NOTE Paragraph 00:10:34.901 --> 00:10:38.646 MR: แล้วกัน ถ้าเราไม่มี จิตสำนึกทางสังคมร่วมกัน 00:10:38.670 --> 00:10:41.339 เราจะถกปัญหาสังคมกันได้อย่างไร 00:10:41.363 --> 00:10:43.760 เราจะเรียกร้องให้ผู้คนลงมือทำได้อย่างไร 00:10:43.784 --> 00:10:47.069 ในเมื่อเกิดโลกที่แยกขาดจากกันขึ้น 00:10:47.665 --> 00:10:50.896 หนึ่งในคำถามสำคัญคือ "ในอนาคต 00:10:50.920 --> 00:10:55.823 เสรีภาพในการแสดงออกจะมีความสำคัญแค่ไหน เมื่อเทียบกับที่คนเราอยากได้รับการปกป้อง" 00:10:56.441 --> 00:10:57.908 นี่เป็นเรื่องของหลักการ 00:10:58.602 --> 00:11:02.850 เราอยากออกแบบสังคม ในโลกดิจิทัลให้เป็น 00:11:02.874 --> 00:11:04.513 พื้นที่ปิดหรือเปิดเท่านั้นหรือ 00:11:05.054 --> 00:11:10.966 ใจกลางสำคัญของเรื่องนี้ คือ "เสรีภาพ ปะทะ ความปลอดภัย" 00:11:12.388 --> 00:11:16.872 เฟสบุ๊ค อยากเป็นแพลตฟอร์ม ที่ "ดีต่อใจ" มาโดยตลอด 00:11:16.896 --> 00:11:20.594 เหนือสิ่งอื่นใด ผู้ใช้ต้อง รู้สึกปลอดภัยและได้รับการปกป้อง 00:11:20.618 --> 00:11:22.738 ซึ่งเป็นคำเดียวกับที่ 00:11:22.762 --> 00:11:25.720 ผู้คัดกรองเนื้อหาในฟิลิปปินส์ เลือกใช้ 00:11:25.744 --> 00:11:27.544 จากการสัมภาษณ์จำนวนมาก NOTE Paragraph 00:11:28.188 --> 00:11:30.569 (วิดีโอ) โลกที่เราอาศัยอยู่ทุกวันนี้ 00:11:30.593 --> 00:11:32.759 ฉันเชื่อว่ามันไม่จรรโลงใจนัก NOTE Paragraph 00:11:32.783 --> 00:11:34.331 (เสียงดนตรี) NOTE Paragraph 00:11:34.355 --> 00:11:37.513 ในโลกนี้ ปีศาจร้ายมีตัวตนอยู่จริงๆ NOTE Paragraph 00:11:37.537 --> 00:11:40.775 (เสียงดนตรี) NOTE Paragraph 00:11:40.799 --> 00:11:42.862 เราต้องคอยจับตาดู NOTE Paragraph 00:11:42.886 --> 00:11:44.768 (เสียงดนตรี) NOTE Paragraph 00:11:44.792 --> 00:11:48.042 เราต้องคอยควบคุมทั้งสิ่งดีและเลว NOTE Paragraph 00:11:48.646 --> 00:11:55.646 (ดนตรี) NOTE Paragraph 00:11:58.193 --> 00:12:02.296 [ระวังหน่อยเจ้าหนุ่ม! --พระเจ้า] NOTE Paragraph 00:12:02.952 --> 00:12:07.230 MR: สำหรับผู้คัดกรองหนุ่มสาว ในสังคมคาทอลิกของฟิลิปปินส์ที่เคร่งศาสนา 00:12:07.254 --> 00:12:10.047 งานนี้เชื่อมโยงกับภารกิจของชาวคริสต์ 00:12:10.833 --> 00:12:13.799 ในการต่อสู้กับบาปของโลก 00:12:13.823 --> 00:12:15.997 ที่แพร่ไปทั่วเว็บไซต์ต่างๆ 00:12:16.641 --> 00:12:20.053 "รองจากศรัทธาในพระเจ้าคือความบริสุทธิ์" 00:12:20.077 --> 00:12:23.511 นี่เป็นวาทะที่ทุกคนในฟิลิปปินส์รู้จัก NOTE Paragraph 00:12:24.035 --> 00:12:25.694 HB: และอีกหลายคนจูงใจตัวเอง 00:12:25.718 --> 00:12:29.449 ด้วยการเปรียบเทียบกับ ประธานาธิบดีโรดริโก ดูแตร์เต 00:12:29.837 --> 00:12:33.328 ที่ดำรงตำแหน่งมาตั้งแต่ปี 2016 00:12:33.352 --> 00:12:37.345 และชนะการเลือกตั้งจากคำสัญญาว่า "ผมจะทำให้ประเทศนี้ใสสะอาด" 00:12:37.892 --> 00:12:41.209 ซึ่งหมายถึงการกำจัด ปัญหาทุกอย่างตรงตามตัว 00:12:41.233 --> 00:12:43.688 ด้วยการฆ่าผู้คนบนถนน 00:12:43.712 --> 00:12:46.577 ที่มีโอกาสเป็นอาชญากร ไม่ว่าอย่างไรก็ตาม 00:12:46.601 --> 00:12:47.871 และตั้งแต่เขาได้รับเลือก 00:12:47.895 --> 00:12:51.331 มีคนถูกฆ่าไปประมาณ 20,000 คน 00:12:51.655 --> 00:12:54.156 ผู้คัดกรองคนหนึ่งในหนังของเราบอกว่า 00:12:54.180 --> 00:12:56.235 "ผมทำสิ่งเดียวกับที่ดูแตร์เตทำ 00:12:56.259 --> 00:12:57.973 แต่เป็นทางอินเทอร์เน็ต" 00:12:58.934 --> 00:13:02.498 พวกเขาเป็นซูเปอร์ฮีโร่ที่ประกาศตน 00:13:02.522 --> 00:13:05.498 เป็นผู้บังคับใช้กฎระเบียบ ในโลกดิจิทัล 00:13:05.522 --> 00:13:07.903 พวกเขาเก็บกวาด ขัดถูทุกอย่างจนบริสุทธิ์ผุดผ่อง 00:13:07.927 --> 00:13:10.260 ทำให้สิ่งชั่วร้ายหายไป 00:13:10.284 --> 00:13:14.013 หน้าที่ที่เคยสงวนไว้ สำหรับเจ้าหน้าที่รัฐ 00:13:14.037 --> 00:13:17.712 กลายมาเป็นของเด็กจบมหาวิทยาลัย วัย 20 ต้นๆ 00:13:17.736 --> 00:13:20.629 ที่ได้รับการฝึกอบรม 3 ถึง 5 วัน 00:13:20.653 --> 00:13:22.589 คุณสมบัติประจำตำแหน่งนี้คือ 00:13:22.613 --> 00:13:25.680 คนที่ทำงานไม่ต่างไปจาก หน่วยกู้ภัยโลก NOTE Paragraph 00:13:26.756 --> 00:13:30.975 MR: อธิปไตยของชาติถูกฝากฝัง ในมือบริษัทเอกชน 00:13:30.999 --> 00:13:35.007 แล้วก็ส่งต่อความรับผิดชอบ ให้กับบริษัทภายนอก 00:13:35.031 --> 00:13:38.094 ซึ่งเป็นบริษัทภายนอกของภายนอก ของภายนอกอีกที 00:13:38.118 --> 00:13:39.268 ที่ได้รับหน้าที่นี้ 00:13:39.618 --> 00:13:41.014 ในสังคมออนไลน์ 00:13:41.038 --> 00:13:44.053 เราต้องรับมือกับ โครงสร้างพื้นฐานแบบใหม่ล้วนๆ 00:13:44.077 --> 00:13:45.593 ที่ระบบกลไกของมัน 00:13:45.617 --> 00:13:47.196 และตรรกะในการทำสิ่งต่างๆ 00:13:47.220 --> 00:13:52.465 หรือก็คืออันตรายแบบใหม่ 00:13:52.489 --> 00:13:56.514 ยังไม่เคยมีการพูดถึงในพื้นที่สาธารณะ ก่อนหน้ายุคดิจิทัล NOTE Paragraph 00:13:56.538 --> 00:13:58.747 HB: ตอน Mark Zuckerberg ขึ้นให้การที่สภาคองเกรส 00:13:58.771 --> 00:14:00.541 หรือที่รัฐสภายุโรป 00:14:00.565 --> 00:14:03.200 เขาต้องเผชิญกับ คำวิจารณ์ทุกรูปแบบ 00:14:03.224 --> 00:14:05.804 และเขาก็ตอบแบบเดิมเสมอ 00:14:06.501 --> 00:14:07.969 "เราจะแก้ไข 00:14:07.993 --> 00:14:10.544 และผมจะติดตามผลเรื่องนี้ กับทีม" 00:14:11.167 --> 00:14:14.945 แต่การถกเถียงไม่ควรเกิดขึ้น ที่หลังห้องประชุมของเฟสบุ๊ค 00:14:14.969 --> 00:14:16.254 ทวิตเตอร์ หรือกูเกิล 00:14:16.278 --> 00:14:21.094 การถกเถียงนั้นควรพูดคุยอย่างเปิดกว้าง ในรัฐสภาแบบใหม่ทั่วโลก 00:14:21.118 --> 00:14:25.978 ในสถาบันแบบใหม่ที่มี ผู้คนหลากหลายแบบ 00:14:26.002 --> 00:14:30.544 ซึ่งอุทิศตนให้กับโครงการ อินเทอร์เน็ตโลกในอุดมคติ 00:14:30.568 --> 00:14:33.945 และแม้การคำนึงถึงค่านิยม ของผู้ใช้ทั่วโลก 00:14:33.969 --> 00:14:36.211 อาจเป็นไปได้ยาก 00:14:36.235 --> 00:14:37.917 แต่ก็คุ้มที่จะเชื่อมั่น 00:14:37.941 --> 00:14:41.227 ว่ามีสิ่งที่เชื่อมโยงเราเข้ากัน มากกว่าแยกเราออกจากกัน NOTE Paragraph 00:14:41.624 --> 00:14:45.331 MR: ครับ ในช่วงเวลา ที่ความเป็นประชานิยมมีมากขึ้น 00:14:45.355 --> 00:14:48.553 ผู้คนนิยม ตัดสินสิ่งต่างๆ 00:14:48.577 --> 00:14:49.855 ถอนรากถอนโคน 00:14:49.879 --> 00:14:51.767 และทำให้หายไปจากการรับรู้ 00:14:52.919 --> 00:14:56.268 แนวคิดนี้แพร่ไปทั่วโลก 00:14:56.292 --> 00:14:59.077 ทั้งโลกอะนาล็อกและดิจิทัล 00:14:59.903 --> 00:15:03.395 ซึ่งเราทุกคนมีหน้าที่หยุดเรื่องนี้ 00:15:03.419 --> 00:15:05.045 ก่อนจะสายเกินไป 00:15:05.665 --> 00:15:09.649 การตั้งคำถามอย่างเสรี และเป็นประชาธิปไตย 00:15:09.673 --> 00:15:12.640 ไม่ควรมีแค่สองตัวเลือกนี้ NOTE Paragraph 00:15:13.053 --> 00:15:14.219 HB: คือลบ NOTE Paragraph 00:15:14.243 --> 00:15:16.390 MR: หรือข้ามไป NOTE Paragraph 00:15:17.300 --> 00:15:18.897 HB: ขอบคุณมากครับ NOTE Paragraph 00:15:18.921 --> 00:15:24.190 (เสียงปรบมือ)