Return to Video

ราคาของอินเตอร์เน็ต "ที่ใสสะอาด"

  • 0:02 - 0:04
    [วิดีโอนี้มีเนื้อหาที่เหมาะกับผู้ใหญ่]
  • 0:05 - 0:09
    Moritz Riesewieck: วันที่ 23 มีนาคม 2013
  • 0:09 - 0:13
    ผู้ใช้ทั่วโลกพบว่าบนหน้านิวส์ฟีดของตน
  • 0:14 - 0:19
    มีวิดีโอเด็กผู้หญิงถูกชายแก่ข่มขืน
  • 0:19 - 0:23
    ก่อนที่วิดีโอนี้จะถูกลบออกจากเฟสบุ๊ค
  • 0:23 - 0:28
    ก็มีการแชร์ไปแล้ว 16,000 ครั้ง
  • 0:28 - 0:32
    และมีคนกดไลค์ถึง 4,000 ครั้ง
  • 0:33 - 0:37
    วีดิโอนี้กลายเป็นกระแส
    ลามไปทั่วอินเตอร์เน็ต
  • 0:38 - 0:41
    Hans Block: และนั่นเป็นตอนที่
    เราถามตัวเองว่า
  • 0:41 - 0:44
    เนื้อหาแบบนี้มาอยู่ในเฟสบุ๊คได้อย่างไร
  • 0:44 - 0:48
    แต่ในเวลาเดียวกัน
    ทำไมเราถึงไม่ค่อยเห็นเนื้อหาแบบนี้บ่อยๆ
  • 0:48 - 0:52
    ในเมื่อมีสื่อแย่ๆ เต็มโลกออนไลน์ไปหมด
  • 0:52 - 0:56
    แต่ทำไมเราจึงไม่ค่อยเห็นขยะแบบนั้น
    ในเฟสบุ๊ค, ทวิตเตอร์ หรือกูเกิล ล่ะ
  • 0:57 - 0:59
    MR: แม้ซอฟต์แวร์จดจำใบหน้า
  • 0:59 - 1:04
    จะระบุรูปทรงอวัยวะที่เกี่ยวกับเพศ
  • 1:04 - 1:08
    เลือดหรือการเปลือยในรูปและวิดีโอได้
  • 1:08 - 1:14
    แต่กลับมีปัญหาในการแยกแยะ
    เนื้อหาลามก
  • 1:14 - 1:18
    ออกจากภาพวันหยุด รูปปั้นอโดนิส
  • 1:18 - 1:21
    หรือแคมเปญตรวจคัดกรองมะเร็งเต้านม
  • 1:21 - 1:25
    มันไม่สามารถแยกแยะโรมิโอกับจูเลียต
    ที่ตายบนเวที
  • 1:25 - 1:28
    จากการโดนแทงจริงๆ
  • 1:28 - 1:33
    มันไม่สามารถแยกแยะการเสียดสีออกจาก
    การโฆษณาชวนเชื่อ
  • 1:33 - 1:37
    หรือการประชดออกจากความเกลียดชังจริงๆ
    แล้วก็อีกหลายอย่าง
  • 1:38 - 1:42
    ดังนั้น จึงต้องมีคนที่คอยตัดสิน
  • 1:42 - 1:46
    ว่าเนื้อหาน่าสงสัยอันไหนควรลบทิ้ง
  • 1:46 - 1:48
    และอันไหนควรเก็บไว้
  • 1:49 - 1:52
    กลุ่มคนที่เราแทบไม่รู้จักเลย
  • 1:52 - 1:54
    เพราะการทำงานที่เป็นความลับ
  • 1:54 - 1:56
    พวกเขาเซ็นข้อตกลงห้ามเปิดเผยข้อมูล
  • 1:56 - 1:59
    ที่ห้ามพูดหรือแชร์ข้อมูล
  • 1:59 - 2:03
    ที่เห็นบนหน้าจอตัวเอง
    หรือว่างานนี้ทำให้พวกเขาเป็นอย่างไร
  • 2:03 - 2:07
    พวกเขาถูกบังคับให้ใช้โค้ดลับ
    เพื่อปิดบังว่าตนทำงานให้ใคร
  • 2:08 - 2:10
    พวกเขาถูกจับตา
    จากบริษัทรักษาความปลอดภัยเอกชน
  • 2:11 - 2:14
    เพื่อให้แน่ใจว่า
    จะไม่ไปพูดกับนักข่าว
  • 2:14 - 2:18
    และจะต้องเสียค่าปรับ
    ถ้าเกิดทำอย่างนั้น
  • 2:18 - 2:22
    ทั้งหมดนี้ฟังดูเหมือน
    อาชญากรรมแปลกๆ
  • 2:22 - 2:24
    แต่เป็นเรื่องจริงครับ
  • 2:24 - 2:25
    คนเหล่านี้มีตัวตนจริง
  • 2:26 - 2:30
    และเรียกกันว่าผู้คัดกรองเนื้อหา
  • 2:31 - 2:34
    HB: เราเป็นผู้กำกับภาพยนตร์
    สารคดีความยาวปานกลางเรื่อง "The Cleaners"
  • 2:34 - 2:36
    และอยากพาคุณ
  • 2:36 - 2:39
    เข้าสู่โลกที่หลายๆ คนอาจยังไม่รู้จัก
  • 2:39 - 2:41
    มาดูคลิปสั้นๆ จากหนังของเรากันครับ
  • 2:47 - 2:50
    (เสียงดนตรี)
  • 2:52 - 2:56
    (วิดีโอ) ผู้คัดกรอง:ฉันเปิดเผยตัวตนไม่ได้
    เพราะว่าเซ็นสัญญาไว้
  • 2:58 - 3:01
    เราเปิดเผยไม่ได้ว่าทำงานกับใคร
  • 3:03 - 3:05
    เหตุผลที่ฉันบอกคุณ
  • 3:05 - 3:09
    เพราะโลกควรได้รู้ว่ายังมีพวกเราอยู่
  • 3:11 - 3:13
    มีคนที่คอยตรวจสอบ
    โซเชียลมีเดียอยู่
  • 3:14 - 3:18
    เราตั้งใจทำงานสุดความสามารถ
    เพื่อให้แพลตฟอร์มนี้
  • 3:18 - 3:20
    ปลอดภัยสำหรับทุกคน
  • 3:30 - 3:32
    ลบ
  • 3:32 - 3:34
    ข้าม
  • 3:34 - 3:35
    ลบ
  • 3:35 - 3:37
    ข้าม
  • 3:37 - 3:38
    ลบ
  • 3:39 - 3:40
    ข้าม
  • 3:40 - 3:41
    ข้าม
  • 3:42 - 3:43
    ลบ
  • 3:46 - 3:48
    HB: กลุ่มคนที่เรียกว่าผู้คัดกรองเนื้อหา
  • 3:48 - 3:52
    ไม่ได้รับรายได้จากเฟสบุ๊ค,
    ทวิตเตอร์ หรือกูเกิล โดยตรง
  • 3:52 - 3:54
    แต่จากบริษัทจัดจ้างภายนอกทั่วโลก
  • 3:54 - 3:56
    เพื่อให้ค่าจ้างต่ำ
  • 3:57 - 3:59
    คนหนุ่มสาวหลายหมื่นคน
  • 3:59 - 4:02
    ซึ่งเห็นทุกสิ่งที่เราไม่ควรเห็น
  • 4:02 - 4:06
    ทั้งการฆ่าตัดคอ
    การตัดแขนขา
  • 4:06 - 4:09
    การประหารชีวิต การร่วมเพศกับศพ
    การทรมาน การทารุณเด็ก
  • 4:10 - 4:12
    นับพันรูปในหนึ่งกะ
  • 4:12 - 4:15
    ลบ ข้าม ทั้งกลางวันกลางคืน
  • 4:15 - 4:19
    งานส่วนใหญ่ดำเนินการในมะนิลา
  • 4:19 - 4:22
    ที่ที่มีการขนส่งขยะอิเล็กทรอนิกส์มีพิษ
  • 4:22 - 4:25
    มาจากโลกตะวันตกเป็นเวลาหลายปี
    ทางเรือขนส่ง
  • 4:25 - 4:29
    ซึ่งตอนนี้เป็นการทิ้งขยะ
    ผ่านทางสายไฟเบอร์ออปติก
  • 4:29 - 4:32
    หน้าที่ของพวกเขาไม่ต่างจากคนเก็บขยะ
  • 4:32 - 4:35
    ที่คุ้ยอยู่เหนือขยะกองมหึมา
    ใกล้เมือง
  • 4:35 - 4:40
    ผู้คัดกรองเนื้อหาก็คลิกไปบน
    มหาสมุทรแห่งสารพิษอันไร้ที่สิ้นสุด
  • 4:40 - 4:44
    ทั้งรูปภาพ วิดีโอ และขยะที่ประดิษฐ์ขึ้น
    ทุกรูปแบบ
  • 4:44 - 4:47
    เพื่อให้เราไม่ต้องเห็นมัน
  • 4:47 - 4:50
    MR: แต่บาดแผลของผู้คัดกรอง
  • 4:50 - 4:54
    ไม่เหมือนกับของคนเก็บขยะ
    ตรงที่มันมองไม่เห็น
  • 4:54 - 4:57
    เนื้อหาทั้งรูปภาพและวิดีโอ
  • 4:57 - 5:00
    ที่ชวนผวาและรบกวนใจทั้งหลาย
    ซุกซ่อนในความทรงจำของพวกเขา
  • 5:01 - 5:04
    และอาจส่งผลที่คาดเดาไม่ได้ทุกเวลา
  • 5:04 - 5:07
    ทั้งอาการกินผิดปกติ
    หมดความรู้สึกทางเพศ
  • 5:07 - 5:11
    อาการวิตกกังวล ติดเหล้า
  • 5:11 - 5:14
    ซึมเศร้า กระทั่งนำไปสู่
    การฆ่าตัวตาย
  • 5:14 - 5:17
    รูปภาพและวิดีโอพวกนั้น
    ส่งผลต่อพวกเขา
  • 5:17 - 5:19
    และมักไม่มีทางหายไปไหน
  • 5:19 - 5:24
    หากโชคร้าย พวกเขาก็อาจมี
    ภาวะผิดปกติทางจิตใจจากเหตุการณ์รุนแรง
  • 5:24 - 5:26
    เหมือนทหารที่เพิ่งกลับจากสงคราม
  • 5:27 - 5:31
    ในหนังเรื่องนี้ เราเล่าเรื่อง
    ชายหนุ่มคนหนึ่ง
  • 5:31 - 5:36
    ที่ต้องคอยตรวจสอบการไลฟ์วิดีโอ
    ทำร้ายตัวเองและการพยายามฆ่าตัวตาย
  • 5:36 - 5:38
    ซ้ำแล้วซ้ำเล่า
  • 5:38 - 5:41
    และท้ายที่สุดก็ฆ่าตัวตายเอง
  • 5:42 - 5:45
    เท่าที่เรารู้ เรื่องนี้ไม่ใช่แค่กรณีเดียว
  • 5:45 - 5:49
    นี่คือราคาที่เราทุกคนจ่าย
  • 5:49 - 5:55
    ให้กับสิ่งที่เรียกว่า
    สภาพแวดล้อมในโซเชียลมีเดีย
  • 5:55 - 5:57
    ที่สะอาด ปลอดภัย
    และ "ดีต่อจิตใจ"
  • 5:58 - 6:01
    เราติดต่อกับคนนับล้านทั่วโลก
  • 6:01 - 6:04
    ได้ง่ายขึ้นอย่างที่ไม่เคยมีมาก่อน
    ในประวัติศาสตร์
  • 6:04 - 6:06
    ด้วยเวลาเพียงไม่กี่วินาที
  • 6:06 - 6:10
    สิ่งที่โพสต์ลงในโซเชียลมีเดีย
    แพร่ออกไปอย่างรวดเร็ว
  • 6:10 - 6:14
    กลายเป็นกระแส และสร้างความตื่นเต้น
    ให้ผู้คนทั่วโลก
  • 6:14 - 6:17
    ก่อนที่มันจะถูกลบ
  • 6:17 - 6:18
    ก็มักสายเกินไปแล้ว
  • 6:19 - 6:21
    ผู้คนนับล้านติดเชื้อ
    ความเกลียดชัง
  • 6:21 - 6:23
    และความโกรธแค้นไปแล้ว
  • 6:23 - 6:26
    แล้วพวกเขาก็มามีบทบาท
    ในโลกออนไลน์
  • 6:26 - 6:29
    ด้วยการแพร่หรือโหมกระพือ
    ความเกลียดชัง
  • 6:29 - 6:33
    ไม่ก็ออกไปก่อความรุนแรง
    ตามท้องถนน
  • 6:33 - 6:36
    HB: จึงต้องมีกองทัพผู้คัดกรองเนื้อหา
  • 6:36 - 6:40
    นั่งประจำตรงหน้าจอเพื่อเลี่ยงไม่ให้เกิด
    ความเสียหายในแบบเดียวกันอีก
  • 6:40 - 6:43
    และพวกเขาต้องตัดสินใจ
    ให้เร็วที่สุด
  • 6:43 - 6:47
    ว่าเนื้อหานั้นๆ จะอยู่ในแพลตฟอร์ม
    ด้วยการกดข้าม
  • 6:47 - 6:49
    หรือต้องหายไปด้วยการกดลบ
  • 6:50 - 6:52
    แต่ก็ไม่ใช่ว่าทุกการตัดสินใจ
    จะทำได้อย่างชัดเจน
  • 6:52 - 6:55
    เหมือนการตัดสินใจเกี่ยวกับ
    วิดีโอการทารุณเด็ก
  • 6:55 - 6:58
    แล้วเนื้อหาซึ่งเป็นที่ถกเถียง
    เนื้อหาที่ก้ำกึ่ง
  • 6:58 - 7:01
    ที่นักเคลื่อนไหวเพื่อสิทธิ
    หรือนักข่าวพลเมืองอัปโหลดล่ะ
  • 7:02 - 7:05
    ผู้คัดกรองเนื้อหา
    มักตัดสินใจในกรณีดังกล่าว
  • 7:05 - 7:08
    ด้วยความรวดเร็วเท่ากับ
    เนื้อหาที่ [ชัดเจน]
  • 7:10 - 7:12
    MR: เราจะให้คุณดูวิดีโออันหนึ่ง
  • 7:12 - 7:16
    และอยากขอให้คุณตัดสินใจ
  • 7:16 - 7:17
    ว่าจะลบ
  • 7:17 - 7:19
    หรือไม่ลบ
  • 7:19 - 7:21
    (วิดีโอ) (เสียงการโจมตีทางอากาศ)
  • 7:21 - 7:24
    (เสียงระเบิด)
  • 7:28 - 7:34
    (คนพูดภาษาอาหรับ)
  • 7:34 - 7:36
    MR: เราได้เบลอบางส่วนในวิดีโอนะครับ
  • 7:37 - 7:41
    เด็กอาจตกใจอย่างรุนแรง
  • 7:41 - 7:44
    และหวาดกลัวเนื้อหาประะภทนี้อย่างมาก
  • 7:44 - 7:46
    งั้นคุณก็น่าจะลบใช่ไหมครับ
  • 7:48 - 7:52
    แต่ถ้าเกิดวิดีโอนี้ช่วยสืนสวน
    การก่อสงครามในซีเรียได้ล่ะ
  • 7:53 - 7:56
    ถ้าเกิดไม่มีใครเคยได้ยิน
    เรื่องการโจมตีทางอากาศนี้
  • 7:56 - 8:00
    เพราะเฟสบุ๊ค, ยูทูบ, ทวิตเตอร์
    ตัดสินใจลบทิ้งไปล่ะ
  • 8:01 - 8:05
    Airwars ซึ่งเป็นองค์กรนอกภาครัฐ
    ในลอนดอน
  • 8:05 - 8:08
    พยายามค้นหาวิดีโอเหล่านั้น
    ให้เร็วที่สุด
  • 8:08 - 8:11
    ไม่ว่าจะอัปโหลดลงใน
    โซเชียลมีเดียเมื่อไรก็ตาม
  • 8:11 - 8:12
    เพื่อบันทึกเก็บไว้
  • 8:13 - 8:16
    เพราะบริษัทนี้รู้ว่า
    ไม่ช้าก็เร็ว
  • 8:16 - 8:19
    เฟสบุ๊ค, ยูทูบ, ทวิตเตอร์
    จะลบเนื้อหานั้นออก
  • 8:19 - 8:22
    ผู้คนที่มีโทรศัพท์มือถือ
  • 8:22 - 8:26
    สามารถเห็นสิ่งต่างๆ
    ที่นักข่าวมักไม่ได้เห็น
  • 8:26 - 8:29
    กลุ่มสิทธิมนุษยชน
    มักไม่มีทางเลือก
  • 8:29 - 8:33
    ในการทำให้วิดีโอของกลุ่ม
    เข้าถึงผู้ชมจำนวนมากอย่างรวดเร็ว
  • 8:33 - 8:35
    ได้ดีไปกว่าการอัปโหลดลงโซเชียลมีเดีย
  • 8:36 - 8:40
    นี่ไม่ใช่ศักยภาพของการส่งเสริม
    ที่เครือข่ายอินเทอร์เน็ตควรมีหรอกหรือครับ
  • 8:41 - 8:43
    นี่ไม่ใช่ความฝัน
  • 8:43 - 8:47
    ที่ผู้คนในยุคแรกเริ่มมี
    เกี่ยวกับอินเทอร์เน็ตหรือครับ
  • 8:48 - 8:50
    รูปภาพและวิดีโอพวกนี้
  • 8:50 - 8:56
    จะโน้มน้าวให้คนที่มีภูมิต้านทาน
    ต่อความเป็นจริง
  • 8:56 - 8:57
    คิดทบทวนไม่ได้หรือครับ ?
  • 8:58 - 9:02
    HB: แต่ทุกสิ่งที่อาจก่อกวนจิตใจ
    กลับถูกลบทิ้ง
  • 9:02 - 9:04
    และเกิดการเปลี่ยนแปลงไปทั่วในสังคม
  • 9:04 - 9:08
    เช่น มีสื่อจำนวนมากขึ้นเรื่อยๆ
    ที่ขึ้นคำเตือนเนื้อหาสุ่มเสี่ยง
  • 9:08 - 9:09
    ตรงหัวบทความ
  • 9:09 - 9:13
    ซึ่งบางคนอาจมองว่า
    ทำให้ขุ่นเคืองหรือสร้างปัญหา
  • 9:13 - 9:17
    หรือนักศึกษามหาวิทยาลัย
    ในสหรัฐอเมริกาจำนวนมากขึ้น
  • 9:17 - 9:19
    เรียกร้องให้แบนผลงานคลาสสิกยุคเก่า
  • 9:19 - 9:23
    ที่บรรยายความรุนแรงทางเพศ
    หรือการล่วงละเมิดออกจากหลักสูตร
  • 9:23 - 9:25
    แต่มันควรไปไกลขนาดไหนล่ะ
  • 9:26 - 9:29
    บูรณภาพแห่งร่างกาย
    เป็นสิทธิมนุษยชนข้อหนึ่ง
  • 9:29 - 9:31
    ในสถาบันต่างๆ ทั่วโลก
  • 9:31 - 9:35
    ในกฎบัตรสิทธิขั้นพื้นฐาน
    ของสหภาพยุโรป
  • 9:35 - 9:39
    สิทธิข้อนี้จะสื่อถึง
    บูรณภาพทางจิตใจ
  • 9:39 - 9:42
    ถึงแม้ว่าผลกระทบจากเหตุรุนแรง
  • 9:42 - 9:45
    ที่มาจากรูปภาพและวิดีโอนั้นยากจะคาดเดา
  • 9:45 - 9:47
    แต่เราจำเป็นต้องระวังตัวมาก
  • 9:47 - 9:51
    จนอาจเสียการตระหนักรู้
    ถึงความอยุติธรรมในสังคมเลยหรือครับ
  • 9:51 - 9:52
    แล้วควรทำอย่างไรดีล่ะ
  • 9:53 - 9:56
    เมื่อเร็วๆ นี้ Mark Zuckerberg
    บอกว่าในอนาคต
  • 9:56 - 10:00
    ผู้ใช้ ก็คือเรา หรือเกือบทุกคน
  • 10:00 - 10:02
    ต้องเป็นคนตัดสินใจเอง
  • 10:02 - 10:04
    ว่าอยากเห็นอะไรในแพลตฟอร์ม
  • 10:04 - 10:06
    ด้วยการตั้งค่าตัวกรองส่วนบุคคล
  • 10:06 - 10:09
    ทุกคนก็จะเลือกได้ว่า
    จะไม่ดูภาพสงคราม
  • 10:09 - 10:13
    หรือเนื้อหารุนแรงอื่นๆ เหมือนเดิม
    อย่างเช่น...
  • 10:14 - 10:18
    MR: ผมเป็นคนประเภทที่โอเค
    กับการเห็นภาพหน้าอก
  • 10:18 - 10:22
    และผมสนใจเรื่องภาวะโลกร้อนมาก
  • 10:22 - 10:25
    และไม่ชอบสงครามเอามากๆ
  • 10:25 - 10:27
    HB: ส่วนผมตรงข้ามเลยครับ
  • 10:27 - 10:31
    ผมไม่สนใจอะไรกับหน้าอกเปลือย
    หรือร่างกายเปล่าเปลือยสักนิด
  • 10:31 - 10:34
    แต่ชอบปืน ชอบมากเลย
  • 10:35 - 10:39
    MR: แล้วกัน ถ้าเราไม่มี
    จิตสำนึกทางสังคมร่วมกัน
  • 10:39 - 10:41
    เราจะถกปัญหาสังคมกันได้อย่างไร
  • 10:41 - 10:44
    เราจะเรียกร้องให้ผู้คนลงมือทำได้อย่างไร
  • 10:44 - 10:47
    ในเมื่อเกิดโลกที่แยกขาดจากกันขึ้น
  • 10:48 - 10:51
    หนึ่งในคำถามสำคัญคือ
    "ในอนาคต
  • 10:51 - 10:56
    เสรีภาพในการแสดงออกจะมีความสำคัญแค่ไหน
    เมื่อเทียบกับที่คนเราอยากได้รับการปกป้อง"
  • 10:56 - 10:58
    นี่เป็นเรื่องของหลักการ
  • 10:59 - 11:03
    เราอยากออกแบบสังคม
    ในโลกดิจิทัลให้เป็น
  • 11:03 - 11:05
    พื้นที่ปิดหรือเปิดเท่านั้นหรือ
  • 11:05 - 11:11
    ใจกลางสำคัญของเรื่องนี้
    คือ "เสรีภาพ ปะทะ ความปลอดภัย"
  • 11:12 - 11:17
    เฟสบุ๊ค อยากเป็นแพลตฟอร์ม
    ที่ "ดีต่อใจ" มาโดยตลอด
  • 11:17 - 11:21
    เหนือสิ่งอื่นใด ผู้ใช้ต้อง
    รู้สึกปลอดภัยและได้รับการปกป้อง
  • 11:21 - 11:23
    ซึ่งเป็นคำเดียวกับที่
  • 11:23 - 11:26
    ผู้คัดกรองเนื้อหาในฟิลิปปินส์
    เลือกใช้
  • 11:26 - 11:28
    จากการสัมภาษณ์จำนวนมาก
  • 11:28 - 11:31
    (วิดีโอ) โลกที่เราอาศัยอยู่ทุกวันนี้
  • 11:31 - 11:33
    ฉันเชื่อว่ามันไม่จรรโลงใจนัก
  • 11:33 - 11:34
    (เสียงดนตรี)
  • 11:34 - 11:38
    ในโลกนี้ ปีศาจร้ายมีตัวตนอยู่จริงๆ
  • 11:38 - 11:41
    (เสียงดนตรี)
  • 11:41 - 11:43
    เราต้องคอยจับตาดู
  • 11:43 - 11:45
    (เสียงดนตรี)
  • 11:45 - 11:48
    เราต้องคอยควบคุมทั้งสิ่งดีและเลว
  • 11:49 - 11:56
    (ดนตรี)
  • 11:58 - 12:02
    [ระวังหน่อยเจ้าหนุ่ม! --พระเจ้า]
  • 12:03 - 12:07
    MR: สำหรับผู้คัดกรองหนุ่มสาว
    ในสังคมคาทอลิกของฟิลิปปินส์ที่เคร่งศาสนา
  • 12:07 - 12:10
    งานนี้เชื่อมโยงกับภารกิจของชาวคริสต์
  • 12:11 - 12:14
    ในการต่อสู้กับบาปของโลก
  • 12:14 - 12:16
    ที่แพร่ไปทั่วเว็บไซต์ต่างๆ
  • 12:17 - 12:20
    "รองจากศรัทธาในพระเจ้าคือความบริสุทธิ์"
  • 12:20 - 12:24
    นี่เป็นวาทะที่ทุกคนในฟิลิปปินส์รู้จัก
  • 12:24 - 12:26
    HB: และอีกหลายคนจูงใจตัวเอง
  • 12:26 - 12:29
    ด้วยการเปรียบเทียบกับ
    ประธานาธิบดีโรดริโก ดูแตร์เต
  • 12:30 - 12:33
    ที่ดำรงตำแหน่งมาตั้งแต่ปี 2016
  • 12:33 - 12:37
    และชนะการเลือกตั้งจากคำสัญญาว่า
    "ผมจะทำให้ประเทศนี้ใสสะอาด"
  • 12:38 - 12:41
    ซึ่งหมายถึงการกำจัด
    ปัญหาทุกอย่างตรงตามตัว
  • 12:41 - 12:44
    ด้วยการฆ่าผู้คนบนถนน
  • 12:44 - 12:47
    ที่มีโอกาสเป็นอาชญากร
    ไม่ว่าอย่างไรก็ตาม
  • 12:47 - 12:48
    และตั้งแต่เขาได้รับเลือก
  • 12:48 - 12:51
    มีคนถูกฆ่าไปประมาณ 20,000 คน
  • 12:52 - 12:54
    ผู้คัดกรองคนหนึ่งในหนังของเราบอกว่า
  • 12:54 - 12:56
    "ผมทำสิ่งเดียวกับที่ดูแตร์เตทำ
  • 12:56 - 12:58
    แต่เป็นทางอินเทอร์เน็ต"
  • 12:59 - 13:02
    พวกเขาเป็นซูเปอร์ฮีโร่ที่ประกาศตน
  • 13:03 - 13:05
    เป็นผู้บังคับใช้กฎระเบียบ
    ในโลกดิจิทัล
  • 13:06 - 13:08
    พวกเขาเก็บกวาด
    ขัดถูทุกอย่างจนบริสุทธิ์ผุดผ่อง
  • 13:08 - 13:10
    ทำให้สิ่งชั่วร้ายหายไป
  • 13:10 - 13:14
    หน้าที่ที่เคยสงวนไว้
    สำหรับเจ้าหน้าที่รัฐ
  • 13:14 - 13:18
    กลายมาเป็นของเด็กจบมหาวิทยาลัย
    วัย 20 ต้นๆ
  • 13:18 - 13:21
    ที่ได้รับการฝึกอบรม 3 ถึง 5 วัน
  • 13:21 - 13:23
    คุณสมบัติประจำตำแหน่งนี้คือ
  • 13:23 - 13:26
    คนที่ทำงานไม่ต่างไปจาก
    หน่วยกู้ภัยโลก
  • 13:27 - 13:31
    MR: อธิปไตยของชาติถูกฝากฝัง
    ในมือบริษัทเอกชน
  • 13:31 - 13:35
    แล้วก็ส่งต่อความรับผิดชอบ
    ให้กับบริษัทภายนอก
  • 13:35 - 13:38
    ซึ่งเป็นบริษัทภายนอกของภายนอก
    ของภายนอกอีกที
  • 13:38 - 13:39
    ที่ได้รับหน้าที่นี้
  • 13:40 - 13:41
    ในสังคมออนไลน์
  • 13:41 - 13:44
    เราต้องรับมือกับ
    โครงสร้างพื้นฐานแบบใหม่ล้วนๆ
  • 13:44 - 13:46
    ที่ระบบกลไกของมัน
  • 13:46 - 13:47
    และตรรกะในการทำสิ่งต่างๆ
  • 13:47 - 13:52
    หรือก็คืออันตรายแบบใหม่
  • 13:52 - 13:57
    ยังไม่เคยมีการพูดถึงในพื้นที่สาธารณะ
    ก่อนหน้ายุคดิจิทัล
  • 13:57 - 13:59
    HB: ตอน Mark Zuckerberg
    ขึ้นให้การที่สภาคองเกรส
  • 13:59 - 14:01
    หรือที่รัฐสภายุโรป
  • 14:01 - 14:03
    เขาต้องเผชิญกับ
    คำวิจารณ์ทุกรูปแบบ
  • 14:03 - 14:06
    และเขาก็ตอบแบบเดิมเสมอ
  • 14:07 - 14:08
    "เราจะแก้ไข
  • 14:08 - 14:11
    และผมจะติดตามผลเรื่องนี้
    กับทีม"
  • 14:11 - 14:15
    แต่การถกเถียงไม่ควรเกิดขึ้น
    ที่หลังห้องประชุมของเฟสบุ๊ค
  • 14:15 - 14:16
    ทวิตเตอร์ หรือกูเกิล
  • 14:16 - 14:21
    การถกเถียงนั้นควรพูดคุยอย่างเปิดกว้าง
    ในรัฐสภาแบบใหม่ทั่วโลก
  • 14:21 - 14:26
    ในสถาบันแบบใหม่ที่มี
    ผู้คนหลากหลายแบบ
  • 14:26 - 14:31
    ซึ่งอุทิศตนให้กับโครงการ
    อินเทอร์เน็ตโลกในอุดมคติ
  • 14:31 - 14:34
    และแม้การคำนึงถึงค่านิยม
    ของผู้ใช้ทั่วโลก
  • 14:34 - 14:36
    อาจเป็นไปได้ยาก
  • 14:36 - 14:38
    แต่ก็คุ้มที่จะเชื่อมั่น
  • 14:38 - 14:41
    ว่ามีสิ่งที่เชื่อมโยงเราเข้ากัน
    มากกว่าแยกเราออกจากกัน
  • 14:42 - 14:45
    MR: ครับ ในช่วงเวลา
    ที่ความเป็นประชานิยมมีมากขึ้น
  • 14:45 - 14:49
    ผู้คนนิยม
    ตัดสินสิ่งต่างๆ
  • 14:49 - 14:50
    ถอนรากถอนโคน
  • 14:50 - 14:52
    และทำให้หายไปจากการรับรู้
  • 14:53 - 14:56
    แนวคิดนี้แพร่ไปทั่วโลก
  • 14:56 - 14:59
    ทั้งโลกอะนาล็อกและดิจิทัล
  • 15:00 - 15:03
    ซึ่งเราทุกคนมีหน้าที่หยุดเรื่องนี้
  • 15:03 - 15:05
    ก่อนจะสายเกินไป
  • 15:06 - 15:10
    การตั้งคำถามอย่างเสรี
    และเป็นประชาธิปไตย
  • 15:10 - 15:13
    ไม่ควรมีแค่สองตัวเลือกนี้
  • 15:13 - 15:14
    HB: คือลบ
  • 15:14 - 15:16
    MR: หรือข้ามไป
  • 15:17 - 15:19
    HB: ขอบคุณมากครับ
  • 15:19 - 15:24
    (เสียงปรบมือ)
Title:
ราคาของอินเตอร์เน็ต "ที่ใสสะอาด"
Speaker:
Hans Block และ Moritz Riesewieck
Description:

แต่ละวันมีการอัปโหลดรูปภาพและวิดีโอนับล้านลงในอินเทอร์เน็ต แต่เราแทบไม่เคยเห็นเนื้อหาที่น่าตกใจและก่อกวนในโซเชียลมีเดียเลย แล้วใครล่ะที่คอยดูแลให้อินเทอร์เน็ต "ใสสะอาด" เพื่อเรา การพูดคุยซึ่งเปิดมุมมองครั้งนี้ ได้รับเกียรติจาก Hans Block และ Moritz Riesewieck สองนักทำสารคดี ซึ่งพาเราไปรู้จักกับโลกของผู้คัดกรองเนื้อหาที่ซ่อนตัวอยู่ในเงา บุคคลเหล่านี้ทำสัญญากับแพลตฟอร์มเจ้าใหญ่อย่าง Facebook, Twitter และ Google เพื่อคอยดูแลให้อินเทอร์เน็ตไร้สื่อที่เป็นพิษ มาร่วมเรียนรู้ผลกระทบทางจิตวิทยาที่เกิดขึ้นจากการทำงานด้านนี้ รวมทั้งผลจาก "การทำให้อินเทอร์เน็ตใสสะอาด" ที่มีอิทธิพลต่อการมองเห็นและวิธีคิดของเรา

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37
Unnawut Leepaisalsuwanna approved Thai subtitles for The price of a "clean" internet
Unnawut Leepaisalsuwanna edited Thai subtitles for The price of a "clean" internet
Panitan Suvannaroj accepted Thai subtitles for The price of a "clean" internet
Panitan Suvannaroj edited Thai subtitles for The price of a "clean" internet
Thirakan Somsungnoen edited Thai subtitles for The price of a "clean" internet
Thirakan Somsungnoen edited Thai subtitles for The price of a "clean" internet
Thirakan Somsungnoen edited Thai subtitles for The price of a "clean" internet
Thirakan Somsungnoen edited Thai subtitles for The price of a "clean" internet
Show all

Thai subtitles

Revisions