< Return to Video

วีดีโอที่เป็นฝันร้ายของเด็ก ๆ ในยูทูป -- และมันเกิดอะไรขึ้นกับอินเทอร์เน็ตทุกวันนี้

  • 0:01 - 0:02
    ผมชื่อเจมส์ครับ
  • 0:02 - 0:04
    ผมเป็นนักเขียนและศิลปิน
  • 0:04 - 0:06
    และทำงานเกี่ยวกับเทคโนโลยี
  • 0:06 - 0:10
    งานของผมได้แก่การเขียนแบบ
    โดรนทหารที่มีขนาดเท่าจริง
  • 0:10 - 0:12
    บนถนนในเมืองทั่วโลก
  • 0:12 - 0:15
    เพื่อที่คนจะได้เริ่มครุ่นคิดกัน
    และลองนึกตรึกตรองกันดู
  • 0:15 - 0:19
    มันค่อนข้างที่จะเป็นเทคโนโลยี
    ที่เห็นได้ยากและคนไม่ค่อยจะคิดถึง
  • 0:19 - 0:23
    งานอื่นของผมเช่น เครือข่ายประสาท
    ที่คาดคะเนผลลัพธ์ของการเลือกตั้ง
  • 0:23 - 0:25
    ตามการรายงานพยากรณ์อากาศ
  • 0:25 - 0:26
    เพราะว่าผมสนใจว่า
  • 0:26 - 0:30
    เทคโนโลยีใหม่ ๆ แปลก ๆ เหล่านี้
    จะทำอะไรได้บ้าง
  • 0:31 - 0:34
    ปีที่แล้ว ผมสร้างรถยนต์ที่ขับเคลื่อนเอง
    ด้วยตัวผมเอง
  • 0:34 - 0:36
    เพราะว่าผมไม่ไว้ใจเทคโนโลยีจริง ๆ
  • 0:36 - 0:38
    ผมออกแบบหลุมพรางให้มัน
  • 0:39 - 0:40
    (เสียงหัวเราะ)
  • 0:40 - 0:44
    และผมทำงานเหล่านี้เป็นส่วนใหญ่
    เพราะว่าผมพบว่ามันน่าทึ่งอย่างยิ่ง
  • 0:44 - 0:47
    แต่ยังเป็นเพราะว่าผมคิดว่า
    เมื่อเราพูดถึงเทคโนโลยี
  • 0:47 - 0:49
    เรามักพูดกันถึงตัวเราเอง
  • 0:49 - 0:52
    และในแบบที่เราเข้าใจโลก
  • 0:52 - 0:54
    ครับ นี่จะเป็นเรื่องราวเกี่ยวกับเทคโนโลยี
  • 0:56 - 0:58
    นี่คือวีดีโอ "ไข่พิศวง"
  • 0:58 - 1:02
    เป็นวีดีโอที่มีการเปิดไข่ช็อกโกแลต
  • 1:02 - 1:04
    เพื่อดูว่าของเล่นข้างในคืออะไร
  • 1:04 - 1:07
    ตลอดเจ็ดนาที ก็มีแค่นั้นแหละครับ
  • 1:07 - 1:10
    และผมก็อยากให้คุณสังเกตอะไรสองอย่าง
  • 1:11 - 1:15
    อย่างแรกเลย วีดีโอนี้มีผู้ชม 30 ล้านครั้ง
  • 1:15 - 1:16
    (เสียงหัวเราะ)
  • 1:16 - 1:18
    และอีกอย่างก็คือ
  • 1:18 - 1:21
    มันมาจากช่องที่มีผู้ติดตาม 6.3 ล้านคน
  • 1:21 - 1:24
    นั่นเท่ากับมีผู้ชมทั้งหมดแปดพันล้านครั้ง
  • 1:24 - 1:27
    และมันก็ยังมีวีดีโอแบบนี้อีกมากมาย
  • 1:28 - 1:32
    คน 30 ล้านคน กำลังดูการแกะไข่พวกนี้
  • 1:32 - 1:37
    มันฟังดูพิลึก แต่ถ้าคุณลองค้นหาด้วยคำว่า
    "ไข่พิศวง" บนยูทูป
  • 1:37 - 1:40
    มันจะบอกว่ามีวีดีโอเหล่านี้ 10 ล้านวีดีโอ
  • 1:40 - 1:42
    และผมคิดว่านั่นยังไม่หมด
  • 1:42 - 1:44
    ผมคิดว่ามันยังมีวีดีโอพวกนี้อยู่อีกมาก
  • 1:44 - 1:46
    ถ้าคุณลองค้นหาไปเรื่อย ๆ
    พวกมันมีมากมายมหาศาล
  • 1:46 - 1:48
    มีวีดีโอแบบนี้มากมายนับไม่ถ้วน
  • 1:48 - 1:52
    ด้วยยี่ห้อและวัสดุต่าง ๆ
    ที่พิศดารขึ้นเรื่อย ๆ
  • 1:52 - 1:56
    และพวกมันก็ถูกโหลดขึ้นไปบนยูทูป
    มากขึ้นทุกวัน
  • 1:56 - 1:59
    โลกนี้มันประหลาด ใช่ไหมครับ
  • 1:59 - 2:03
    แต่ประเด็นก็คือ คนที่ดูวีดีโอเหล่านี้
    ไม่ใช่ผู้ใหญ่
  • 2:03 - 2:06
    แต่เป็นเด็ก เด็กเล็ก ๆ
  • 2:06 - 2:08
    วีดีโอเหล่านี้
    เหมือนเป็นหลุมดักเด็กเล็ก
  • 2:08 - 2:10
    มันมีอะไรบ้างอย่างเกี่ยวกับการทำซ้ำ ๆ
  • 2:10 - 2:12
    เหมือนการเปิดที่กระตุ้นโดปามีน
    ทีละนิดอย่างสม่ำเสมอ
  • 2:12 - 2:14
    ที่ดึงความสนใจของเด็กได้อย่างอยู่หมัด
  • 2:14 - 2:19
    และเด็ก ๆ ที่ดูวีดีโอเหล่านี้
    ซ้ำแล้วซ้ำเล่า
  • 2:19 - 2:21
    และพวกเขาก็ดูกันเป็นชั่วโมง ๆ
  • 2:21 - 2:24
    และถ้าคุณพยายาม
    ที่จะดึงจอไปจากเด็กแล้วล่ะก็
  • 2:24 - 2:26
    พวกเขาก็จะร้องจ้ากันไม่หยุด
  • 2:26 - 2:27
    ถ้าไม่เชื่อผมนะ
  • 2:27 - 2:29
    แล้วผมก็เห็นคนที่กำลังฟังอยู่
    พยักหน้าเห็นด้วยแล้ว
  • 2:29 - 2:33
    ถ้าคุณไม่เชื่อผม ลองถามใครสักคน
    ที่มีลูกเล็ก ๆ สิครับ
  • 2:33 - 2:35
    พวกเขารู้ดีเลยเรื่องวีดีโอไข่พิศวง
  • 2:35 - 2:37
    และนี่คือจุดเริ่มต้นของเรา
  • 2:37 - 2:41
    ในปี ค.ศ. 2018 ใครบางคน
    หรืออาจจะหลาย ๆ คน
  • 2:41 - 2:45
    ใช้กลไกเดียวกับที่เฟสบุ๊กหรืออินสตาแกรมใช้
  • 2:45 - 2:47
    เพื่อให้คุณกลับไปกดดูแอพเรื่อย ๆ
  • 2:47 - 2:51
    และพวกเขาก็ใช้มันกับยูทูป
    และเข้ายึดครองสมองของเด็กตัวเล็ก ๆ
  • 2:51 - 2:53
    เพื่อให้ได้มาซึ่งค่าโฆษณา
  • 2:54 - 2:56
    อย่างน้อย ผมก็หวังว่า
    นั่นเป็นสิ่งที่พวกเขาทำ
  • 2:56 - 2:58
    ผมหวังว่า เขาทำเพื่อผลกำไรนั้น
  • 2:58 - 3:04
    เพราะว่ามันมีวิธีที่ง่ายกว่านี้
    ในการสร้างผลกำไรบนยูทูป
  • 3:04 - 3:06
    คุณก็แค่สร้างอะไรสักอย่างขึ้นมา
    หรือขโมยอะไรมาก็ได้
  • 3:06 - 3:09
    ถ้าคุณลองค้นหาการ์ตูนที่เด็ก ๆ ชื่นชอบ
  • 3:09 - 3:10
    อย่าง "ปาป้า พิ๊ก" หรือ "พาว เพโทร"
  • 3:10 - 3:14
    คุณก็จะพบกับวีดีโอออนไลน์เช่นนี้
    มากมายมหาศาลเช่นกัน
  • 3:14 - 3:17
    แน่นอนล่ะว่า ส่วนใหญ่แล้ว
    มันไม่ได้ถูกปะไว้ที่นั่นโดยผู้ผลิตวีดีโอ
  • 3:17 - 3:20
    พวกมันมาจากผู้ใช้ที่หลากหลาย
  • 3:20 - 3:22
    และเราก็ไม่อาจรู้ได้ว่า
    ใครเป็นผู้ที่โหลดพวกมันขึ้นไป
  • 3:22 - 3:24
    หรือพวกเขามีจุดประสงค์อะไร
  • 3:24 - 3:26
    ฟังดูคุ้น ๆ ไหมครับ
  • 3:26 - 3:28
    เพราะว่านั่นเป็นกระบวนการเดียวกันเป๊ะ
  • 3:28 - 3:31
    ที่เกิดขึ้นกับบริการดิจิทัลอื่น ๆ
  • 3:31 - 3:34
    ซึ่งเราไม่สามารถบอกได้เลย
    ว่าข้อมูลนี้มาจากไหน
  • 3:34 - 3:36
    มันเป็นเหมือนข่าวเทียมสำหรับเด็ก
  • 3:36 - 3:38
    และเรากำลังให้มันสอนเด็กตั้งแต่แบเบาะ
  • 3:38 - 3:41
    ให้กดลิงก์แรกที่เห็น
  • 3:41 - 3:43
    โดยไม่ต้องคำนึงว่ามันมาจากไหน
  • 3:43 - 3:45
    นั่นไม่น่าจะเป็นความคิดที่ดีสักเท่าไร
  • 3:46 - 3:49
    นี่เป็นอีกอย่างหนึ่ง
    ที่นิยมกันในยูทูปของเด็ก ๆ
  • 3:49 - 3:51
    มันเรียกว่า "เพลงครอบครัวนิ้วมือ"
  • 3:51 - 3:53
    ผมว่าผมได้ยินผู้ฟังส่งเสียงคร่ำครวญนะ
  • 3:53 - 3:55
    นี่คือ "เพลงครอบครัวนิ้วมือ"
  • 3:55 - 3:57
    นี่เป็นอันแรกที่ผมเจอ
  • 3:57 - 4:00
    มันถูกโหลดขึ้นไปตั้งแต่ปี ค.ศ. 2007
    และมีผู้ชม 200,000 ครั้ง
  • 4:00 - 4:02
    ซึ่งเรียกได้ว่าเล็กน้อยมาก
  • 4:02 - 4:04
    แต่มันมีทำนองที่ติดหูสุด ๆ
  • 4:04 - 4:06
    ซึ่งผมจะไม่เปิดให้ฟังนะครับ
  • 4:06 - 4:08
    เพราะว่ามันจะทำร้ายสมองของคุณ
  • 4:08 - 4:11
    แบบเดียวกับที่มันทำร้ายสมองของผม
  • 4:11 - 4:12
    และผมจะไม่ทำแบบนั้นหรอกครับ
  • 4:12 - 4:14
    แต่เช่นเดียวกันกับ ไข่พิศวง
  • 4:14 - 4:16
    มันบุกเข้าไปในสมองของเด็ก ๆ
  • 4:16 - 4:18
    และทำให้พวกเขาติดงอมแงม
  • 4:18 - 4:20
    ฉะนั้น ภายในไม่กี่ปี
    วีดีโอเพลงครอบครัวนิ้วมือ
  • 4:20 - 4:21
    จะผุดขึ้นทุกหนทุกแห่ง
  • 4:21 - 4:24
    และคุณก็จะเห็นมันถูกแปลง
    เป็นภาษาต่าง ๆ
  • 4:24 - 4:26
    โดยมีการ์ตูนที่สร้างจากอาหาร
    ที่เด็ก ๆ ชอบกัน
  • 4:26 - 4:28
    หรือใช้แอนิเมชั่นรูปแบบอื่น ๆ
  • 4:28 - 4:31
    ที่คุณเคยเห็นมาก่อนหน้านี้
  • 4:31 - 4:36
    และอีกครั้งหนึ่ง วีดีโอออนไลน์แบบนี้
  • 4:36 - 4:40
    ก็มากมายหลายรูปแบบ
    บ้าบอคอแตกเหลือเกิน
  • 4:40 - 4:42
    และยิ่งคุณใช้เวลากับมันมากเท่าไร
  • 4:42 - 4:46
    คุณก็จะยิ่งรู้สึกบ้าบอขึ้นเรื่อย ๆ
  • 4:46 - 4:49
    และนั่นก็เป็นจุดเริ่มต้นของผม
    ที่มีต่อสิ่งนี้
  • 4:49 - 4:53
    ความรู้สึกที่แสนแปลกประหลาด
    และการขาดความเข้าใจโดยสิ้นเชิง
  • 4:53 - 4:57
    ว่าสิ่งที่ปรากฏอยู่รอบตัวผมนี้
    ถูกสร้างขึ้นได้อย่างไร
  • 4:57 - 5:00
    เพราะว่าเราไม่อาจรู้ได้เลย
    ว่าสิ่งเหล่านี้มาจากไหน
  • 5:00 - 5:01
    เช่น ใครเป็นผู้สร้าง
  • 5:01 - 5:04
    บางวีดีโอน่าจะถูกสร้าง
    โดยกลุ่มของแอนิเมเตอร์มืออาชีพ
  • 5:05 - 5:07
    บางวีดีโออาจถูกนำมารวมกันแบบสุ่ม ๆ
    โดยซอร์ฟแวร์
  • 5:07 - 5:12
    บางวีดีโอก็น่าจะ
    ส่งเสริมให้เกิดความบันเทิงกับเด็ก
  • 5:12 - 5:13
    แต่บางวีดีโอก็น่าจะมาจาก
  • 5:13 - 5:16
    คนที่ควรอยู่ห่าง ๆ เด็กเอาไว้
  • 5:16 - 5:18
    (เสียงหัวเราะ)
  • 5:19 - 5:24
    และอีกครั้ง เราไม่อาจรู้ได้เลย
    ว่าใครเป็นผู้สร้างสิ่งเหล่านี้
  • 5:24 - 5:25
    โปรแกรมอย่างนั้นหรือ
  • 5:25 - 5:27
    คนทั่วไป หรือว่าเกรียนที่ไหน
  • 5:28 - 5:30
    มันคืออะไรกันแน่
    ที่ว่าเราไม่อาจบอกความแตกต่าง
  • 5:30 - 5:31
    ระหว่างสิ่งเหล่านี้ได้อีกแล้ว
  • 5:32 - 5:36
    และอีกแหละ คุณรู้สึกว่า
    มันคุ้น ๆ บ้างหรือยัง
  • 5:38 - 5:41
    โดยทั่วไปวีดีโอเหล่านี้ถูกรับชม
  • 5:41 - 5:42
    อ้อ จำนวนครั้งที่ชมหมายถึงเงินนะครับ
  • 5:42 - 5:47
    ก็เพราะมันมีชื่อหัวข้อ
    เหมือนกับวีดีโอที่ได้รับความนิยม
  • 5:47 - 5:49
    ฉะนั้น ใช้ชื่อหัวข้อ เช่น "ไข่พิศวง"
  • 5:49 - 5:51
    กับ "พาว เพโทร" และ "ไข่อีสเตอร์"
  • 5:51 - 5:52
    หรืออะไรก็ตามแต่
  • 5:52 - 5:55
    ที่เป็นคำจากวีดีโออื่นที่ได้รับความนิยม
  • 5:55 - 5:58
    จนกระทั่งคุณได้ข้อความ
    ที่ไร้ซึ่งความหมายทางภาษา
  • 5:58 - 6:01
    สำหรับคนแล้วจะอ่านไม่เข้าใจเลย
  • 6:01 - 6:04
    เพราะแน่ล่ะว่า ผู้ชมวีดีโอเหล่านี้
    เป็นแค่เด็กเล็ก ๆ เองไม่ใช่หรือ
  • 6:04 - 6:06
    พวกเขาจะไปรู้อะไรล่ะ
  • 6:06 - 6:09
    ผู้ชมตัวจริงคือซอร์ฟแวร์
  • 6:09 - 6:11
    คืออัลกอริธึม
  • 6:11 - 6:12
    คือซอร์ฟแวร์ที่ยูทูปใช้
  • 6:12 - 6:15
    เพื่อเลือกวีดีโอที่คล้ายกับวีดีโออื่น
  • 6:15 - 6:17
    เพื่อทำให้พวกมันได้รับความนิยม
    ได้รับการอ้างถึง
  • 6:17 - 6:21
    และเป็นเหตุว่าทำไม มันจึงลงเอย
    ที่การยำรวมอย่างไร้ความหมายนี้
  • 6:21 - 6:23
    ทั้งหัวข้อและเนื้อหา
  • 6:24 - 6:26
    แต่ประเด็นก็คือ คุณต้องจำไว้ว่า
  • 6:26 - 6:30
    ยังมีคนจริง ๆ ที่อยู่เบื้องหลัง
    ระบบที่ถูกปรับด้วยอัลกอริธึมนี้
  • 6:30 - 6:33
    คนจำพวกที่ถูกกดดัน
  • 6:33 - 6:36
    ให้ทำการผนวกคำอย่างแสนพิลึกนี้
  • 6:36 - 6:41
    ราวกับศิลปินที่ด้นสดแบบไม่ลืมหูลืมตา
    เพื่อสนองตอบเสียงกรีดร้องระงม
  • 6:41 - 6:44
    ของเด็กทารกล้านคน
  • 6:45 - 6:48
    มีคนจริง ๆ ที่ติดอยู่ในระบบเหล่านี้
  • 6:48 - 6:52
    และนี่ก็เป็นอีกเรื่องประหลาด
    ของวัฒนธรรมที่ถูกขับเคลื่อนด้วยอัลกอริธึม
  • 6:52 - 6:53
    เพราะแม้ว่าคุณจะเป็นคน
  • 6:53 - 6:55
    คุณลงเอยที่การทำตัวเป็นหุ่นยนต์
  • 6:55 - 6:57
    เพียงเพื่อจะเอาตัวรอด
  • 6:57 - 6:59
    และอีกข้างหนึ่งของจอ
  • 6:59 - 7:02
    ก็ยังมีเด็กเล็ก ๆ ดูสิ่งนี้กันอยู่
  • 7:02 - 7:06
    พวกเขาติดงอมแงม จดจ่อเต็มที่
    เพราะกลไกประหลาดนี้
  • 7:07 - 7:10
    และเด็กส่วนใหญ่ก็เล็กเกินไป
    ที่จะเคยใช้เว็บไซต์
  • 7:10 - 7:13
    พวกเขาก็แค่กด ๆ ไปบนจอ
    ด้วยมือเล็ก ๆ ของพวกเขา
  • 7:13 - 7:14
    แล้วไหนจะยังมีการเล่นอัตโนมัติ
  • 7:14 - 7:18
    ที่จะเล่นวีดีโอวนไปเรื่อย ๆ
  • 7:18 - 7:20
    ไม่หยุดไม่หย่อนครั้งละหลายชั่วโมง
  • 7:20 - 7:23
    และตอนนี้ระบบ
    ก็มีความประหลาดเยอะแล้ว
  • 7:23 - 7:26
    การเล่นโดยอัตโนมัติ
    นำคุณไปพบกับความแปลกประหลาด
  • 7:26 - 7:28
    นั่นคือสาเหตุว่า ทำไมภายในสิบกว่าขั้นตอน
  • 7:28 - 7:31
    จากวีดีโอน่ารัก ๆ เกี่ยวกับรถไฟสอนการนับ
  • 7:31 - 7:34
    ถึงได้กลายเป็นมิ๊กกี้เม้าส์ช่วยตัวเองไปได้
  • 7:35 - 7:37
    ครับ ขอโทษด้วยจริง ๆ ครับ
  • 7:37 - 7:39
    มันมีที่แย่กว่านี้อีก
  • 7:39 - 7:40
    นี่เกิดขึ้น
  • 7:40 - 7:43
    เมื่อคำหลักต่าง ๆ เหล่านี้
  • 7:43 - 7:45
    ความสนใจต่าง ๆ เหล่านี้
  • 7:45 - 7:48
    การสร้างเนื้อหาอย่างไม่ลืมหัวลืมตานี้
  • 7:48 - 7:51
    ทุกสิ่งมารวมตัวกันในที่เดียว
  • 7:52 - 7:56
    นี่จึงเป็นที่ที่คำหลักประหลาด ๆ ฝังอยู่
  • 7:56 - 7:59
    คุณผสมวีดีโอเพลงครอบครัวนิ้ว
  • 7:59 - 8:01
    กับยอดมนุษย์ที่แสดงด้วยคนจริง
  • 8:01 - 8:04
    คุณเติมมุกตลกเกรียน ๆ แปลก ๆ
    หรืออะไรสักอย่างเข้าไป
  • 8:04 - 8:08
    และทันใดนั้น
    คุณก็จะไปถึงดินแดนประหลาด
  • 8:08 - 8:10
    สิ่งที่ทำให้บรรดาพ่อแม่ไม่พอใจ
  • 8:10 - 8:13
    คือสิ่งที่มีเนื้อหาที่รุนแรง
    หรือเกี่ยวข้องกับเรื่องเพศ ใช่ไหมครับ
  • 8:13 - 8:16
    การ์ตูนของเด็กถูกทำร้าย
  • 8:16 - 8:18
    ถูกฆ่า
  • 8:18 - 8:21
    การเล่นพิเรนที่ทำให้เด็ก ๆ หวาดกลัว
  • 8:21 - 8:25
    เรามีซอร์ฟแวร์
    ที่ดึงเอาสิ่งเย้ายวนทั้งหลายเข้ามา
  • 8:25 - 8:28
    เพื่อทำให้เกิดฝันร้ายของเด็ก ๆ
    อย่างอัตโนมัติ
  • 8:28 - 8:31
    และสิ่งนี้ก็ส่งผลต่อเด็กเล็ก ๆ จริง ๆ
  • 8:31 - 8:34
    ผู้ปกครองรายงานว่า
    ลูก ๆ ถูกทำให้หวาดผวา
  • 8:34 - 8:35
    กลัวความมืด
  • 8:35 - 8:38
    กลัวตัวการ์ตูนที่พวกเขาชอบ
  • 8:39 - 8:42
    สิ่งที่คุณควรเรียนรู้ก็คือ
    ถ้าคุณมีลูกเล็ก ๆ
  • 8:42 - 8:44
    เอายูทูปไปให้ไกลจากพวกเขาเลยครับ
  • 8:45 - 8:49
    (เสียงปรบมือ)
  • 8:51 - 8:54
    แต่อีกอย่างหนึ่งที่กวนใจผมก็คือ
  • 8:54 - 8:58
    ผมไม่แน่ใจว่า เราจะรู้ว่า
    เรามาถึงจุดนี้ได้อย่างไร
  • 8:59 - 9:02
    เรารับเอาอิทธิพลของสิ่งเหล่านี้
  • 9:02 - 9:05
    และจัดเรียงมันเข้าด้วยกัน
    ในแบบที่ไม่มีใครจะจงใจ
  • 9:05 - 9:08
    แต่กระนั้น นี่ก็ยังเป็นวิธี
    ที่เราสร้างโลกใหม่ของเรา
  • 9:08 - 9:10
    เรานำข้อมูลทั้งหมดนี้
  • 9:10 - 9:11
    ข้อมูลแย่ ๆ จำนวนมาก
  • 9:11 - 9:14
    ข้อมูลทางประวัติศาสตร์
    ที่เต็มไปด้วยอคติ
  • 9:14 - 9:17
    เต็มไปด้วยส่วนที่แย่ที่สุด
    ของเราในประวัติศาสตร์
  • 9:17 - 9:19
    เราก็เอามันไปประกอบ
    เป็นชุดข้อมูลขนาดใหญ่
  • 9:19 - 9:21
    แล้วก็ให้มันทำงานโดยอัตโนมัติ
  • 9:21 - 9:24
    เราจัดเรียงมันเข้าด้วยกัน
    เป็นรายงานเครดิต
  • 9:24 - 9:26
    เป็นเบี้ยประกันภัย
  • 9:26 - 9:29
    เป็นระบบนโยบายที่คาดการณ์ได้
  • 9:29 - 9:30
    เป็นแนวทางในการตัดสินใจ
    อะไรประมาณนั้น
  • 9:30 - 9:33
    นี่เป็นวิธีที่เราใช้สร้างโลกของเรา
  • 9:33 - 9:34
    จากข้อมูลนี้
  • 9:34 - 9:36
    และผมก็ไม่รู้ว่าอะไรที่แย่กว่ากัน
  • 9:36 - 9:39
    ระหว่างการที่เราสร้างระบบ
    ที่น่าจะถูกปรับมาให้เหมาะสม
  • 9:39 - 9:42
    กับแง่มุมที่แย่ที่สุด
    ของพฤติกรรมมนุษย์
  • 9:42 - 9:45
    หรือการที่เราเหมือนจะสร้างมันขึ้นมา
    โดยบังเอิญ
  • 9:45 - 9:47
    โดยไม่ได้ตระหนักเลยว่า
    เรากำลังทำอะไรอยู่
  • 9:47 - 9:50
    เพราะว่าเราไม่ได้มีความเข้าใจ
    ระบบที่เรากำลังสร้างอยู่
  • 9:50 - 9:54
    และเราก็ไม่รู้จริง ๆ
    ว่าจะทำให้มันต่างจากนี้ได้อย่างไร
  • 9:55 - 9:58
    ผมคิดว่ามีสองสามสิ่ง
    ที่น่าจะเป็นตัวส่งเสริมหลัก
  • 9:58 - 9:59
    ที่ทำให้ยูทูปเป็นอย่างนี้
  • 9:59 - 10:01
    อย่างแรกก็คือการโฆษณา
  • 10:01 - 10:04
    ซึ่งเป็นการใช้เงินเป็นตัวบ่งบอกความสนใจ
  • 10:04 - 10:07
    โดยไม่ได้ใช้ตัวแปรอื่น ๆ ของงานจริง ๆ
  • 10:07 - 10:11
    ไม่ได้ใส่ใจกับคน
    ที่เป็นผู้พัฒนาเนื้อหาเหล่านี้
  • 10:11 - 10:15
    การรวมอำนาจได้
    ก็หมายถึงการแพร่กระจายของสิ่งเหล่านี้
  • 10:15 - 10:18
    และผมคิดว่า ไม่ว่าคุณจะรู้สึกอย่างไร
    ต่อการใช้โฆษณา
  • 10:18 - 10:19
    เพื่อสนับสนุน เช่น
  • 10:19 - 10:22
    การดูผู้ชายใส่ผ้าอ้อมกลิ้งไปบนพื้นทราย
  • 10:22 - 10:25
    โดยหวังว่าอัลกอริธึมที่พวกเขาก็ไม่เข้าใจ
  • 10:25 - 10:27
    ทำใช้มันทำเงินให้กับพวกเขา
  • 10:27 - 10:29
    มันบอกเราว่า
    สังคมและวัฒนธรรมของเรา
  • 10:29 - 10:31
    ไม่ควรที่มีสิ่งเหล่านี้เป็นรากฐาน
  • 10:31 - 10:33
    และวิธีการหาเงินของเรา
    ก็ไม่ควรจะเป็นแบบนี้
  • 10:34 - 10:37
    อีกสิ่งหนึ่งที่เป็นแรงขับสำคัญ
    ของการทำอย่างอัตโนมัตินี้
  • 10:37 - 10:39
    ซึ่งเป็นการกำหนดทิศทางของเทคโนโลยีทุกอย่าง
  • 10:39 - 10:42
    ตั้งแต่วินาทีที่มันมาถึง
  • 10:42 - 10:43
    และเมื่อมันอยู่ตรงนั้นแล้ว
  • 10:43 - 10:47
    มันก็ทำให้เราได้โอกาสปัดความรับผิดชอบ
    ในทำนองว่า "เทคโนโลยีมันทำ เราเปล่า"
  • 10:47 - 10:49
    เช่น "เราไม่ได้มีส่วนเกี่ยวข้อง"
  • 10:49 - 10:51
    นั่นมันยังดีไม่พอ
  • 10:51 - 10:53
    เพราะสิ่งนี้
    ไม่ได้แค่ถูกควบคุมด้วยอัลกอริธึม
  • 10:53 - 10:56
    แต่ยังถูกควบคุมด้วยอัลกอริธึม
  • 10:56 - 10:59
    เมื่อยูทูปเริ่มให้ความสนใจกับสิ่งนี้
  • 10:59 - 11:01
    สิ่งแรกที่พวกเขาบอกว่าจะทำก็คือ
  • 11:01 - 11:02
    พวกเขาจะปรับอัลกอริธึม
    การเรียนรู้ของเครื่องให้ดีขึ้น
  • 11:04 - 11:05
    เพื่อกลั่นกรองเนื้อหา
  • 11:05 - 11:09
    ครับ ไม่ว่าผู้เชี่ยวชาญคนไหน ๆ ก็จะบอกว่า
  • 11:09 - 11:10
    การเรียนรู้ของเครื่อง
    คือสิ่งที่ตอนแรกเราเรียกว่า
  • 11:10 - 11:13
    ซอร์ฟแวร์ที่เราไม่เข้าใจว่ามันทำงานอย่างไร
  • 11:13 - 11:17
    และผมก็คิดว่าเราพอกับมันแล้ว
  • 11:17 - 11:20
    เราไม่ควรที่จะทิ้งให้มันเป็นภาระของ
    ปัญญาประดิษฐ์ในการตัดสินใจ
  • 11:20 - 11:22
    ว่าอะไรควรหรือไม่ควร
  • 11:22 - 11:23
    เพราะเรารู้ว่ามันเกิดอะไรขึ้น
  • 11:23 - 11:25
    มันจะเริ่มปิดกั้นสิ่งอื่น
  • 11:25 - 11:26
    มันจะเริ่มปิดกั้นเนื้อหาที่พิลึก
  • 11:27 - 11:29
    มันจะเริ่มปิดกั้น
    การพูดคุยของประชาชน
  • 11:29 - 11:31
    วาทกรรมใด ๆ ที่ได้รับอนุญาต
  • 11:31 - 11:34
    ไม่ควรที่จะเป็นบางสิ่ง
    ที่ขึ้นอยู่กับระบบที่ไร้การรับผิดชอบ
  • 11:34 - 11:37
    มันเป็นส่วนหนึ่งของการอภิปรายร่วมกัน
    ของพวกเราทุกคน
  • 11:37 - 11:38
    ผมขอย้ำว่า
  • 11:38 - 11:41
    ทางเลือกนั้นก็อาจไม่น่าอภิรมย์พอกัน
  • 11:41 - 11:42
    ยูทูปยังประกาศเมื่อเร็ว ๆ นี้ว่า
  • 11:42 - 11:45
    พวกเขากำลังจะปล่อย
    แอพเวอร์ชั่นสำหรับเด็ก
  • 11:45 - 11:48
    ที่ถูกดูแลด้วยมนุษย์ทั้งหมด
  • 11:48 - 11:52
    มาร์ค ซัคเกอร์เบอร์ก เจ้าของเฟสบุ๊ก
    พูดอะไรทำนองนี้ที่สภาคอนเกรส
  • 11:52 - 11:55
    เมื่อถูกกระทู้ถามว่า พวกเขาจะจัดการ
    ผลิตภัณฑ์ของพวกเขาอย่างไร
  • 11:55 - 11:57
    เขาบอกว่า พวกเขาจะให้มนุษย์มาจัดการ
  • 11:57 - 11:58
    และความหมายที่แท้จริงก็คือ
  • 11:58 - 12:01
    แทนที่จะให้เด็กน้อยเห็นเป็นคนแรก
  • 12:01 - 12:04
    พวกเขากำลังจะให้ลูกจ้างชั่วคราว
    ที่ได้ค่าแรงต่ำ ๆ
  • 12:04 - 12:06
    ที่ไม่ได้รับการรับรองด้านสุขภาพจิต
  • 12:06 - 12:07
    ได้รับผลกระทบนั้นด้วยเช่นกัน
  • 12:07 - 12:08
    (เสียงหัวเราะ)
  • 12:08 - 12:11
    แและผมคิดว่า เราทุกคนทำได้ดีกว่านั้น
  • 12:11 - 12:13
    (เสียงปรบมือ)
  • 12:14 - 12:19
    ผมคิดว่า แนวคิดที่นำสองสิ่งมาบรรจบกัน
    สำหรับผมแล้ว
  • 12:19 - 12:20
    คือการลงมือทำ
  • 12:20 - 12:23
    ในลักษณะที่ว่า
    เราเข้าใจมันจริง ๆ แค่ไหน
  • 12:23 - 12:28
    เรารู้ว่าต้องทำอย่างไร
    จากพื้นฐานความรู้ที่ดีที่สุดที่เรามี
  • 12:28 - 12:30
    ซึ่งมันแทบจะเป็นไปไม่ได้เลย
  • 12:30 - 12:33
    ในระบบเหล่านี้
    ที่เราไม่ได้เข้าใจมันเสียจริง ๆ
  • 12:33 - 12:36
    ความไม่เท่าเทียมกันของอำนาจ
    นำไปสู่ความรุนแรงเสมอ
  • 12:36 - 12:38
    และเราก็เห็นได้ในระบบเหล่านี้
  • 12:38 - 12:40
    ที่ความไม่เข้าใจที่ไม่เท่าเทียมกัน
    ทำในสิ่งเดียวกัน
  • 12:41 - 12:44
    ถ้ามีสักสิ่งที่เราจะทำ
    เพื่อเริ่มพัฒนาระบบเหล่านี้
  • 12:44 - 12:47
    มันก็น่าจะเป็นการทำให้พวกมัน
    เป็นที่เข้าใจของผู้ใช้มากขึ้น
  • 12:47 - 12:49
    เพื่อที่ทุกคนจะได้เข้าใจตรงกัน
  • 12:49 - 12:51
    ว่าเกิดอะไรขึ้นกันแน่
  • 12:52 - 12:55
    แต่สิ่งที่ผมคิดมากที่สุด
    เกี่ยวกับระบบเหล่านี้ก็คือ
  • 12:55 - 12:59
    มันไม่ได้เกี่ยวกับยูทูปแค่อย่างเดียว
    อย่างที่ผมได้อธิบายไปแล้ว
  • 12:59 - 13:00
    มันเกี่ยวกับทุก ๆ อย่าง
  • 13:00 - 13:03
    ปัญหาเกี่ยวกับการตรวจสอบและการปฏิบัติ
  • 13:03 - 13:05
    เกี่ยวกับความคลุมเครือและความซับซ้อน
  • 13:05 - 13:08
    ของความรุนแรงและการหาประโยชน์
    ที่เป็นผลลัพธ์ที่ตามมา
  • 13:08 - 13:11
    จากอำนาจที่อยู่ในกำมือคนไม่กี่คน
  • 13:11 - 13:13
    นี่มันเป็นปัญหาที่ใหญ่กว่ามาก
  • 13:14 - 13:18
    และพวกมันไม่ใช่แค่ปัญหาของยูทูป
    และไม่ใช่แค่ปัญหาของเทคโนโลยี
  • 13:18 - 13:19
    และมันก็ไม่ได้เป็นเรื่องใหม่เลย
  • 13:19 - 13:21
    เราอยู่กับมันมาตั้งนานแล้ว
  • 13:21 - 13:25
    แต่เราสร้างระบบนี้ที่มีความเป็นสากล
    ระบบอินเทอร์เน็ต
  • 13:25 - 13:28
    ที่นำเสนอให้กับเราในแบบที่ไม่ธรรมดา
  • 13:28 - 13:30
    ทำให้พวกมันยากที่จะถูกปฏิเสธ
  • 13:30 - 13:33
    เทคโนโลยีมีศักยภาพที่เหนือธรรมดา
  • 13:33 - 13:37
    ต่อทั้งการใช้อ้างอิงและสานต่อ
  • 13:37 - 13:41
    ความเหนือธรรมดาที่สุดของเรา
    ความต้องการและความอคติที่ถูกซ่อนเร้น
  • 13:41 - 13:43
    และการนำพวกมันมาสู่โลก
  • 13:43 - 13:46
    แต่มันยังเป็นการเขียนออกมา
    เพื่อที่เราจะได้เห็น
  • 13:46 - 13:50
    เพื่อที่เราจะไม่เสแสร้งอีกต่อไปว่า
    พวกมันไม่ได้มีอยู่
  • 13:50 - 13:54
    เราต้องหยุดคิดว่าเทคโนโลยีเป็นคำตอบ
    ของทุก ๆ ปัญหา
  • 13:54 - 13:58
    แต่ให้คิดว่ามันเป็นแนวทาง
    ที่จะระบุว่าปัญหาจริง ๆ คืออะไร
  • 13:58 - 14:00
    เพื่อที่เราจะเริ่มคิดถึงพวกมัน
    ได้อย่างเหมาะสม
  • 14:00 - 14:02
    และเริ่มจัดการกับมันจริง ๆ
  • 14:02 - 14:03
    ขอบคุณมากครับ
  • 14:03 - 14:08
    (เสียงปรบมือ)
  • 14:10 - 14:11
    ขอบคุณครับ
  • 14:11 - 14:14
    (เสียงปรบมือ)
  • 14:17 - 14:20
    เฮเลน วอลเตอร์: ขอบคุณค่ะ เจมส์
    ที่มาบรรยายให้เราฟัง
  • 14:20 - 14:21
    มันน่าสนใจค่ะ
  • 14:21 - 14:25
    เมื่อคุณคิดถึงภาพยนตร์
    ที่เกี่ยวกับเจ้าหุ่นยนต์ยึดครองโลก
  • 14:25 - 14:28
    มันดูมีน่าตื่นตามากว่าที่คุณอธิบาย
  • 14:28 - 14:32
    แต่ฉันสงสัยว่า ในภาพยนตร์
    มีกลุ่มที่ลุกขึ้นมาต่อต้าน
  • 14:32 - 14:35
    แล้วเรามีกลุ่ม
    ที่ลุกขึ้นมาต่อต้านสิ่งนี้ไหม
  • 14:35 - 14:39
    คุณเห็นสัญญาณในเชิงบวก
    หรือต้นกล้าของการต่อต้านไหมคะ
  • 14:41 - 14:43
    เจมส์ บริเดิล: ผมไม่รู้อะไรเกี่ยวกับ
    การต่อต้านโดยตรงนะครับ
  • 14:43 - 14:45
    เพราะคิดว่ามันเป็นเรื่องระยะยาวมาก
  • 14:45 - 14:48
    ผมคิดว่ามันก่อตัวฝังแน่น
    อยู่ในวัฒนธรรมของเรา
  • 14:48 - 14:50
    เอเลนอร์ ซิตต้า เพื่อนของผม
    พูดเสมอ ๆ ว่า
  • 14:50 - 14:54
    ปัญหาเทคโนโลยี
    ในระดับและขอบเขตที่เหมาะสม
  • 14:54 - 14:56
    เป็นปัญหาการเมืองเลยประการแรก
  • 14:56 - 14:59
    ฉะนั้น ทุกอย่างที่เรากำลังทำ
    เพื่อจัดการกับมัน
  • 14:59 - 15:02
    จะไม่ได้รับการแก้ไข
    ด้วยการสร้างเทคโนโลยีที่ดีกว่าเท่านั้น
  • 15:02 - 15:05
    แต่ด้วยการเปลี่ยนสังคม
    ที่กำลังผลิตเทคโนโลยีเหล่านั้นด้วย
  • 15:05 - 15:08
    ฉะนั้น ตอนนี้ ผมคิดว่า
    เรายังต้องทำอะไรอีกมากมาย
  • 15:09 - 15:10
    แต่อย่างที่ผมบอก ถ้าเราแก้ปมมันออก
  • 15:11 - 15:13
    โดยการอธิบาย โดยการพูดคุย
    ในแบบที่ตรงประเด็นที่สุด
  • 15:13 - 15:16
    เราสามารถเริ่มกระบวนการนั้นได้
  • 15:16 - 15:19
    เฮเลน: และเมื่อคุณพูดถึง
    ความเข้าใจและความรู้เกี่ยวกับดิจิตัล
  • 15:19 - 15:21
    ฉันพบว่ามันยากที่จะนึกว่า
  • 15:21 - 15:25
    เราต้องยกเรื่องความรู้เกี่ยวกับดิจิตัล
    ให้เป็นภาระของผู้ใช้เอง
  • 15:25 - 15:29
    แต่ใครกันล่ะที่มีหน้าที่ให้ความรู้
    เกี่ยวกับโลกใหม่นี้
  • 15:29 - 15:33
    เจมส์: ครับ ผมคิดว่ามันเป็นความรับผิดชอบ
    ของพวกเราทุกคน
  • 15:33 - 15:36
    ทุกอย่างที่เราทำ
    ทุกอย่างที่เราสร้างขึ้นประดิษฐ์ขึ้น
  • 15:36 - 15:40
    ต้องเกิดขึ้นจากการอภิปรายตกลงกัน
  • 15:40 - 15:42
    กับทุกคนที่ไม่อยากให้มันเกิดขึ้น
  • 15:42 - 15:46
    ที่เราไม่อยากจะสร้างระบบ
    ที่จงใจลวงหรือทำให้คนประหลาดใจ
  • 15:46 - 15:48
    แล้วทำในสิ่งที่ถูกต้อง
  • 15:48 - 15:52
    แต่เกี่ยวกับการมีส่วนร่วมในทุกก้าว
    ในการให้ความรู้
  • 15:52 - 15:54
    เพราะแต่ละระบบก็คือการศึกษา
  • 15:54 - 15:57
    นั่นคือสิ่งที่ผมหวัง
    แม้แต่กับสิ่งที่ดูเละเทะนี้
  • 15:57 - 15:59
    ถ้าเรานำมันมาพิจารณาได้อย่างเหมาะสม
  • 15:59 - 16:01
    มันก็เป็นการศึกษาด้วยตัวของมันเองอยู่แล้ว
  • 16:01 - 16:05
    ที่จะทำให้เราเริ่มเห็นว่าระบบที่ซับซ้อน
    มาบรรจบและทำงานด้วยกันได้อย่างไร
  • 16:05 - 16:09
    และอาจใช้ความรู้นั้น
    กับสิ่งอื่น ๆ ในโลกนี้ได้
  • 16:09 - 16:11
    เฮเลน: เจมส์คะ
    นี่เป็นการสนทนาที่สำคัญมาก
  • 16:11 - 16:14
    และฉันก็รู้ว่าอีกหลายคนในที่นี้
    ใจกว้างแล้วก็พร้อมที่จะยอมรับมัน
  • 16:14 - 16:16
    ขอบคุณมาก ๆ สำหรับ
    การบรรยายแรกในเช้าวันนี้
  • 16:16 - 16:17
    เจมส์: ขอบคุณมากครับ
  • 16:17 - 16:19
    (เสียงปรบมือ)
Title:
วีดีโอที่เป็นฝันร้ายของเด็ก ๆ ในยูทูป -- และมันเกิดอะไรขึ้นกับอินเทอร์เน็ตทุกวันนี้
Speaker:
เจมส์ บริเดิล (James Bridle)
Description:

นักเขียนและศิลปิน เจมส์ บริเดิล เปิดโปงมุมมืดและประหลาดของอินเทอร์เน็ต ที่ซึ่งบุคคลนิรนามหรือกลุ่มบนยูทิปบุกยึดสมองของเด็กเล็ก ๆ เพื่อให้ได้มาซึ่งเงินค่าโฆษรา ตั้งแต่การแกะ "ไข่พิศวง" และ "เพลงครอบครัวนิ้วมือ" ไปจนถึงการยำรวมกันของตัวการ์ตูนที่เรารู้จักกันดีในเรื่องราวที่รุนแรงด้วยการใช้อัลกอริธึม วีดีโอเปล่านี้ตักตวงผลประโยชน์และสั่นประสาทเด็ก ๆ ของเรา และพวกมันก็บอกพวกเราว่าโลกของเราที่ถูกขับเคลื่อนโดยข้อมูลมากขึ้นเรื่อย ๆ นี้กำลังจะมุ่งหน้าไปทางไหน "เราต้องเลิกคิดถึงเทคโนโลยีว่าเป็นทางออกของปัญหาทั้งหมด แต่ต้องคิดว่ามันเป็นคู่มือที่จะช่วยบอกว่าปัญหาที่แท้จริงคืออะไร เพื่อที่เราจะสามารถทำความเข้าใจมันได้อย่างเหมาะสมและจัดการกับพวกมัน" บริเดิลกล่าว

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Thai subtitles

Revisions