Return to Video

ความยุ่งยากทางจริยธรรมของรถยนต์ที่ขับเคลือนเอง - แพทริก ลิน (Patrick Lin)

  • 0:07 - 0:09
    นี่เป็นการทดลองทางความคิด
  • 0:09 - 0:12
    เอาเป็นว่าในอนาคตอันใกล้
  • 0:12 - 0:16
    คุณกำลังเดินทางลงไปตามทางหลวง
    ในรถที่ขับเคลื่อนเอง
  • 0:16 - 0:20
    และคุณพบว่า คุณถูกกักอยู่ท่ามกลางรถคันอื่น
  • 0:20 - 0:24
    ทันใดนั้นเอง วัตถุหนักขนาดใหญ่
    ตกลงมาจากรถบรรทุกตรงหน้าคุณ
  • 0:24 - 0:27
    รถของคุณไม่สามารถหยุดได้ทันเวลา
    เพื่อที่จะป้องกันการปะทะ
  • 0:27 - 0:29
    ฉะนั้น มันจึงต้องทำการตัดสินใจ
  • 0:29 - 0:32
    พุ่งตรงไปและชนวัตถุ
  • 0:32 - 0:34
    เบี่ยงซ้ายเข้าหารถอเนกประสงค์
  • 0:34 - 0:37
    หรือหักขวาเข้าหารถจักรยานยนต์
  • 0:37 - 0:40
    มันควรให้ความสำคัญ
    กับความปลอดภัยของคุณก่อน
  • 0:40 - 0:43
    ลดอันตรายที่จะมีต่อคนอื่นโดยไม่เปลี่ยนทิศทาง
  • 0:43 - 0:47
    แม้ว่านั่นหมายถึงการชนวัตถุขนาดใหญ่
    และการสละชีวิตตนเอง
  • 0:47 - 0:50
    หรือใช้ทางสายกลาง
    โดยชนรถอเนกประสงค์
  • 0:50 - 0:53
    ซึ่งมีอัตราความปลอดภัยสำหรับผู้โดยสารสูง
  • 0:53 - 0:56
    แล้วรถที่ขับเคลื่อนเองจะทำอย่างไร
  • 0:56 - 1:00
    ถ้าเรากำลังขับรถที่ตนเองโดนกักไว้แบบทั่วไป
  • 1:00 - 1:03
    ไม่ว่าจะเป็นทางใดที่เราเลือก
    จะถูกเข้าใจให้อย่างที่มันเป็น
  • 1:03 - 1:04
    การโต้ตอบ
  • 1:04 - 1:07
    ไม่ใช่การตัดสินใจที่เกิดจากการคิดที่รอบคอบ
  • 1:07 - 1:11
    มันอาจเป็นการกระทำอย่างตระหนกตกใจ
    ตามสัญชาตญาณโดยไม่มีการวางแผนหรือมุ่งร้าย
  • 1:11 - 1:15
    แต่ถ้าคนเขียนโปรแกรมกำกับรถ
    ให้ทำการเช่นเดียวกัน
  • 1:15 - 1:17
    ให้สถานการณ์ที่มันอาจเจอได้ในอนาคต
  • 1:17 - 1:22
    นั่นดูเหมือนเป็นการฆาตกรรมโดยเจตนา
  • 1:22 - 1:23
    ตอนนี้ ความจริงก็คือ
  • 1:23 - 1:27
    รถที่ขับเคลื่อนเองถูกคาดว่า
    จะลดอุบัติเหตุและการสูญเสียบนท้องถนน
  • 1:27 - 1:28
    ได้อย่างมาก
  • 1:28 - 1:31
    โดยกำจัดความผิดพลาดของคน
    จากสมการการขับรถ
  • 1:31 - 1:34
    รวมถึง มันอาจมีประโยชน์อย่างอื่น เช่น
  • 1:34 - 1:35
    ทำให้ถนนไม่คับคั่งมากนัก
  • 1:35 - 1:37
    ลดการปลดปล่อยก๊าซอันตราย
  • 1:37 - 1:41
    และลดเวลาการขับรถที่ไม่มีประสิทธิภาพ
    และน่าหงุดหงิด
  • 1:41 - 1:44
    แต่อุบัติเหตุจะยังสามารถและจะยังเกิดขึ้น
  • 1:44 - 1:45
    และเมื่อมันเกิดขึ้น
  • 1:45 - 1:49
    ผลที่ออกมาอาจถูกกำหนดเอาไว้แล้ว
    หลายเดือนหรือหลายปีล่วงหน้า
  • 1:49 - 1:52
    โดยผู้เขียนโปรแกรม หรือผู้วางนโยบาย
  • 1:52 - 1:54
    และพวกเขาก็ต้องลำบากใจในการตัดสินใจ
  • 1:54 - 1:57
    ใจหนึ่งก็อยากจะให้สิทธิ
    ในหลักการตัดสินใจพื้นฐาน
  • 1:57 - 1:59
    อย่างเช่น การลดอันตรายให้น้อยที่สุด
  • 1:59 - 2:02
    แต่กระนั้น มันก็อาจนำไปสู่การตัดสินใจ
    ในเชิงจริยธรรมที่คลุมเครือ
  • 2:02 - 2:04
    ยกตัวอย่างเช่น
  • 2:04 - 2:06
    สมมติว่า เรามีการตั้งค่าแต่แรกเหมือนกัน
  • 2:06 - 2:09
    แต่ตอนนี้ มีผู้ขับขี่รถจักรยานยนต์
    ที่สวมหมวกกันน็อค ขับมาทางซ้ายของคุณ
  • 2:09 - 2:11
    และอีกคนหนึ่งที่ไม่สวมหมวกกันน็อค
    ขับมาทางขวาของคุณ
  • 2:11 - 2:14
    คนไหนล่ะที่รถหุ่นยนต์ของคุณควรจะชน
  • 2:14 - 2:18
    ถ้าคุณบอกว่า คนที่สวมหมวกกันน็อค
    เพราะว่าเธอมีโอกาสที่จะรอดชีวิตมากกว่า
  • 2:18 - 2:22
    นั่นไม่เป็นการลงโทษกับผู้ขับขี่จักรยานยนต์
    ที่มีความรับผิดชอบหรอกหรือ
  • 2:22 - 2:24
    แต่ถ้าคุณช่วยคนที่ไม่สวมหมวกกันน็อค
  • 2:24 - 2:26
    เพราะว่าเขาไม่รับผิดชอบ
  • 2:26 - 2:31
    นั่นก็เป็นการทำเกินไปกว่าหลักการที่ออกแบบ
    ไว้แต่แรกให้ลดอันตรายให้น้อยที่สุด
  • 2:31 - 2:35
    และตอนนี้ รถหุ่นยนต์ก็ต้องแบ่งรับแบ่งสู้
    กับความยุติธรรมบนท้องถนน
  • 2:35 - 2:38
    การตัดสินทางจริยธรรมในสถานการณ์นี้
    ซับซ้อนยิ่งขึ้น
  • 2:38 - 2:40
    ในทั้งสองเหตุการณ์ของเรา
  • 2:40 - 2:44
    การออกแบบพื้นฐานทำหน้าที่
    เป็นดั่งอัลกอริทึมเป้าหมายของโจทย์
  • 2:44 - 2:45
    หรืออาจกล่าวได้ว่า
  • 2:45 - 2:48
    มันคือการเลือกหรือลำเอียงอย่างเป็นระบบ
  • 2:48 - 2:51
    เทียบกับวัตถุบางประเภทที่จะถูกเข้าชน
  • 2:51 - 2:54
    และผู้เป็นเจ้าของของพาหนะเป้าหมาย
  • 2:54 - 2:57
    จะต้องได้รับผลเชิงลบจากอัลกอริทึม
  • 2:57 - 2:59
    แม้ว่าตัวพวกเขาเองจะไม่มีความผิดอะไร
  • 2:59 - 3:03
    เทคโนโลยีใหม่ของเรากำลังเปิดทาง
    ให้กับความยุ่งยากใหม่ทางจริยธรรม
  • 3:03 - 3:05
    ยกตัวอย่างเช่น ถ้าคุณจำเป็นต้องเลือก
  • 3:05 - 3:10
    ระหว่างรถที่จะรักษาชีวิต
    เอาไว้ให้ได้จำนวนมากที่สุดเสมอ
  • 3:10 - 3:13
    กับรถที่จะช่วยคุณไม่ว่าจะอย่างไรก็ตาม
  • 3:13 - 3:14
    คุณจะซื้อรถแบบไหน
  • 3:14 - 3:18
    จะเกิดอะไรขึ้น ถ้ารถเริ่มที่จะวิเคราะห์
    และหาค่าปัจจัย
  • 3:18 - 3:21
    ของผู้โดยสารของรถยนต์
    และรายละเอียดต่าง ๆ เกี่ยวกับชีวิต
  • 3:21 - 3:23
    จะเป็นไปได้ไหมว่า
    การตัดสินอย่างสุ่ม
  • 3:23 - 3:28
    ยังคงดีกว่าการกำหนดไว้ล่วงหน้า
    ที่ถูกออกแบบให้ลดอันตรายให้น้อยที่สุด
  • 3:28 - 3:31
    แล้วว่าแต่ใครกันล่ะ
    ที่ควรจะเป็นผู้ทำการตัดสินใจ
  • 3:31 - 3:32
    นักเขียนโปรแกรม
  • 3:32 - 3:33
    บริษัท
  • 3:33 - 3:34
    รัฐบาล
  • 3:34 - 3:38
    ความเป็นจริงอาจไม่ได้เป็นไป
    ตามการทดลองทางความคิดของเรา
  • 3:38 - 3:39
    แต่นั่นไม่ใช่ประเด็น
  • 3:39 - 3:44
    พวกเราถูกออกแบบให้แยกแยะ และทดสอบ
    สำนึกทางจริยธรรมของเรา
  • 3:44 - 3:47
    เหมือนกับที่การทดลองทางวิทยาศาสตร์
    กระทำกับโลกทางกายภาพ
  • 3:47 - 3:50
    การที่เราตระหนักถึงจุดเปลี่ยนเล็ก ๆ
    ทางจริยธรรมนี้
  • 3:50 - 3:54
    จะช่วยให้เราวางกลยุทธกับถนนที่ไม่คุ้นเคย
    ด้วยจริยธรรมทางเทคโนโลยีได้
  • 3:54 - 3:57
    และทำให้เราแล่นไปได้อย่างมั่นใจและมีสติ
  • 3:57 - 4:00
    สู่อนาคตใหม่ที่เราเชื่อมั่น
Title:
ความยุ่งยากทางจริยธรรมของรถยนต์ที่ขับเคลือนเอง - แพทริก ลิน (Patrick Lin)
Speaker:
แพทริก ลิน
Description:

ชมบทเรียนแบบเต็มได้ที่: http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin

รถยนต์ที่ขับเคลื่อนเองได้ถูกนำมาใช้บนท้องถนนแล้วในปัจจุบัน และขณะที่ในที่สุดรถเหล่านี้จะปลอดภัยกว่าและสะอาดกว่ารถในแบบปัจจุบัน พวกมันไม่สามารถหลีกเลี่ยงอุบัติเหตุได้อย่างสมบูรณ์ รถควรได้รับการกำหนดโปรแกรมอย่างไร ถ้ามันต้องเจอกับอุบัติเหตุที่หลีกเลี่ยงไม่ได้ แพทริก ลิน พาเราไปพบกับความคุมเครือทางจริยธรรมของรถยนต์ที่ขับเคลือนเอง

บทเรียนโดย Patrick Lin, แอนิเมชันโดย Yukai Du

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
04:16

Thai subtitles

Revisions Compare revisions