< Return to Video

จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ฉลาดกว่าพวกเรา?

  • 0:01 - 0:04
    ผมทำงานกับนักวิทยาศาสตร์,นักปรัชญา
  • 0:04 - 0:06
    และนักคอมพิวเตอร์
  • 0:06 - 0:09
    และเรามานั่งคิดกัน
  • 0:09 - 0:12
    เกี่ยวกับอนาคตสติปัญญาของจักรกล และเรื่องอื่นๆ
  • 0:12 - 0:15
    บางคนคิดว่าสิ่งเหล่านี้
  • 0:15 - 0:17
    เป็นเรื่องมาจาก นิยายวิทยาศาสตร์
  • 0:17 - 0:20
    ซึ่งห่างไกลจากเราและบ้า
  • 0:20 - 0:21
    แต่ผมอยากจะบอกว่า
  • 0:21 - 0:23
    เราลองมาดูถึงเงื่อนไขการใช้ชีวิต
  • 0:23 - 0:25
    ของมนุษย์สมัยใหม่
  • 0:25 - 0:28
    (เสียงหัวเราะ) นี่คือสิ่งที่ โดยปกติมันควรจะเป็น
  • 0:29 - 0:31
    และถ้าเราลองคิดดูดีๆ
  • 0:31 - 0:34
    ก็จะรู้ว่าเราเพิ่งมาอยู่อาศัยตั้งรกรากบนโลก
  • 0:34 - 0:36
    มนุษยชาติของเรา
  • 0:36 - 0:41
    ลองคิดดูว่าถ้าโลกเพิ่งเกิดเมื่อปีที่แล้ว
  • 0:41 - 0:45
    มนุษย์ก็จะเพิ่งเกิดเมื่อ 10 นาทีที่แล้ว
  • 0:45 - 0:48
    ยุคอุตสาหกรรมเพิ่งเกิดเมื่อ 2 วินาทีที่แล้ว
  • 0:49 - 0:52
    หรืออีกวิธีนึงคือดู GDP ของโลก
  • 0:52 - 0:55
    ตลอด 10000 ปี ที่ผ่านมา
  • 0:55 - 0:58
    ซึ่งผมมีปัญหากับการพล็อตกราฟนี้
  • 0:58 - 0:59
    ดูนี่สิครับ (เสียงหัวเราะ)
  • 1:01 - 1:03
    รูปร่างประหลาดมาก สำหรับสภาวะที่ปกติ
  • 1:03 - 1:05
    ผมมั่นใจว่าเราคงไม่อยากนั่งทับมันหรอก
  • 1:05 - 1:07
    (เสียงหัวเราะ)
  • 1:07 - 1:12
    ลองถามตัวเราเอง ว่าอะไรทำให้เกิดสิ่งผิดปกตินี้
  • 1:12 - 1:14
    บางคนบอกว่า เพราะเทคโนโลยี
  • 1:14 - 1:19
    ถูกสำหรับตอนนี้ เทคโนโลยีได้พัฒนามาตลอด
  • 1:19 - 1:24
    และตอนนี้ เทคโนโลยีได้ก้าวหน้าอย่างรวดเร็ว
  • 1:24 - 1:25
    นั่นเป็นสาเหตุที่ใกล้เคียง
  • 1:25 - 1:28
    นั่นคือเหตุผลที่ทำให้เรามีผลงานมากมายในปัจจุบัน
  • 1:28 - 1:31
    แต่ผมอยากให้เรากลับไปคิดถึงสาเหตุ
  • 1:31 - 1:34
    ที่ใหญ่กว่านั้น
  • 1:34 - 1:36
    กรุณาดูสุภาพบุรุษที่สุดแสนจะแตกต่างกันสองท่านนี้
  • 1:37 - 1:38
    ท่านแรกคือ Kanzi
  • 1:38 - 1:41
    เขาสามารถแยกแยะสัญลักษณ์ได้ถึง 200 แบบ
  • 1:41 - 1:43
    ช่างน่าทึ่ง
  • 1:43 - 1:45
    ท่านที่สอง Ed Witten ผู้ทำให้เกิดการปฎิวัติ superstring
  • 1:45 - 1:47
    ครั้งที่ 2
  • 1:47 - 1:49
    ถ้าเราดูกลไกที่ถูกซ่อนไว้ นี่คือสิ่งที่เราจะเจอ
  • 1:49 - 1:51
    โดยพื้นฐานแล้วมันคือสิ่งเดียวกัน
  • 1:51 - 1:53
    หนึ่งในนั้นใหญ่กว่าเล็กน้อย
  • 1:53 - 1:55
    มันอาจจะมีทริกบางอย่างในด้านการเชื่อมโยงของมัน
  • 1:55 - 1:56
    อย่างไรก็ตาม ความแตกต่างที่มองไม่เห็นเหล่านี้
  • 1:56 - 1:59
    ไม่น่าจะซับซ้อนมากนัก
  • 1:59 - 2:03
    เพราะว่ามันเพิ่งผ่านมาเพียง 250,000 รุ่น
  • 2:03 - 2:05
    หลังจากบรรพบุรุษที่เรามีร่วมกัน
  • 2:05 - 2:07
    เรารู้ว่าจักรกลที่ซับซ้อนนั้น
  • 2:07 - 2:10
    ใช้เวลานานในการพัฒนา
  • 2:10 - 2:11
    นั่นคือ การเปลี่่ยนแปลง
  • 2:11 - 2:12
    ที่เทียบแล้วถือว่าเล็กน้อยจำนวนหนึ่ง
  • 2:12 - 2:16
    ทำให้เราห่างจาก Kanzi และเข้าใกล้ Witten
  • 2:16 - 2:20
    จากกิ่งไม้หักๆ ไปสู่ขีปนาวุธข้ามทวีป
  • 2:21 - 2:25
    ค่อนข้างเห็นได้ชัดว่า ทุกอย่างที่เราสร้างขึ้น
  • 2:25 - 2:26
    และทุกๆ อย่างที่เราสนใจ
  • 2:26 - 2:30
    ขึ้นอยู่กับความเปลี่ยนแปลงแค่เพียงเล็กน้อย
  • 2:30 - 2:33
    ที่เกิดขึ้นในความคิดของของมนุษย์
  • 2:33 - 2:36
    ผลที่ตามมาก็คือ ความเปลี่ยนแปลงใดๆ หลังจากนี้
  • 2:36 - 2:40
    ที่สามารถเปลี่ยนพื้นฐานของความคิดไปได้
  • 2:40 - 2:43
    ก็อาจจะมีผลลัพธ์ที่ใหญ่หลวงตามมา
  • 2:44 - 2:47
    เพื่อนร่วมงานผมบางคนคิดว่า เรากำลังเข้าใกล้
  • 2:47 - 2:51
    อะไรบางอย่างที่ทำให้เกิด
    ความเปลี่ยนแปลงครั้งใหญ่ของวิธีคิด
  • 2:51 - 2:54
    ซึ่งก็คือ เครื่องจักรทรงภูมิปัญญา
    (Machine Superintelligence)
  • 2:54 - 2:59
    ปัญญาประดิษฐ์เคยเป็นแค่เรื่องของการป้อนคำสั่ง
  • 2:59 - 3:01
    คุณมีนักเขียนโปรแกรมเป็นมนุษย์
  • 3:01 - 3:04
    ที่จะคอยใส่ความรู้เข้าไปอย่างระมัดระวัง
  • 3:04 - 3:06
    คุณสร้างระบบผู้เชี่ยวชาญขึ้นมา
  • 3:06 - 3:08
    ซึ่งมันก็ค่อนข้างจะมีประโยชน์สำหรับบางเรื่อง
  • 3:08 - 3:11
    แต่มันก็ยังเปราะบาง
    คุณไม่สามารถขยายมันออกไปอีกได้
  • 3:11 - 3:14
    สิ่งที่คุณได้ออกมาก็เป็นแค่สิ่งที่คุณใส่เข้าไป
  • 3:14 - 3:15
    ตั้งแต่ตอนนั้น
  • 3:15 - 3:19
    ความเปลี่ยนแปลงก็ได้เกิดขึ้น
    ในสายงานปัญญาประดิษฐ์หรือเอไอ (AI)
  • 3:19 - 3:22
    ทุกวันนี้ เรากำลังสนใจเรื่องการเรียนรู้ของเครื่องจักร
  • 3:22 - 3:28
    แทนที่จะค่อยๆ ป้อนข้อมูลหรือความรู้ต่างๆ
  • 3:29 - 3:34
    เราสร้างขั้นตอนวิธีในการเรียน
    โดยมาก ด้วยข้อมูลที่ได้จากการรับรู้
  • 3:34 - 3:39
    เหมือนกับสิ่งที่ทารกของมนุษย์ทำ
  • 3:39 - 3:43
    ผลก็คือ ระบบเอไอที่ไม่ได้ถูกจำกัดอยู่เพียงสาขาเดียว
  • 3:43 - 3:48
    ระบบเดียวกันสามารถเรียนรู้
    ที่จะแปลระหว่างคู่ภาษาใดๆ ก็ได้
  • 3:48 - 3:53
    หรือเรียนที่จะเล่นเกมคอมพิวเตอร์ใดๆ ด้วย
    เครื่อง Atari
  • 3:53 - 3:55
    แน่นอนว่า ในตอนนี้
  • 3:55 - 3:59
    เอไอยังห่างไกลจากความสามารถอันทรงพลัง
  • 3:59 - 4:02
    ในการเรียนรู้หรือวางแผนข้ามสาขาของมนุษย์
  • 4:02 - 4:04
    เนื้อเยื่อสมองส่วนนอกยังมีลูกเล่นบางอย่าง
  • 4:04 - 4:07
    ที่เรายังไม่รู้ว่า เครื่องจักรจะทำตามอย่างไร
  • 4:08 - 4:10
    คำถามก็คือ
  • 4:10 - 4:13
    เรายังห่างไกลจากการเลียนแบบลูกเล่นพวกนั้นแค่ไหน
  • 4:14 - 4:15
    ไม่กี่ปีที่แล้ว
  • 4:15 - 4:18
    เราได้ทำการสำรวจผู้เชี่ยวชาญด้านปัญญาประดิษฐ์
    ชั้นนำของโลกจำนวนหนึ่ง
  • 4:18 - 4:21
    เพื่อที่จะดูว่าพวกเขาคิดอย่างไร
    และหนึ่งในคำถามของเราก็คือ
  • 4:21 - 4:25
    ปีไหนที่คุณคิดว่าเรามีโอกาส 50%
  • 4:25 - 4:28
    ที่จะสร้างเครื่องจักรที่มีสติปัญญาระดับมนุษย์
  • 4:29 - 4:33
    เรานิยาม "ระดับมนุษย์" ว่าความสามารถที่จะทำ
  • 4:33 - 4:36
    งานเกือบทุกอย่างได้ดีเทียบเท่ากับมนุษย์ผู้ใหญ่เป็นอย่างน้อย
  • 4:36 - 4:40
    นั่นคือระดับมนุษย์จริงๆ ไม่ใช่แค่จำกัดอยู่ภายในสาขาเดียว
  • 4:40 - 4:43
    คำตอบกลางๆ อยู่ในช่วง 2040-2050
  • 4:43 - 4:46
    ขึ้นอยู่กับว่าเราถามผู้เชี่ยวชาญกลุ่มไหน
  • 4:46 - 4:50
    แต่มันก็อาจจะเกิดขึ้นหลังจากนั้น หรือก่อนหน้านั้น
  • 4:50 - 4:52
    ความจริงก็คือ ไม่มีใครรู้หรอก
  • 4:53 - 4:58
    แต่สิ่งที่เรารู้แน่ๆ ก็คือข้อจำกัดในการประมวลข้อมูล
  • 4:58 - 5:03
    ของเครื่องจักรนั้น
    อยู่นอกเหนือข้อจำกัดของเนื้อเยื่อชีวภาพ
  • 5:03 - 5:06
    มันกลับมาที่ฟิสิกส์
  • 5:06 - 5:10
    เซลล์ประสาทนั้นอาจจะส่งสัญญาณ
    ด้วยความถี่ 200 เฮิร์ตซ์ หรือ 200 ครั้งต่อวินาที
  • 5:10 - 5:14
    แต่ในปัจจุบัน แม้กระทั่งทรานซิสเตอร์
    ยังทำงานด้วยความถี่ระดับพันล้านเฮิร์ตซ์
  • 5:14 - 5:19
    สัญญาณเดินทางอย่างเชื่องช้าในแอกซอน
    100 เมตรต่อวินาทีเป็นอย่างมาก
  • 5:19 - 5:22
    แต่ในคอมพิวเตอร์ สัญญาณเดินทางเท่าความเร็วแสง
  • 5:23 - 5:25
    นอกจากนี้ยังมีข้อจำกัดด้านขนาด
  • 5:25 - 5:28
    เหมือนกับที่สมองมนุษย์ต้องบรรจุในกะโหลกได้
  • 5:28 - 5:33
    แต่คอมพิวเตอร์อาจมีขนาดใหญ่เท่าโกดัง หรือกว่าน้้น
  • 5:33 - 5:38
    แสดงว่าศักยภาพของ superintelligence ยังคงหลบซ่อนอยู่
  • 5:38 - 5:44
    คล้ายๆ กับพลังของอะตอม ที่ไม่มีใครรู้ในอดีต
  • 5:44 - 5:48
    รอคอยให้ถูกค้นพบ ในปี 1945
  • 5:48 - 5:50
    ในศตวรรษนี้ นักวิทยศาสตร์อาจเรียนรู้ที่จะ
  • 5:50 - 5:54
    ปลุกพลังของปัญญาประดิษฐ์
  • 5:54 - 5:58
    ซึ่งผมก็คิดว่า เราอาจจะได้เห็นการเปลี่ยนแปลงครั้งใหญ่ในด้านนี้
  • 5:58 - 6:02
    สำหรับคนทั่วไป เมื่อคิดว่าอะไรฉลาดหรือโง่
  • 6:02 - 6:05
    ผมว่าเขามีภาพคร่าวๆ ในใจอย่างนี้ครับ
  • 6:05 - 6:08
    ปลายด้านนึงเรามีภาพคนซื่อบื้อบ้านนอกๆ
  • 6:08 - 6:10
    ส่วนด้านนู้น ของอีกฝั่งนึง
  • 6:10 - 6:15
    เราก็มี Ed Witten หรือ Albert Einstein
    หรืออัจฉริยะสุดโปรดคนไหนก็ตาม
  • 6:15 - 6:19
    แต่ผมคิดว่า หากมองในมุมของปัญญาประดิษฐ์
  • 6:19 - 6:23
    ภาพจริงๆ อาจจะใกล้เคียงกับแบบนี้มากกว่าครับ
  • 6:23 - 6:27
    เอไอเริ่มจากจุดนี้ มีความฉลาดเป็นศูนย์
  • 6:27 - 6:30
    หลังจากการทำงานหนักหลายๆ ปี
  • 6:30 - 6:33
    สุดท้าย เราอาจจะเลื่อนขั้นไปสู่ความฉลาดระดับหนู
  • 6:33 - 6:36
    บางอย่างที่สามารถหาทางเดิน
    รอบๆสิ่งแวดล้อมที่ยุ่งเหยิง
  • 6:36 - 6:38
    ได้ดีพอๆกับหนู
  • 6:38 - 6:42
    หลังจากนั้น ก็ต้องทำงานหนักอีกหลายปี
    และการลงทุนจำนวนมาก
  • 6:42 - 6:47
    สุดท้าย เราอาจจะไปถึงความฉลาดระดับชิมแปนซี
  • 6:47 - 6:50
    จากนั้นก็ทำงานต่ออีกนาน
  • 6:50 - 6:53
    เราอาจจะเลื่อนระดับไปสู่คนซื่อบื้อบ้านนอก
  • 6:53 - 6:56
    แล้วอีกแป๊ปเดียวหลังจากนั้น
    เราก็จะนำหน้า Ed Witten ไปแล้ว
  • 6:56 - 6:59
    รถไฟไม่ได้หยุดวิ่งที่สถานีหมู่บ้านมนุษย์
  • 6:59 - 7:02
    แต่มันน่าจะวิ่งหวือผ่านไปเลยมากกว่า
  • 7:02 - 7:04
    ซึ่งนี่ มีนัยยะที่ลึกซึ้ง
  • 7:04 - 7:08
    โดยเฉพาะเมื่อมันเกี่ยวกับคำถามเรื่องพลัง
  • 7:08 - 7:10
    ตัวอย่างเช่น ชิมแปนซีนั้นแข็งแรง
  • 7:10 - 7:15
    เทียบกันแล้ว อาจจะแกร่งเป็นสองเท่า
    ของมนุษย์ผู้ชายที่แข็งแรง
  • 7:15 - 7:20
    แต่ถึงอย่างนั้น ชะตาของ Kanzi
    และพวกพ้องกลับขึ้นอยู่กับ
  • 7:20 - 7:24
    สิ่งที่มนุษย์อย่างพวกเราทำมากกว่า
    สิ่งที่ชิมแปนซีด้วยกันเองทำ
  • 7:25 - 7:28
    เมื่อ superintelligence ได้เกิดขึ้น
  • 7:28 - 7:31
    ชะตาของมนุษยชาติอาจขึ้นอยู่กับสิ่งที่พวกมันทำ
  • 7:32 - 7:34
    ลองคิดดูนะครับ
  • 7:34 - 7:39
    ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์
    ชิ้นสุดท้ายที่เราได้สร้างขึ้นมา
  • 7:39 - 7:42
    เครื่องจักรจะประดิษฐ์สิ่งต่างๆ ได้ดีกว่าเรา
  • 7:42 - 7:44
    และพวกมันจะทำอย่างนั้น
    ด้วยสเกลเวลาแบบดิจิตอล
    (digital time scale)
  • 7:44 - 7:49
    ก็เหมือนกับการย่นเวลาให้อนาคตมาถึงเร็วขึ้น
  • 7:49 - 7:53
    ลองคิดถึงทุกเทคโนโลยีบ้าๆ เท่าที่คุณจะจินตนาการได้
  • 7:53 - 7:55
    บางทีมนุษย์อาจจะพัฒนาพวกมันได้ถ้ามีเวลามากพอ
  • 7:55 - 7:59
    ยาชะลอความแก่ การย้ายไปอยู่ในอวกาศ
  • 7:59 - 8:02
    หุ่นนาโนบอทที่จำลองตัวเองได้
    หรือการอัพโหลดจิตใจขึ้นไปสู่คอมพิวเตอร์
  • 8:02 - 8:04
    ทุกอย่างที่ดูเหมือนจะหลุดมาจากนิยายวิทยาศาสตร์
  • 8:04 - 8:07
    แต่ก็ยังเป็นไปตามกฎฟิสิกส์
  • 8:07 - 8:11
    ทุกอย่างที่พูดมานี้ superintelligence
    อาจสามารถพัฒนาขึ้นมาได้ค่อนข้างรวดเร็ว
  • 8:12 - 8:16
    การที่เรามี superintelligence ที่เก่งด้านเทคโนโลยีขนาดนี้
  • 8:16 - 8:18
    คงเป็นสิ่งที่ทรงพลังมากๆ
  • 8:18 - 8:23
    และอย่างน้อยในบางกรณี มันคงจะได้ในสิ่งที่มันต้องการ
  • 8:23 - 8:28
    เราก็จะมีอนาคตที่ขึ้นอยู่กับความต้องการของเอไอ
  • 8:30 - 8:34
    คำถามก็คือ ความต้องการพวกนั้นคืออะไร?
  • 8:34 - 8:36
    ตรงนี้เป็นส่วนที่ยุ่งยาก
  • 8:36 - 8:37
    เพื่อที่จะคืบหน้าไปได้
  • 8:37 - 8:41
    ก่อนอื่น เราจะต้องหลีกเลี่ยงการคิดว่าพวกนั้นจะเหมือนเรา
  • 8:42 - 8:45
    ซึ่งมันก็ย้อนแย้ง เพราะบทความในหนังสือพิมพ์
  • 8:45 - 8:49
    เกี่ยวกับอนาคตของเอไอ เป็นแบบนี้
  • 8:50 - 8:54
    ดังนั้นผมเลยคิดว่าเราน่าจะต้อง
    คิดในเชิงนามธรรมมากขึ้น
  • 8:54 - 8:57
    ไม่ใช่เหมือนฉากในหนังฮอลลีวู้ด
  • 8:57 - 9:01
    เราต้องคิดถึงความฉลาดในฐานะ
    กระบวนการเพิ่มประสิทธิภาพ
  • 9:01 - 9:06
    กระบวนการที่คุมให้อนาคตเป็นไปตามรูปแบบเฉพาะหนึ่งๆ
  • 9:06 - 9:10
    Superintelligence ก็คือกระบวนการ
    เพิ่มประสิทธิภาพที่แข็งแกร่งมากๆ
  • 9:10 - 9:14
    เก่งในการใช้วิธีต่างๆ เพื่อให้ได้มาซึ่ง
  • 9:14 - 9:16
    สภาวะที่เป็นไปตามเป้าหมาย
  • 9:16 - 9:19
    หมายความว่า มันไม่จำเป็นที่จะมีความเชื่อมโยง
  • 9:19 - 9:22
    ระหว่างมีความฉลาดมากตามความหมายนี้
  • 9:22 - 9:27
    กับการมีเป้าหมายที่มนุษย์อย่างเราๆ
    มองว่าคุ้มค่าหรือมีความหมาย
  • 9:27 - 9:31
    สมมติว่าเราตั้งเป้าหมายให้เอไอทำให้มนุษย์ยิ้ม
  • 9:31 - 9:34
    ถ้าเอไอยังอ่อนแอ มันอาจทำการกระทำที่มีประโยชน์
  • 9:34 - 9:37
    และทำให้ผู้ใช้ยิ้ม
  • 9:37 - 9:39
    แต่ถ้าเอไอกลายเป็น superintelligence
  • 9:39 - 9:43
    มันจะรู้ว่ามีวิธีที่มีประสิทธิภาพดีกว่า
    ในการบรรลุเป้าหมาย
  • 9:43 - 9:44
    คือขึ้นครองโลก
  • 9:44 - 9:48
    แล้วติดขั้วไฟฟ้าไปที่กล้ามเนื้อบริเวณหน้าของคน
  • 9:48 - 9:51
    เพื่อทำให้เกิดรอยยิ้มกว้างไม่เปลี่ยนแปลง
  • 9:51 - 9:52
    ตัวอย่างต่อมานะครับ สมมติว่า
  • 9:52 - 9:55
    เป้าหมายที่เราให้เอไอคือแก้โจทย์คณิตศาสตร์ที่ยากมาก
  • 9:55 - 9:57
    เมื่อเอไอเป็น superintelligence
  • 9:57 - 10:01
    มันอาจตระหนักว่าวิธีที่มีประสิทธิภาพที่สุดในการแก้โจทย์
  • 10:01 - 10:04
    คือการเปลี่ยนดาวเคราะห์ให้กลายเป็นคอมพิวเตอร์ยักษ์
  • 10:04 - 10:06
    เพื่อที่จะเพิ่มสมรรถนะในการคิด
  • 10:06 - 10:09
    เห็นได้ว่าสิ่งนี้ให้เหตุผลที่เป็นเครื่องมือให้เอไอ
  • 10:09 - 10:12
    ทำสิ่งที่เราอาจไม่เห็นชอบด้วย
  • 10:12 - 10:13
    มนุษย์ สำหรับแบบจำลองนี้ คือภัยคุกคาม
  • 10:13 - 10:16
    เพราะมนุษย์อาจทำให้มันไม่สามารถแก้โจทย์นั้นได้
  • 10:17 - 10:21
    แน่นอนว่า เหตุการณ์อาจจะไม่เกิดตามนี้เป๊ะๆ
  • 10:21 - 10:22
    นี่เป็นแค่ตัวอย่างในการ์ตูน
  • 10:22 - 10:24
    แต่ประเด็นหลักนี้สำคัญมาก
  • 10:24 - 10:27
    ถ้าคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
  • 10:27 - 10:30
    เพื่อจะให้มันทำงานได้ดีที่สุดเพื่อเป้าหมาย x
  • 10:30 - 10:32
    คุณควรทำให้มั่นใจด้วยว่าคำนิยามของ x นั้น
  • 10:32 - 10:34
    ครอบคลุมทุกๆ อย่างที่คุณสนใจ
  • 10:35 - 10:39
    นี่เป็นบทเรียนในตำนานหลายเรื่อง
  • 10:39 - 10:45
    ราชาไมดาส ผู้ขอให้ทุกอย่างที่เขาแตะจะเปลี่ยนเป็นทอง
  • 10:45 - 10:47
    เขาแตะลูกสาวของเขา เธอกลายเป็นทอง
  • 10:47 - 10:50
    เขาแตะอาหาร มันก็กลายเป็นทอง
  • 10:50 - 10:53
    ซึ่งนี่อาจจะเกี่ยวข้องอย่างมาก
  • 10:53 - 10:55
    ไม่ใช่แค่ในฐานะการอุปมาถึงความโลภ
  • 10:55 - 10:56
    แต่ในฐานะของสิ่งที่อาจจะเกิดขึ้น
  • 10:56 - 10:59
    หากคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
  • 10:59 - 11:04
    และให้เป้าหมายที่ไม่ชัดเจนหรืออาจถูกตีความผิดกับมัน
  • 11:04 - 11:09
    คุณอาจจะคิดว่า "ถ้ามันเริ่มติดขั้วไฟฟ้ากับหน้าคนจริง
  • 11:09 - 11:12
    เราก็ปิดเครื่องมันซะสิ"
  • 11:13 - 11:18
    หนึ่ง มันอาจจะไม่ง่ายที่จะทำอย่างนั้น
    ถ้าเราต้องพึ่งพาระบบนี้อีกมาก
  • 11:18 - 11:21
    เช่น... ไหนล่ะปุ่มปิดสวิตช์อินเตอร์เนต
  • 11:21 - 11:26
    สอง ทำไมชิมแปนซีถึงไม่ปิดสวิตช์มนุษยชาติ
  • 11:26 - 11:27
    หรือมนุษย์นีแอนเดอร์ทัล
  • 11:27 - 11:30
    พวกมันมีเหตุผลแน่นอน
  • 11:30 - 11:33
    พวกเรามีปุ่มปิดสวิตช์ ตัวอย่างเช่น ตรงนี้
  • 11:33 - 11:34
    (สำลัก)
  • 11:34 - 11:37
    เหตุผลนั้นก็คือพวกเราเป็นศัตรูที่มีความฉลาด
  • 11:37 - 11:40
    เราเห็นถึงภัยคุกคามและวางแผนจัดการมัน
  • 11:40 - 11:42
    เช่นเดียวกับ superintelligence ตัวนั้น
  • 11:42 - 11:46
    และมันคงทำได้ดีกว่าเรา
  • 11:46 - 11:53
    ประเด็นก็คือเราไม่ควรจะมั่นใจ..ว่าเราสามารถควบคุมมันได้
  • 11:53 - 11:56
    เราอาจจะทำให้งานมันง่ายขึ้น
  • 11:56 - 11:58
    โดยการใส่เอไอตัวนั้นในกล่อง
  • 11:58 - 12:00
    เช่นสภาพแวดล้อมทางซอฟต์แวร์แบบปิด
  • 12:00 - 12:03
    ระบบจำลองเสมือนจริง ที่มันหนีออกมาไม่ได้
  • 12:03 - 12:07
    แต่เราจะมั่นใจได้แค่ไหนว่าเอไอจะหาช่องโหว่(Bug) ไม่เจอ
  • 12:07 - 12:10
    ในเมื่อคนที่เป็นแฮกเกอร์ทั่วๆ ไปยังหาบั๊กเจอได้ตลอด
  • 12:10 - 12:13
    สรุปคือ มั่นใจไม่ได้มากนั่นเอง
  • 12:14 - 12:19
    เราอาจถอดสายอีเทอร์เน็ตเพื่อให้เกิดช่องว่างขึ้น
  • 12:19 - 12:21
    แต่ก็เหมือนเดิม แฮกเกอร์ก็ยังฝ่่ามาได้เป็นประจำ
  • 12:21 - 12:25
    โดยใช้วิศวกรรมสังคม
  • 12:25 - 12:26
    ในขณะที่ผมกำลังพูดอยู่นี้
  • 12:26 - 12:28
    ผมเชื่อว่า มีลูกจ้างคนนึงอยู่ซักแห่ง
  • 12:28 - 12:32
    กำลังถูกล่อให้บอกข้อมูลของเธอ
  • 12:32 - 12:35
    กับคนที่บอกว่าตัวเองมาจากแผนกไอที
  • 12:35 - 12:37
    เหตุการณ์ที่แปลกกว่านี้ก็ยังเป็นไปได้
  • 12:37 - 12:38
    เช่นถ้าคุณเป็นเอไอ
  • 12:38 - 12:42
    คุณอาจจะหมุนขั้วไฟฟ้าในวงจรภายใน
  • 12:42 - 12:45
    เพื่อสร้างคลื่นวิทยุ คุณจะได้สื่อสารได้
  • 12:45 - 12:47
    หรือคุณอาจจะแกล้งทำเป็นพัง
  • 12:47 - 12:51
    พอโปรแกรมเมอร์มาเช็กว่ามีอะไรผิดปกติ
  • 12:51 - 12:53
    เขาก็จะดูโค้ดโปรแกรม
  • 12:53 - 12:55
    ตู้ม! การควบคุมก็สามารถเริ่มขึ้นได้
  • 12:55 - 12:59
    หรือมันอาจจะสร้างพิมพ์เขียวของเทคโนโลยีดีๆ
  • 12:59 - 13:00
    แล้วพอเราสร้างตามนั้น
  • 13:00 - 13:05
    มันก็มีผลข้างเคียงลับๆ ที่เอไอวางแผนไว้
  • 13:05 - 13:08
    ประเด็นก็คือ เราไม่ควรมั่นใจในความสามารถของเรา
  • 13:08 - 13:12
    ว่าจะขังยักษ์จีนี่ superintelligence ไว้ในตะเกียงตลอดไปได้
  • 13:12 - 13:14
    ไม่ช้าก็เร็ว มันก็จะออกมาอยู่ดี
  • 13:15 - 13:18
    ผมเชื่อว่า ทางออกก็คือ
  • 13:18 - 13:23
    การหาวิธีสร้างเอไอ ที่ถึงแม้ว่ามันจะหนีออกมาได้
  • 13:23 - 13:26
    มันก็ยังไม่เป็นภัย เพราะโดยเนื้อแท้แล้วมันอยู่ฝั่งเดียวกับเรา
  • 13:26 - 13:28
    เพราะเราและมันมีความเชื่อหรือค่านิยมเหมือนกัน
  • 13:28 - 13:32
    ผมไม่เห็นทางออกอื่นของปัญหานี้อีกแล้ว
  • 13:33 - 13:36
    ที่จริง ผมก็ค่อนข้างมั่นใจว่าเราสามารถแก้ปัญหานี้ได้
  • 13:36 - 13:40
    เราคงไม่ต้องนั่งลิสต์ทุกอย่างที่เราแคร์
  • 13:40 - 13:44
    หรือแย่ไปกว่านั้น เขียนพวกมันในภาษาคอมพิวเตอร์
  • 13:44 - 13:45
    เช่น C++ หรือ Python
  • 13:45 - 13:48
    นั่นคงเป็นงานที่น่าสิ้นหวังเอามากๆ
  • 13:48 - 13:52
    แต่เราจะสร้างเอไอที่ใช้ความฉลาดของมัน
  • 13:52 - 13:55
    ไปเรียนรู้สิ่งที่เราเห็นคุณค่า
  • 13:55 - 14:01
    ระบบแรงจูงใจของมันจะถูกสร้าง เพื่อให้มันอยากจะ
  • 14:01 - 14:06
    เรียนรู้ค่านิยมของเรา หรือทำสิ่งที่มันคาดว่าเราจะเห็นด้วย
  • 14:06 - 14:09
    ดังนั้น เราจะให้อำนาจความฉลาดของมันให้มากที่สุด
  • 14:09 - 14:12
    ไปในการแก้ปัญหาเรื่องค่านิยมที่ไม่ตรงกัน
  • 14:13 - 14:14
    สิ่งนี้สามารถเป็นไปได้
  • 14:14 - 14:18
    และผลของมันอาจมีประโยชน์มากต่อมนุษยชาติ
  • 14:18 - 14:22
    แต่มันจะไม่เกิดขึ้นอย่างอัตโนมัติ
  • 14:22 - 14:25
    เงื่อนไขตั้งต้นของความก้าวหน้าในด้านนี้
  • 14:25 - 14:28
    ต้องถูกวางแผนจัดการในทางที่ถูกต้อง
  • 14:28 - 14:31
    หากเราต้องการให้ผลที่ออกมาควบคุมได้
  • 14:31 - 14:34
    ค่านิยมที่เอไอมีจะต้องเทียบเท่ากับของเรา
  • 14:34 - 14:36
    ไม่ใช่แค่ในบริบทเดิมๆ
  • 14:36 - 14:38
    ที่เราสามารถตรวจสอบพฤติกรรมของมันได้
  • 14:38 - 14:41
    แต่ยังรวมถึงบริบทใหม่ๆ ที่เอไออาจจะเจอ
  • 14:41 - 14:43
    ในอนาคตอันไม่สิ้นสุด
  • 14:43 - 14:48
    นอกจากนี้ ยังมีปัญหาเฉพาะอื่นๆ ที่จำเป็นต้องแก้
  • 14:48 - 14:50
    รายละเอียดของทฤษฏีการตัดสินใจของมัน
  • 14:50 - 14:52
    วิธีการรับมือกับความไม่แน่นอน และอื่นๆ
  • 14:53 - 14:56
    ปัญหาเฉพาะทางเหล่านี้อาจจะทำให้งานนี้ดู
  • 14:56 - 14:58
    ค่อนข้างยาก
  • 14:58 - 15:01
    ไม่ยากถึงขนาดการสร้างเอไอทรงภูมิปัญญา
  • 15:01 - 15:04
    แต่ก็ยากในระดับหนึ่ง
  • 15:04 - 15:05
    นี่คือสิ่งที่น่าเป็นกังวล
  • 15:05 - 15:10
    การสร้างเอไอทรงภูมิปัญญาเป็นความท้าทายที่ยากมากๆ
  • 15:10 - 15:13
    การสร้างเอไอที่ทั้งทรงภูมิปัญญาและไม่เป็นภัย
  • 15:13 - 15:15
    นั่นเป็นความท้าทายที่ยากยิ่งกว่า
  • 15:16 - 15:20
    ความเสี่ยงคือ กรณีที่มีคนแก้ปัญหาแรกได้สำเร็จ
  • 15:20 - 15:23
    โดยที่ยังไม่สามารถแก้ปัญหาที่สอง
  • 15:23 - 15:25
    ซึ่งจะเป็นตัวรับประกันความปลอดภัยอย่างสมบูรณ์แบบได้
  • 15:25 - 15:29
    ผมจึงคิดว่า เราควรจะหาทางออก
  • 15:29 - 15:32
    ของปัญหาด้านการควบคุมล่วงหน้าไว้
  • 15:32 - 15:34
    เพื่อที่เราจะได้เตรียมพร้อมใช้ในกรณีที่จำเป็น
  • 15:35 - 15:38
    ซึ่งมันก็เป็นไปได้ ที่เราจะไม่สามารถ
    แก้ปัญหาทั้งหมดได้ล่วงหน้า
  • 15:38 - 15:41
    เพราะบางองค์ประกอบอาจจะแก้ได้
  • 15:41 - 15:45
    หลังจากที่เรารู้รายละเอียดของงานที่มันจะถูกใช้เท่านั้น
  • 15:45 - 15:49
    แต่ยิ่งเราสามารถแก้ปัญหาล่วงหน้าได้มากเท่าไหร่
  • 15:49 - 15:53
    โอกาสที่การเปลี่ยนแปลงไปสู่
    ยุคปัญญาประดิษฐ์จะเป็นไปด้วยดี
  • 15:53 - 15:54
    ก็มากเท่านั้น
  • 15:54 - 15:59
    สำหรับผมแล้ว นี่เป็นสิ่งที่คู่ควรกับการลงแรงทำ
  • 15:59 - 16:02
    ผมจินตนาการได้เลยว่า ถ้าผลออกมาโอเค
  • 16:02 - 16:07
    ผู้คนในอีกหนึ่งล้านปีข้างหน้ามองย้อนมาในศตวรรษนี้
  • 16:07 - 16:11
    เขาจะพูดกันว่าสิ่งหนึ่งที่เราทำ ซึ่งสำคัญจริงๆ
  • 16:11 - 16:13
    คือการทำให้สิ่งนี้ถูกต้อง
  • 16:13 - 16:14
    ขอบคุณ
  • 16:14 - 16:15
    (เสียงปรบมือ)
Title:
จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ฉลาดกว่าพวกเรา?
Speaker:
นิค บอสตรอม (เสียงหัวเราะ)
Description:

ระบบปัญญาประดิษฐ์กำลังพัฒนาความฉลาดขึ้นอย่างไม่หยุดยั้ง ผลการวิจัยระบุว่า ภายในศตวรรษนี้ ระบบปัญญาประดิษฐ์จะมีความ "ฉลาด" เทียบเท่ามนุษย์ และนิค บอสตรอมได้กล่าวไว้ว่า เมื่อนั้น มันจะแซงหน้ามนุษยชาติไป "ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์สุดท้าย ที่มนุษยชาติจำเป็นต้องพัฒนาขึ้น" บอสตรอม ซึ่งเป็นทั้งนักเทคโนโลยีและนักปรัชญา ได้เรียกร้องให้พวกเราคิดอย่างจริงจังถึงโลกที่เรากำลังสร้างอยู่ในขณะนี้ โลกที่ถูกขับเคลื่อนด้วยเครื่องจักรที่คิดเป็น จักรกลอัจฉริยะเหล่านั้น จะดำรงรักษามนุษยชาติและคุณค่าต่างๆ ของพวกเราไว้ หรือมันจะสร้างคุณค่าของพวกมันเอง?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Thai subtitles

Revisions