จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ฉลาดกว่าพวกเรา?
-
0:01 - 0:04ผมทำงานกับนักวิทยาศาสตร์,นักปรัชญา
-
0:04 - 0:06และนักคอมพิวเตอร์
-
0:06 - 0:09และเรามานั่งคิดกัน
-
0:09 - 0:12เกี่ยวกับอนาคตสติปัญญาของจักรกล และเรื่องอื่นๆ
-
0:12 - 0:15บางคนคิดว่าสิ่งเหล่านี้
-
0:15 - 0:17เป็นเรื่องมาจาก นิยายวิทยาศาสตร์
-
0:17 - 0:20ซึ่งห่างไกลจากเราและบ้า
-
0:20 - 0:21แต่ผมอยากจะบอกว่า
-
0:21 - 0:23เราลองมาดูถึงเงื่อนไขการใช้ชีวิต
-
0:23 - 0:25ของมนุษย์สมัยใหม่
-
0:25 - 0:28(เสียงหัวเราะ) นี่คือสิ่งที่ โดยปกติมันควรจะเป็น
-
0:29 - 0:31และถ้าเราลองคิดดูดีๆ
-
0:31 - 0:34ก็จะรู้ว่าเราเพิ่งมาอยู่อาศัยตั้งรกรากบนโลก
-
0:34 - 0:36มนุษยชาติของเรา
-
0:36 - 0:41ลองคิดดูว่าถ้าโลกเพิ่งเกิดเมื่อปีที่แล้ว
-
0:41 - 0:45มนุษย์ก็จะเพิ่งเกิดเมื่อ 10 นาทีที่แล้ว
-
0:45 - 0:48ยุคอุตสาหกรรมเพิ่งเกิดเมื่อ 2 วินาทีที่แล้ว
-
0:49 - 0:52หรืออีกวิธีนึงคือดู GDP ของโลก
-
0:52 - 0:55ตลอด 10000 ปี ที่ผ่านมา
-
0:55 - 0:58ซึ่งผมมีปัญหากับการพล็อตกราฟนี้
-
0:58 - 0:59ดูนี่สิครับ (เสียงหัวเราะ)
-
1:01 - 1:03รูปร่างประหลาดมาก สำหรับสภาวะที่ปกติ
-
1:03 - 1:05ผมมั่นใจว่าเราคงไม่อยากนั่งทับมันหรอก
-
1:05 - 1:07(เสียงหัวเราะ)
-
1:07 - 1:12ลองถามตัวเราเอง ว่าอะไรทำให้เกิดสิ่งผิดปกตินี้
-
1:12 - 1:14บางคนบอกว่า เพราะเทคโนโลยี
-
1:14 - 1:19ถูกสำหรับตอนนี้ เทคโนโลยีได้พัฒนามาตลอด
-
1:19 - 1:24และตอนนี้ เทคโนโลยีได้ก้าวหน้าอย่างรวดเร็ว
-
1:24 - 1:25นั่นเป็นสาเหตุที่ใกล้เคียง
-
1:25 - 1:28นั่นคือเหตุผลที่ทำให้เรามีผลงานมากมายในปัจจุบัน
-
1:28 - 1:31แต่ผมอยากให้เรากลับไปคิดถึงสาเหตุ
-
1:31 - 1:34ที่ใหญ่กว่านั้น
-
1:34 - 1:36กรุณาดูสุภาพบุรุษที่สุดแสนจะแตกต่างกันสองท่านนี้
-
1:37 - 1:38ท่านแรกคือ Kanzi
-
1:38 - 1:41เขาสามารถแยกแยะสัญลักษณ์ได้ถึง 200 แบบ
-
1:41 - 1:43ช่างน่าทึ่ง
-
1:43 - 1:45ท่านที่สอง Ed Witten ผู้ทำให้เกิดการปฎิวัติ superstring
-
1:45 - 1:47ครั้งที่ 2
-
1:47 - 1:49ถ้าเราดูกลไกที่ถูกซ่อนไว้ นี่คือสิ่งที่เราจะเจอ
-
1:49 - 1:51โดยพื้นฐานแล้วมันคือสิ่งเดียวกัน
-
1:51 - 1:53หนึ่งในนั้นใหญ่กว่าเล็กน้อย
-
1:53 - 1:55มันอาจจะมีทริกบางอย่างในด้านการเชื่อมโยงของมัน
-
1:55 - 1:56อย่างไรก็ตาม ความแตกต่างที่มองไม่เห็นเหล่านี้
-
1:56 - 1:59ไม่น่าจะซับซ้อนมากนัก
-
1:59 - 2:03เพราะว่ามันเพิ่งผ่านมาเพียง 250,000 รุ่น
-
2:03 - 2:05หลังจากบรรพบุรุษที่เรามีร่วมกัน
-
2:05 - 2:07เรารู้ว่าจักรกลที่ซับซ้อนนั้น
-
2:07 - 2:10ใช้เวลานานในการพัฒนา
-
2:10 - 2:11นั่นคือ การเปลี่่ยนแปลง
-
2:11 - 2:12ที่เทียบแล้วถือว่าเล็กน้อยจำนวนหนึ่ง
-
2:12 - 2:16ทำให้เราห่างจาก Kanzi และเข้าใกล้ Witten
-
2:16 - 2:20จากกิ่งไม้หักๆ ไปสู่ขีปนาวุธข้ามทวีป
-
2:21 - 2:25ค่อนข้างเห็นได้ชัดว่า ทุกอย่างที่เราสร้างขึ้น
-
2:25 - 2:26และทุกๆ อย่างที่เราสนใจ
-
2:26 - 2:30ขึ้นอยู่กับความเปลี่ยนแปลงแค่เพียงเล็กน้อย
-
2:30 - 2:33ที่เกิดขึ้นในความคิดของของมนุษย์
-
2:33 - 2:36ผลที่ตามมาก็คือ ความเปลี่ยนแปลงใดๆ หลังจากนี้
-
2:36 - 2:40ที่สามารถเปลี่ยนพื้นฐานของความคิดไปได้
-
2:40 - 2:43ก็อาจจะมีผลลัพธ์ที่ใหญ่หลวงตามมา
-
2:44 - 2:47เพื่อนร่วมงานผมบางคนคิดว่า เรากำลังเข้าใกล้
-
2:47 - 2:51อะไรบางอย่างที่ทำให้เกิด
ความเปลี่ยนแปลงครั้งใหญ่ของวิธีคิด -
2:51 - 2:54ซึ่งก็คือ เครื่องจักรทรงภูมิปัญญา
(Machine Superintelligence) -
2:54 - 2:59ปัญญาประดิษฐ์เคยเป็นแค่เรื่องของการป้อนคำสั่ง
-
2:59 - 3:01คุณมีนักเขียนโปรแกรมเป็นมนุษย์
-
3:01 - 3:04ที่จะคอยใส่ความรู้เข้าไปอย่างระมัดระวัง
-
3:04 - 3:06คุณสร้างระบบผู้เชี่ยวชาญขึ้นมา
-
3:06 - 3:08ซึ่งมันก็ค่อนข้างจะมีประโยชน์สำหรับบางเรื่อง
-
3:08 - 3:11แต่มันก็ยังเปราะบาง
คุณไม่สามารถขยายมันออกไปอีกได้ -
3:11 - 3:14สิ่งที่คุณได้ออกมาก็เป็นแค่สิ่งที่คุณใส่เข้าไป
-
3:14 - 3:15ตั้งแต่ตอนนั้น
-
3:15 - 3:19ความเปลี่ยนแปลงก็ได้เกิดขึ้น
ในสายงานปัญญาประดิษฐ์หรือเอไอ (AI) -
3:19 - 3:22ทุกวันนี้ เรากำลังสนใจเรื่องการเรียนรู้ของเครื่องจักร
-
3:22 - 3:28แทนที่จะค่อยๆ ป้อนข้อมูลหรือความรู้ต่างๆ
-
3:29 - 3:34เราสร้างขั้นตอนวิธีในการเรียน
โดยมาก ด้วยข้อมูลที่ได้จากการรับรู้ -
3:34 - 3:39เหมือนกับสิ่งที่ทารกของมนุษย์ทำ
-
3:39 - 3:43ผลก็คือ ระบบเอไอที่ไม่ได้ถูกจำกัดอยู่เพียงสาขาเดียว
-
3:43 - 3:48ระบบเดียวกันสามารถเรียนรู้
ที่จะแปลระหว่างคู่ภาษาใดๆ ก็ได้ -
3:48 - 3:53หรือเรียนที่จะเล่นเกมคอมพิวเตอร์ใดๆ ด้วย
เครื่อง Atari -
3:53 - 3:55แน่นอนว่า ในตอนนี้
-
3:55 - 3:59เอไอยังห่างไกลจากความสามารถอันทรงพลัง
-
3:59 - 4:02ในการเรียนรู้หรือวางแผนข้ามสาขาของมนุษย์
-
4:02 - 4:04เนื้อเยื่อสมองส่วนนอกยังมีลูกเล่นบางอย่าง
-
4:04 - 4:07ที่เรายังไม่รู้ว่า เครื่องจักรจะทำตามอย่างไร
-
4:08 - 4:10คำถามก็คือ
-
4:10 - 4:13เรายังห่างไกลจากการเลียนแบบลูกเล่นพวกนั้นแค่ไหน
-
4:14 - 4:15ไม่กี่ปีที่แล้ว
-
4:15 - 4:18เราได้ทำการสำรวจผู้เชี่ยวชาญด้านปัญญาประดิษฐ์
ชั้นนำของโลกจำนวนหนึ่ง -
4:18 - 4:21เพื่อที่จะดูว่าพวกเขาคิดอย่างไร
และหนึ่งในคำถามของเราก็คือ -
4:21 - 4:25ปีไหนที่คุณคิดว่าเรามีโอกาส 50%
-
4:25 - 4:28ที่จะสร้างเครื่องจักรที่มีสติปัญญาระดับมนุษย์
-
4:29 - 4:33เรานิยาม "ระดับมนุษย์" ว่าความสามารถที่จะทำ
-
4:33 - 4:36งานเกือบทุกอย่างได้ดีเทียบเท่ากับมนุษย์ผู้ใหญ่เป็นอย่างน้อย
-
4:36 - 4:40นั่นคือระดับมนุษย์จริงๆ ไม่ใช่แค่จำกัดอยู่ภายในสาขาเดียว
-
4:40 - 4:43คำตอบกลางๆ อยู่ในช่วง 2040-2050
-
4:43 - 4:46ขึ้นอยู่กับว่าเราถามผู้เชี่ยวชาญกลุ่มไหน
-
4:46 - 4:50แต่มันก็อาจจะเกิดขึ้นหลังจากนั้น หรือก่อนหน้านั้น
-
4:50 - 4:52ความจริงก็คือ ไม่มีใครรู้หรอก
-
4:53 - 4:58แต่สิ่งที่เรารู้แน่ๆ ก็คือข้อจำกัดในการประมวลข้อมูล
-
4:58 - 5:03ของเครื่องจักรนั้น
อยู่นอกเหนือข้อจำกัดของเนื้อเยื่อชีวภาพ -
5:03 - 5:06มันกลับมาที่ฟิสิกส์
-
5:06 - 5:10เซลล์ประสาทนั้นอาจจะส่งสัญญาณ
ด้วยความถี่ 200 เฮิร์ตซ์ หรือ 200 ครั้งต่อวินาที -
5:10 - 5:14แต่ในปัจจุบัน แม้กระทั่งทรานซิสเตอร์
ยังทำงานด้วยความถี่ระดับพันล้านเฮิร์ตซ์ -
5:14 - 5:19สัญญาณเดินทางอย่างเชื่องช้าในแอกซอน
100 เมตรต่อวินาทีเป็นอย่างมาก -
5:19 - 5:22แต่ในคอมพิวเตอร์ สัญญาณเดินทางเท่าความเร็วแสง
-
5:23 - 5:25นอกจากนี้ยังมีข้อจำกัดด้านขนาด
-
5:25 - 5:28เหมือนกับที่สมองมนุษย์ต้องบรรจุในกะโหลกได้
-
5:28 - 5:33แต่คอมพิวเตอร์อาจมีขนาดใหญ่เท่าโกดัง หรือกว่าน้้น
-
5:33 - 5:38แสดงว่าศักยภาพของ superintelligence ยังคงหลบซ่อนอยู่
-
5:38 - 5:44คล้ายๆ กับพลังของอะตอม ที่ไม่มีใครรู้ในอดีต
-
5:44 - 5:48รอคอยให้ถูกค้นพบ ในปี 1945
-
5:48 - 5:50ในศตวรรษนี้ นักวิทยศาสตร์อาจเรียนรู้ที่จะ
-
5:50 - 5:54ปลุกพลังของปัญญาประดิษฐ์
-
5:54 - 5:58ซึ่งผมก็คิดว่า เราอาจจะได้เห็นการเปลี่ยนแปลงครั้งใหญ่ในด้านนี้
-
5:58 - 6:02สำหรับคนทั่วไป เมื่อคิดว่าอะไรฉลาดหรือโง่
-
6:02 - 6:05ผมว่าเขามีภาพคร่าวๆ ในใจอย่างนี้ครับ
-
6:05 - 6:08ปลายด้านนึงเรามีภาพคนซื่อบื้อบ้านนอกๆ
-
6:08 - 6:10ส่วนด้านนู้น ของอีกฝั่งนึง
-
6:10 - 6:15เราก็มี Ed Witten หรือ Albert Einstein
หรืออัจฉริยะสุดโปรดคนไหนก็ตาม -
6:15 - 6:19แต่ผมคิดว่า หากมองในมุมของปัญญาประดิษฐ์
-
6:19 - 6:23ภาพจริงๆ อาจจะใกล้เคียงกับแบบนี้มากกว่าครับ
-
6:23 - 6:27เอไอเริ่มจากจุดนี้ มีความฉลาดเป็นศูนย์
-
6:27 - 6:30หลังจากการทำงานหนักหลายๆ ปี
-
6:30 - 6:33สุดท้าย เราอาจจะเลื่อนขั้นไปสู่ความฉลาดระดับหนู
-
6:33 - 6:36บางอย่างที่สามารถหาทางเดิน
รอบๆสิ่งแวดล้อมที่ยุ่งเหยิง -
6:36 - 6:38ได้ดีพอๆกับหนู
-
6:38 - 6:42หลังจากนั้น ก็ต้องทำงานหนักอีกหลายปี
และการลงทุนจำนวนมาก -
6:42 - 6:47สุดท้าย เราอาจจะไปถึงความฉลาดระดับชิมแปนซี
-
6:47 - 6:50จากนั้นก็ทำงานต่ออีกนาน
-
6:50 - 6:53เราอาจจะเลื่อนระดับไปสู่คนซื่อบื้อบ้านนอก
-
6:53 - 6:56แล้วอีกแป๊ปเดียวหลังจากนั้น
เราก็จะนำหน้า Ed Witten ไปแล้ว -
6:56 - 6:59รถไฟไม่ได้หยุดวิ่งที่สถานีหมู่บ้านมนุษย์
-
6:59 - 7:02แต่มันน่าจะวิ่งหวือผ่านไปเลยมากกว่า
-
7:02 - 7:04ซึ่งนี่ มีนัยยะที่ลึกซึ้ง
-
7:04 - 7:08โดยเฉพาะเมื่อมันเกี่ยวกับคำถามเรื่องพลัง
-
7:08 - 7:10ตัวอย่างเช่น ชิมแปนซีนั้นแข็งแรง
-
7:10 - 7:15เทียบกันแล้ว อาจจะแกร่งเป็นสองเท่า
ของมนุษย์ผู้ชายที่แข็งแรง -
7:15 - 7:20แต่ถึงอย่างนั้น ชะตาของ Kanzi
และพวกพ้องกลับขึ้นอยู่กับ -
7:20 - 7:24สิ่งที่มนุษย์อย่างพวกเราทำมากกว่า
สิ่งที่ชิมแปนซีด้วยกันเองทำ -
7:25 - 7:28เมื่อ superintelligence ได้เกิดขึ้น
-
7:28 - 7:31ชะตาของมนุษยชาติอาจขึ้นอยู่กับสิ่งที่พวกมันทำ
-
7:32 - 7:34ลองคิดดูนะครับ
-
7:34 - 7:39ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์
ชิ้นสุดท้ายที่เราได้สร้างขึ้นมา -
7:39 - 7:42เครื่องจักรจะประดิษฐ์สิ่งต่างๆ ได้ดีกว่าเรา
-
7:42 - 7:44และพวกมันจะทำอย่างนั้น
ด้วยสเกลเวลาแบบดิจิตอล
(digital time scale) -
7:44 - 7:49ก็เหมือนกับการย่นเวลาให้อนาคตมาถึงเร็วขึ้น
-
7:49 - 7:53ลองคิดถึงทุกเทคโนโลยีบ้าๆ เท่าที่คุณจะจินตนาการได้
-
7:53 - 7:55บางทีมนุษย์อาจจะพัฒนาพวกมันได้ถ้ามีเวลามากพอ
-
7:55 - 7:59ยาชะลอความแก่ การย้ายไปอยู่ในอวกาศ
-
7:59 - 8:02หุ่นนาโนบอทที่จำลองตัวเองได้
หรือการอัพโหลดจิตใจขึ้นไปสู่คอมพิวเตอร์ -
8:02 - 8:04ทุกอย่างที่ดูเหมือนจะหลุดมาจากนิยายวิทยาศาสตร์
-
8:04 - 8:07แต่ก็ยังเป็นไปตามกฎฟิสิกส์
-
8:07 - 8:11ทุกอย่างที่พูดมานี้ superintelligence
อาจสามารถพัฒนาขึ้นมาได้ค่อนข้างรวดเร็ว -
8:12 - 8:16การที่เรามี superintelligence ที่เก่งด้านเทคโนโลยีขนาดนี้
-
8:16 - 8:18คงเป็นสิ่งที่ทรงพลังมากๆ
-
8:18 - 8:23และอย่างน้อยในบางกรณี มันคงจะได้ในสิ่งที่มันต้องการ
-
8:23 - 8:28เราก็จะมีอนาคตที่ขึ้นอยู่กับความต้องการของเอไอ
-
8:30 - 8:34คำถามก็คือ ความต้องการพวกนั้นคืออะไร?
-
8:34 - 8:36ตรงนี้เป็นส่วนที่ยุ่งยาก
-
8:36 - 8:37เพื่อที่จะคืบหน้าไปได้
-
8:37 - 8:41ก่อนอื่น เราจะต้องหลีกเลี่ยงการคิดว่าพวกนั้นจะเหมือนเรา
-
8:42 - 8:45ซึ่งมันก็ย้อนแย้ง เพราะบทความในหนังสือพิมพ์
-
8:45 - 8:49เกี่ยวกับอนาคตของเอไอ เป็นแบบนี้
-
8:50 - 8:54ดังนั้นผมเลยคิดว่าเราน่าจะต้อง
คิดในเชิงนามธรรมมากขึ้น -
8:54 - 8:57ไม่ใช่เหมือนฉากในหนังฮอลลีวู้ด
-
8:57 - 9:01เราต้องคิดถึงความฉลาดในฐานะ
กระบวนการเพิ่มประสิทธิภาพ -
9:01 - 9:06กระบวนการที่คุมให้อนาคตเป็นไปตามรูปแบบเฉพาะหนึ่งๆ
-
9:06 - 9:10Superintelligence ก็คือกระบวนการ
เพิ่มประสิทธิภาพที่แข็งแกร่งมากๆ -
9:10 - 9:14เก่งในการใช้วิธีต่างๆ เพื่อให้ได้มาซึ่ง
-
9:14 - 9:16สภาวะที่เป็นไปตามเป้าหมาย
-
9:16 - 9:19หมายความว่า มันไม่จำเป็นที่จะมีความเชื่อมโยง
-
9:19 - 9:22ระหว่างมีความฉลาดมากตามความหมายนี้
-
9:22 - 9:27กับการมีเป้าหมายที่มนุษย์อย่างเราๆ
มองว่าคุ้มค่าหรือมีความหมาย -
9:27 - 9:31สมมติว่าเราตั้งเป้าหมายให้เอไอทำให้มนุษย์ยิ้ม
-
9:31 - 9:34ถ้าเอไอยังอ่อนแอ มันอาจทำการกระทำที่มีประโยชน์
-
9:34 - 9:37และทำให้ผู้ใช้ยิ้ม
-
9:37 - 9:39แต่ถ้าเอไอกลายเป็น superintelligence
-
9:39 - 9:43มันจะรู้ว่ามีวิธีที่มีประสิทธิภาพดีกว่า
ในการบรรลุเป้าหมาย -
9:43 - 9:44คือขึ้นครองโลก
-
9:44 - 9:48แล้วติดขั้วไฟฟ้าไปที่กล้ามเนื้อบริเวณหน้าของคน
-
9:48 - 9:51เพื่อทำให้เกิดรอยยิ้มกว้างไม่เปลี่ยนแปลง
-
9:51 - 9:52ตัวอย่างต่อมานะครับ สมมติว่า
-
9:52 - 9:55เป้าหมายที่เราให้เอไอคือแก้โจทย์คณิตศาสตร์ที่ยากมาก
-
9:55 - 9:57เมื่อเอไอเป็น superintelligence
-
9:57 - 10:01มันอาจตระหนักว่าวิธีที่มีประสิทธิภาพที่สุดในการแก้โจทย์
-
10:01 - 10:04คือการเปลี่ยนดาวเคราะห์ให้กลายเป็นคอมพิวเตอร์ยักษ์
-
10:04 - 10:06เพื่อที่จะเพิ่มสมรรถนะในการคิด
-
10:06 - 10:09เห็นได้ว่าสิ่งนี้ให้เหตุผลที่เป็นเครื่องมือให้เอไอ
-
10:09 - 10:12ทำสิ่งที่เราอาจไม่เห็นชอบด้วย
-
10:12 - 10:13มนุษย์ สำหรับแบบจำลองนี้ คือภัยคุกคาม
-
10:13 - 10:16เพราะมนุษย์อาจทำให้มันไม่สามารถแก้โจทย์นั้นได้
-
10:17 - 10:21แน่นอนว่า เหตุการณ์อาจจะไม่เกิดตามนี้เป๊ะๆ
-
10:21 - 10:22นี่เป็นแค่ตัวอย่างในการ์ตูน
-
10:22 - 10:24แต่ประเด็นหลักนี้สำคัญมาก
-
10:24 - 10:27ถ้าคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
-
10:27 - 10:30เพื่อจะให้มันทำงานได้ดีที่สุดเพื่อเป้าหมาย x
-
10:30 - 10:32คุณควรทำให้มั่นใจด้วยว่าคำนิยามของ x นั้น
-
10:32 - 10:34ครอบคลุมทุกๆ อย่างที่คุณสนใจ
-
10:35 - 10:39นี่เป็นบทเรียนในตำนานหลายเรื่อง
-
10:39 - 10:45ราชาไมดาส ผู้ขอให้ทุกอย่างที่เขาแตะจะเปลี่ยนเป็นทอง
-
10:45 - 10:47เขาแตะลูกสาวของเขา เธอกลายเป็นทอง
-
10:47 - 10:50เขาแตะอาหาร มันก็กลายเป็นทอง
-
10:50 - 10:53ซึ่งนี่อาจจะเกี่ยวข้องอย่างมาก
-
10:53 - 10:55ไม่ใช่แค่ในฐานะการอุปมาถึงความโลภ
-
10:55 - 10:56แต่ในฐานะของสิ่งที่อาจจะเกิดขึ้น
-
10:56 - 10:59หากคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
-
10:59 - 11:04และให้เป้าหมายที่ไม่ชัดเจนหรืออาจถูกตีความผิดกับมัน
-
11:04 - 11:09คุณอาจจะคิดว่า "ถ้ามันเริ่มติดขั้วไฟฟ้ากับหน้าคนจริง
-
11:09 - 11:12เราก็ปิดเครื่องมันซะสิ"
-
11:13 - 11:18หนึ่ง มันอาจจะไม่ง่ายที่จะทำอย่างนั้น
ถ้าเราต้องพึ่งพาระบบนี้อีกมาก -
11:18 - 11:21เช่น... ไหนล่ะปุ่มปิดสวิตช์อินเตอร์เนต
-
11:21 - 11:26สอง ทำไมชิมแปนซีถึงไม่ปิดสวิตช์มนุษยชาติ
-
11:26 - 11:27หรือมนุษย์นีแอนเดอร์ทัล
-
11:27 - 11:30พวกมันมีเหตุผลแน่นอน
-
11:30 - 11:33พวกเรามีปุ่มปิดสวิตช์ ตัวอย่างเช่น ตรงนี้
-
11:33 - 11:34(สำลัก)
-
11:34 - 11:37เหตุผลนั้นก็คือพวกเราเป็นศัตรูที่มีความฉลาด
-
11:37 - 11:40เราเห็นถึงภัยคุกคามและวางแผนจัดการมัน
-
11:40 - 11:42เช่นเดียวกับ superintelligence ตัวนั้น
-
11:42 - 11:46และมันคงทำได้ดีกว่าเรา
-
11:46 - 11:53ประเด็นก็คือเราไม่ควรจะมั่นใจ..ว่าเราสามารถควบคุมมันได้
-
11:53 - 11:56เราอาจจะทำให้งานมันง่ายขึ้น
-
11:56 - 11:58โดยการใส่เอไอตัวนั้นในกล่อง
-
11:58 - 12:00เช่นสภาพแวดล้อมทางซอฟต์แวร์แบบปิด
-
12:00 - 12:03ระบบจำลองเสมือนจริง ที่มันหนีออกมาไม่ได้
-
12:03 - 12:07แต่เราจะมั่นใจได้แค่ไหนว่าเอไอจะหาช่องโหว่(Bug) ไม่เจอ
-
12:07 - 12:10ในเมื่อคนที่เป็นแฮกเกอร์ทั่วๆ ไปยังหาบั๊กเจอได้ตลอด
-
12:10 - 12:13สรุปคือ มั่นใจไม่ได้มากนั่นเอง
-
12:14 - 12:19เราอาจถอดสายอีเทอร์เน็ตเพื่อให้เกิดช่องว่างขึ้น
-
12:19 - 12:21แต่ก็เหมือนเดิม แฮกเกอร์ก็ยังฝ่่ามาได้เป็นประจำ
-
12:21 - 12:25โดยใช้วิศวกรรมสังคม
-
12:25 - 12:26ในขณะที่ผมกำลังพูดอยู่นี้
-
12:26 - 12:28ผมเชื่อว่า มีลูกจ้างคนนึงอยู่ซักแห่ง
-
12:28 - 12:32กำลังถูกล่อให้บอกข้อมูลของเธอ
-
12:32 - 12:35กับคนที่บอกว่าตัวเองมาจากแผนกไอที
-
12:35 - 12:37เหตุการณ์ที่แปลกกว่านี้ก็ยังเป็นไปได้
-
12:37 - 12:38เช่นถ้าคุณเป็นเอไอ
-
12:38 - 12:42คุณอาจจะหมุนขั้วไฟฟ้าในวงจรภายใน
-
12:42 - 12:45เพื่อสร้างคลื่นวิทยุ คุณจะได้สื่อสารได้
-
12:45 - 12:47หรือคุณอาจจะแกล้งทำเป็นพัง
-
12:47 - 12:51พอโปรแกรมเมอร์มาเช็กว่ามีอะไรผิดปกติ
-
12:51 - 12:53เขาก็จะดูโค้ดโปรแกรม
-
12:53 - 12:55ตู้ม! การควบคุมก็สามารถเริ่มขึ้นได้
-
12:55 - 12:59หรือมันอาจจะสร้างพิมพ์เขียวของเทคโนโลยีดีๆ
-
12:59 - 13:00แล้วพอเราสร้างตามนั้น
-
13:00 - 13:05มันก็มีผลข้างเคียงลับๆ ที่เอไอวางแผนไว้
-
13:05 - 13:08ประเด็นก็คือ เราไม่ควรมั่นใจในความสามารถของเรา
-
13:08 - 13:12ว่าจะขังยักษ์จีนี่ superintelligence ไว้ในตะเกียงตลอดไปได้
-
13:12 - 13:14ไม่ช้าก็เร็ว มันก็จะออกมาอยู่ดี
-
13:15 - 13:18ผมเชื่อว่า ทางออกก็คือ
-
13:18 - 13:23การหาวิธีสร้างเอไอ ที่ถึงแม้ว่ามันจะหนีออกมาได้
-
13:23 - 13:26มันก็ยังไม่เป็นภัย เพราะโดยเนื้อแท้แล้วมันอยู่ฝั่งเดียวกับเรา
-
13:26 - 13:28เพราะเราและมันมีความเชื่อหรือค่านิยมเหมือนกัน
-
13:28 - 13:32ผมไม่เห็นทางออกอื่นของปัญหานี้อีกแล้ว
-
13:33 - 13:36ที่จริง ผมก็ค่อนข้างมั่นใจว่าเราสามารถแก้ปัญหานี้ได้
-
13:36 - 13:40เราคงไม่ต้องนั่งลิสต์ทุกอย่างที่เราแคร์
-
13:40 - 13:44หรือแย่ไปกว่านั้น เขียนพวกมันในภาษาคอมพิวเตอร์
-
13:44 - 13:45เช่น C++ หรือ Python
-
13:45 - 13:48นั่นคงเป็นงานที่น่าสิ้นหวังเอามากๆ
-
13:48 - 13:52แต่เราจะสร้างเอไอที่ใช้ความฉลาดของมัน
-
13:52 - 13:55ไปเรียนรู้สิ่งที่เราเห็นคุณค่า
-
13:55 - 14:01ระบบแรงจูงใจของมันจะถูกสร้าง เพื่อให้มันอยากจะ
-
14:01 - 14:06เรียนรู้ค่านิยมของเรา หรือทำสิ่งที่มันคาดว่าเราจะเห็นด้วย
-
14:06 - 14:09ดังนั้น เราจะให้อำนาจความฉลาดของมันให้มากที่สุด
-
14:09 - 14:12ไปในการแก้ปัญหาเรื่องค่านิยมที่ไม่ตรงกัน
-
14:13 - 14:14สิ่งนี้สามารถเป็นไปได้
-
14:14 - 14:18และผลของมันอาจมีประโยชน์มากต่อมนุษยชาติ
-
14:18 - 14:22แต่มันจะไม่เกิดขึ้นอย่างอัตโนมัติ
-
14:22 - 14:25เงื่อนไขตั้งต้นของความก้าวหน้าในด้านนี้
-
14:25 - 14:28ต้องถูกวางแผนจัดการในทางที่ถูกต้อง
-
14:28 - 14:31หากเราต้องการให้ผลที่ออกมาควบคุมได้
-
14:31 - 14:34ค่านิยมที่เอไอมีจะต้องเทียบเท่ากับของเรา
-
14:34 - 14:36ไม่ใช่แค่ในบริบทเดิมๆ
-
14:36 - 14:38ที่เราสามารถตรวจสอบพฤติกรรมของมันได้
-
14:38 - 14:41แต่ยังรวมถึงบริบทใหม่ๆ ที่เอไออาจจะเจอ
-
14:41 - 14:43ในอนาคตอันไม่สิ้นสุด
-
14:43 - 14:48นอกจากนี้ ยังมีปัญหาเฉพาะอื่นๆ ที่จำเป็นต้องแก้
-
14:48 - 14:50รายละเอียดของทฤษฏีการตัดสินใจของมัน
-
14:50 - 14:52วิธีการรับมือกับความไม่แน่นอน และอื่นๆ
-
14:53 - 14:56ปัญหาเฉพาะทางเหล่านี้อาจจะทำให้งานนี้ดู
-
14:56 - 14:58ค่อนข้างยาก
-
14:58 - 15:01ไม่ยากถึงขนาดการสร้างเอไอทรงภูมิปัญญา
-
15:01 - 15:04แต่ก็ยากในระดับหนึ่ง
-
15:04 - 15:05นี่คือสิ่งที่น่าเป็นกังวล
-
15:05 - 15:10การสร้างเอไอทรงภูมิปัญญาเป็นความท้าทายที่ยากมากๆ
-
15:10 - 15:13การสร้างเอไอที่ทั้งทรงภูมิปัญญาและไม่เป็นภัย
-
15:13 - 15:15นั่นเป็นความท้าทายที่ยากยิ่งกว่า
-
15:16 - 15:20ความเสี่ยงคือ กรณีที่มีคนแก้ปัญหาแรกได้สำเร็จ
-
15:20 - 15:23โดยที่ยังไม่สามารถแก้ปัญหาที่สอง
-
15:23 - 15:25ซึ่งจะเป็นตัวรับประกันความปลอดภัยอย่างสมบูรณ์แบบได้
-
15:25 - 15:29ผมจึงคิดว่า เราควรจะหาทางออก
-
15:29 - 15:32ของปัญหาด้านการควบคุมล่วงหน้าไว้
-
15:32 - 15:34เพื่อที่เราจะได้เตรียมพร้อมใช้ในกรณีที่จำเป็น
-
15:35 - 15:38ซึ่งมันก็เป็นไปได้ ที่เราจะไม่สามารถ
แก้ปัญหาทั้งหมดได้ล่วงหน้า -
15:38 - 15:41เพราะบางองค์ประกอบอาจจะแก้ได้
-
15:41 - 15:45หลังจากที่เรารู้รายละเอียดของงานที่มันจะถูกใช้เท่านั้น
-
15:45 - 15:49แต่ยิ่งเราสามารถแก้ปัญหาล่วงหน้าได้มากเท่าไหร่
-
15:49 - 15:53โอกาสที่การเปลี่ยนแปลงไปสู่
ยุคปัญญาประดิษฐ์จะเป็นไปด้วยดี -
15:53 - 15:54ก็มากเท่านั้น
-
15:54 - 15:59สำหรับผมแล้ว นี่เป็นสิ่งที่คู่ควรกับการลงแรงทำ
-
15:59 - 16:02ผมจินตนาการได้เลยว่า ถ้าผลออกมาโอเค
-
16:02 - 16:07ผู้คนในอีกหนึ่งล้านปีข้างหน้ามองย้อนมาในศตวรรษนี้
-
16:07 - 16:11เขาจะพูดกันว่าสิ่งหนึ่งที่เราทำ ซึ่งสำคัญจริงๆ
-
16:11 - 16:13คือการทำให้สิ่งนี้ถูกต้อง
-
16:13 - 16:14ขอบคุณ
-
16:14 - 16:15(เสียงปรบมือ)
- Title:
- จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ฉลาดกว่าพวกเรา?
- Speaker:
- นิค บอสตรอม (เสียงหัวเราะ)
- Description:
-
ระบบปัญญาประดิษฐ์กำลังพัฒนาความฉลาดขึ้นอย่างไม่หยุดยั้ง ผลการวิจัยระบุว่า ภายในศตวรรษนี้ ระบบปัญญาประดิษฐ์จะมีความ "ฉลาด" เทียบเท่ามนุษย์ และนิค บอสตรอมได้กล่าวไว้ว่า เมื่อนั้น มันจะแซงหน้ามนุษยชาติไป "ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์สุดท้าย ที่มนุษยชาติจำเป็นต้องพัฒนาขึ้น" บอสตรอม ซึ่งเป็นทั้งนักเทคโนโลยีและนักปรัชญา ได้เรียกร้องให้พวกเราคิดอย่างจริงจังถึงโลกที่เรากำลังสร้างอยู่ในขณะนี้ โลกที่ถูกขับเคลื่อนด้วยเครื่องจักรที่คิดเป็น จักรกลอัจฉริยะเหล่านั้น จะดำรงรักษามนุษยชาติและคุณค่าต่างๆ ของพวกเราไว้ หรือมันจะสร้างคุณค่าของพวกมันเอง?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Kelwalin Dhanasarnsombut approved Thai subtitles for What happens when our computers get smarter than we are? | ||
Kelwalin Dhanasarnsombut edited Thai subtitles for What happens when our computers get smarter than we are? | ||
Kelwalin Dhanasarnsombut edited Thai subtitles for What happens when our computers get smarter than we are? | ||
Kelwalin Dhanasarnsombut edited Thai subtitles for What happens when our computers get smarter than we are? | ||
PanaEk Warawit accepted Thai subtitles for What happens when our computers get smarter than we are? | ||
PanaEk Warawit edited Thai subtitles for What happens when our computers get smarter than we are? | ||
PanaEk Warawit edited Thai subtitles for What happens when our computers get smarter than we are? | ||
Kelwalin Dhanasarnsombut rejected Thai subtitles for What happens when our computers get smarter than we are? |