ผมทำงานกับนักวิทยาศาสตร์,นักปรัชญา
และนักคอมพิวเตอร์
และเรามานั่งคิดกัน
เกี่ยวกับอนาคตสติปัญญาของจักรกล และเรื่องอื่นๆ
บางคนคิดว่าสิ่งเหล่านี้
เป็นเรื่องมาจาก นิยายวิทยาศาสตร์
ซึ่งห่างไกลจากเราและบ้า
แต่ผมอยากจะบอกว่า
เราลองมาดูถึงเงื่อนไขการใช้ชีวิต
ของมนุษย์สมัยใหม่
(เสียงหัวเราะ) นี่คือสิ่งที่ โดยปกติมันควรจะเป็น
และถ้าเราลองคิดดูดีๆ
ก็จะรู้ว่าเราเพิ่งมาอยู่อาศัยตั้งรกรากบนโลก
มนุษยชาติของเรา
ลองคิดดูว่าถ้าโลกเพิ่งเกิดเมื่อปีที่แล้ว
มนุษย์ก็จะเพิ่งเกิดเมื่อ 10 นาทีที่แล้ว
ยุคอุตสาหกรรมเพิ่งเกิดเมื่อ 2 วินาทีที่แล้ว
หรืออีกวิธีนึงคือดู GDP ของโลก
ตลอด 10000 ปี ที่ผ่านมา
ซึ่งผมมีปัญหากับการพล็อตกราฟนี้
ดูนี่สิครับ (เสียงหัวเราะ)
รูปร่างประหลาดมาก สำหรับสภาวะที่ปกติ
ผมมั่นใจว่าเราคงไม่อยากนั่งทับมันหรอก
(เสียงหัวเราะ)
ลองถามตัวเราเอง ว่าอะไรทำให้เกิดสิ่งผิดปกตินี้
บางคนบอกว่า เพราะเทคโนโลยี
ถูกสำหรับตอนนี้ เทคโนโลยีได้พัฒนามาตลอด
และตอนนี้ เทคโนโลยีได้ก้าวหน้าอย่างรวดเร็ว
นั่นเป็นสาเหตุที่ใกล้เคียง
นั่นคือเหตุผลที่ทำให้เรามีผลงานมากมายในปัจจุบัน
แต่ผมอยากให้เรากลับไปคิดถึงสาเหตุ
ที่ใหญ่กว่านั้น
กรุณาดูสุภาพบุรุษที่สุดแสนจะแตกต่างกันสองท่านนี้
ท่านแรกคือ Kanzi
เขาสามารถแยกแยะสัญลักษณ์ได้ถึง 200 แบบ
ช่างน่าทึ่ง
ท่านที่สอง Ed Witten ผู้ทำให้เกิดการปฎิวัติ superstring
ครั้งที่ 2
ถ้าเราดูกลไกที่ถูกซ่อนไว้ นี่คือสิ่งที่เราจะเจอ
โดยพื้นฐานแล้วมันคือสิ่งเดียวกัน
หนึ่งในนั้นใหญ่กว่าเล็กน้อย
มันอาจจะมีทริกบางอย่างในด้านการเชื่อมโยงของมัน
อย่างไรก็ตาม ความแตกต่างที่มองไม่เห็นเหล่านี้
ไม่น่าจะซับซ้อนมากนัก
เพราะว่ามันเพิ่งผ่านมาเพียง 250,000 รุ่น
หลังจากบรรพบุรุษที่เรามีร่วมกัน
เรารู้ว่าจักรกลที่ซับซ้อนนั้น
ใช้เวลานานในการพัฒนา
นั่นคือ การเปลี่่ยนแปลง
ที่เทียบแล้วถือว่าเล็กน้อยจำนวนหนึ่ง
ทำให้เราห่างจาก Kanzi และเข้าใกล้ Witten
จากกิ่งไม้หักๆ ไปสู่ขีปนาวุธข้ามทวีป
ค่อนข้างเห็นได้ชัดว่า ทุกอย่างที่เราสร้างขึ้น
และทุกๆ อย่างที่เราสนใจ
ขึ้นอยู่กับความเปลี่ยนแปลงแค่เพียงเล็กน้อย
ที่เกิดขึ้นในความคิดของของมนุษย์
ผลที่ตามมาก็คือ ความเปลี่ยนแปลงใดๆ หลังจากนี้
ที่สามารถเปลี่ยนพื้นฐานของความคิดไปได้
ก็อาจจะมีผลลัพธ์ที่ใหญ่หลวงตามมา
เพื่อนร่วมงานผมบางคนคิดว่า เรากำลังเข้าใกล้
อะไรบางอย่างที่ทำให้เกิด
ความเปลี่ยนแปลงครั้งใหญ่ของวิธีคิด
ซึ่งก็คือ เครื่องจักรทรงภูมิปัญญา
(Machine Superintelligence)
ปัญญาประดิษฐ์เคยเป็นแค่เรื่องของการป้อนคำสั่ง
คุณมีนักเขียนโปรแกรมเป็นมนุษย์
ที่จะคอยใส่ความรู้เข้าไปอย่างระมัดระวัง
คุณสร้างระบบผู้เชี่ยวชาญขึ้นมา
ซึ่งมันก็ค่อนข้างจะมีประโยชน์สำหรับบางเรื่อง
แต่มันก็ยังเปราะบาง
คุณไม่สามารถขยายมันออกไปอีกได้
สิ่งที่คุณได้ออกมาก็เป็นแค่สิ่งที่คุณใส่เข้าไป
ตั้งแต่ตอนนั้น
ความเปลี่ยนแปลงก็ได้เกิดขึ้น
ในสายงานปัญญาประดิษฐ์หรือเอไอ (AI)
ทุกวันนี้ เรากำลังสนใจเรื่องการเรียนรู้ของเครื่องจักร
แทนที่จะค่อยๆ ป้อนข้อมูลหรือความรู้ต่างๆ
เราสร้างขั้นตอนวิธีในการเรียน
โดยมาก ด้วยข้อมูลที่ได้จากการรับรู้
เหมือนกับสิ่งที่ทารกของมนุษย์ทำ
ผลก็คือ ระบบเอไอที่ไม่ได้ถูกจำกัดอยู่เพียงสาขาเดียว
ระบบเดียวกันสามารถเรียนรู้
ที่จะแปลระหว่างคู่ภาษาใดๆ ก็ได้
หรือเรียนที่จะเล่นเกมคอมพิวเตอร์ใดๆ ด้วย
เครื่อง Atari
แน่นอนว่า ในตอนนี้
เอไอยังห่างไกลจากความสามารถอันทรงพลัง
ในการเรียนรู้หรือวางแผนข้ามสาขาของมนุษย์
เนื้อเยื่อสมองส่วนนอกยังมีลูกเล่นบางอย่าง
ที่เรายังไม่รู้ว่า เครื่องจักรจะทำตามอย่างไร
คำถามก็คือ
เรายังห่างไกลจากการเลียนแบบลูกเล่นพวกนั้นแค่ไหน
ไม่กี่ปีที่แล้ว
เราได้ทำการสำรวจผู้เชี่ยวชาญด้านปัญญาประดิษฐ์
ชั้นนำของโลกจำนวนหนึ่ง
เพื่อที่จะดูว่าพวกเขาคิดอย่างไร
และหนึ่งในคำถามของเราก็คือ
ปีไหนที่คุณคิดว่าเรามีโอกาส 50%
ที่จะสร้างเครื่องจักรที่มีสติปัญญาระดับมนุษย์
เรานิยาม "ระดับมนุษย์" ว่าความสามารถที่จะทำ
งานเกือบทุกอย่างได้ดีเทียบเท่ากับมนุษย์ผู้ใหญ่เป็นอย่างน้อย
นั่นคือระดับมนุษย์จริงๆ ไม่ใช่แค่จำกัดอยู่ภายในสาขาเดียว
คำตอบกลางๆ อยู่ในช่วง 2040-2050
ขึ้นอยู่กับว่าเราถามผู้เชี่ยวชาญกลุ่มไหน
แต่มันก็อาจจะเกิดขึ้นหลังจากนั้น หรือก่อนหน้านั้น
ความจริงก็คือ ไม่มีใครรู้หรอก
แต่สิ่งที่เรารู้แน่ๆ ก็คือข้อจำกัดในการประมวลข้อมูล
ของเครื่องจักรนั้น
อยู่นอกเหนือข้อจำกัดของเนื้อเยื่อชีวภาพ
มันกลับมาที่ฟิสิกส์
เซลล์ประสาทนั้นอาจจะส่งสัญญาณ
ด้วยความถี่ 200 เฮิร์ตซ์ หรือ 200 ครั้งต่อวินาที
แต่ในปัจจุบัน แม้กระทั่งทรานซิสเตอร์
ยังทำงานด้วยความถี่ระดับพันล้านเฮิร์ตซ์
สัญญาณเดินทางอย่างเชื่องช้าในแอกซอน
100 เมตรต่อวินาทีเป็นอย่างมาก
แต่ในคอมพิวเตอร์ สัญญาณเดินทางเท่าความเร็วแสง
นอกจากนี้ยังมีข้อจำกัดด้านขนาด
เหมือนกับที่สมองมนุษย์ต้องบรรจุในกะโหลกได้
แต่คอมพิวเตอร์อาจมีขนาดใหญ่เท่าโกดัง หรือกว่าน้้น
แสดงว่าศักยภาพของ superintelligence ยังคงหลบซ่อนอยู่
คล้ายๆ กับพลังของอะตอม ที่ไม่มีใครรู้ในอดีต
รอคอยให้ถูกค้นพบ ในปี 1945
ในศตวรรษนี้ นักวิทยศาสตร์อาจเรียนรู้ที่จะ
ปลุกพลังของปัญญาประดิษฐ์
ซึ่งผมก็คิดว่า เราอาจจะได้เห็นการเปลี่ยนแปลงครั้งใหญ่ในด้านนี้
สำหรับคนทั่วไป เมื่อคิดว่าอะไรฉลาดหรือโง่
ผมว่าเขามีภาพคร่าวๆ ในใจอย่างนี้ครับ
ปลายด้านนึงเรามีภาพคนซื่อบื้อบ้านนอกๆ
ส่วนด้านนู้น ของอีกฝั่งนึง
เราก็มี Ed Witten หรือ Albert Einstein
หรืออัจฉริยะสุดโปรดคนไหนก็ตาม
แต่ผมคิดว่า หากมองในมุมของปัญญาประดิษฐ์
ภาพจริงๆ อาจจะใกล้เคียงกับแบบนี้มากกว่าครับ
เอไอเริ่มจากจุดนี้ มีความฉลาดเป็นศูนย์
หลังจากการทำงานหนักหลายๆ ปี
สุดท้าย เราอาจจะเลื่อนขั้นไปสู่ความฉลาดระดับหนู
บางอย่างที่สามารถหาทางเดิน
รอบๆสิ่งแวดล้อมที่ยุ่งเหยิง
ได้ดีพอๆกับหนู
หลังจากนั้น ก็ต้องทำงานหนักอีกหลายปี
และการลงทุนจำนวนมาก
สุดท้าย เราอาจจะไปถึงความฉลาดระดับชิมแปนซี
จากนั้นก็ทำงานต่ออีกนาน
เราอาจจะเลื่อนระดับไปสู่คนซื่อบื้อบ้านนอก
แล้วอีกแป๊ปเดียวหลังจากนั้น
เราก็จะนำหน้า Ed Witten ไปแล้ว
รถไฟไม่ได้หยุดวิ่งที่สถานีหมู่บ้านมนุษย์
แต่มันน่าจะวิ่งหวือผ่านไปเลยมากกว่า
ซึ่งนี่ มีนัยยะที่ลึกซึ้ง
โดยเฉพาะเมื่อมันเกี่ยวกับคำถามเรื่องพลัง
ตัวอย่างเช่น ชิมแปนซีนั้นแข็งแรง
เทียบกันแล้ว อาจจะแกร่งเป็นสองเท่า
ของมนุษย์ผู้ชายที่แข็งแรง
แต่ถึงอย่างนั้น ชะตาของ Kanzi
และพวกพ้องกลับขึ้นอยู่กับ
สิ่งที่มนุษย์อย่างพวกเราทำมากกว่า
สิ่งที่ชิมแปนซีด้วยกันเองทำ
เมื่อ superintelligence ได้เกิดขึ้น
ชะตาของมนุษยชาติอาจขึ้นอยู่กับสิ่งที่พวกมันทำ
ลองคิดดูนะครับ
ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์
ชิ้นสุดท้ายที่เราได้สร้างขึ้นมา
เครื่องจักรจะประดิษฐ์สิ่งต่างๆ ได้ดีกว่าเรา
และพวกมันจะทำอย่างนั้น
ด้วยสเกลเวลาแบบดิจิตอล
(digital time scale)
ก็เหมือนกับการย่นเวลาให้อนาคตมาถึงเร็วขึ้น
ลองคิดถึงทุกเทคโนโลยีบ้าๆ เท่าที่คุณจะจินตนาการได้
บางทีมนุษย์อาจจะพัฒนาพวกมันได้ถ้ามีเวลามากพอ
ยาชะลอความแก่ การย้ายไปอยู่ในอวกาศ
หุ่นนาโนบอทที่จำลองตัวเองได้
หรือการอัพโหลดจิตใจขึ้นไปสู่คอมพิวเตอร์
ทุกอย่างที่ดูเหมือนจะหลุดมาจากนิยายวิทยาศาสตร์
แต่ก็ยังเป็นไปตามกฎฟิสิกส์
ทุกอย่างที่พูดมานี้ superintelligence
อาจสามารถพัฒนาขึ้นมาได้ค่อนข้างรวดเร็ว
การที่เรามี superintelligence ที่เก่งด้านเทคโนโลยีขนาดนี้
คงเป็นสิ่งที่ทรงพลังมากๆ
และอย่างน้อยในบางกรณี มันคงจะได้ในสิ่งที่มันต้องการ
เราก็จะมีอนาคตที่ขึ้นอยู่กับความต้องการของเอไอ
คำถามก็คือ ความต้องการพวกนั้นคืออะไร?
ตรงนี้เป็นส่วนที่ยุ่งยาก
เพื่อที่จะคืบหน้าไปได้
ก่อนอื่น เราจะต้องหลีกเลี่ยงการคิดว่าพวกนั้นจะเหมือนเรา
ซึ่งมันก็ย้อนแย้ง เพราะบทความในหนังสือพิมพ์
เกี่ยวกับอนาคตของเอไอ เป็นแบบนี้
ดังนั้นผมเลยคิดว่าเราน่าจะต้อง
คิดในเชิงนามธรรมมากขึ้น
ไม่ใช่เหมือนฉากในหนังฮอลลีวู้ด
เราต้องคิดถึงความฉลาดในฐานะ
กระบวนการเพิ่มประสิทธิภาพ
กระบวนการที่คุมให้อนาคตเป็นไปตามรูปแบบเฉพาะหนึ่งๆ
Superintelligence ก็คือกระบวนการ
เพิ่มประสิทธิภาพที่แข็งแกร่งมากๆ
เก่งในการใช้วิธีต่างๆ เพื่อให้ได้มาซึ่ง
สภาวะที่เป็นไปตามเป้าหมาย
หมายความว่า มันไม่จำเป็นที่จะมีความเชื่อมโยง
ระหว่างมีความฉลาดมากตามความหมายนี้
กับการมีเป้าหมายที่มนุษย์อย่างเราๆ
มองว่าคุ้มค่าหรือมีความหมาย
สมมติว่าเราตั้งเป้าหมายให้เอไอทำให้มนุษย์ยิ้ม
ถ้าเอไอยังอ่อนแอ มันอาจทำการกระทำที่มีประโยชน์
และทำให้ผู้ใช้ยิ้ม
แต่ถ้าเอไอกลายเป็น superintelligence
มันจะรู้ว่ามีวิธีที่มีประสิทธิภาพดีกว่า
ในการบรรลุเป้าหมาย
คือขึ้นครองโลก
แล้วติดขั้วไฟฟ้าไปที่กล้ามเนื้อบริเวณหน้าของคน
เพื่อทำให้เกิดรอยยิ้มกว้างไม่เปลี่ยนแปลง
ตัวอย่างต่อมานะครับ สมมติว่า
เป้าหมายที่เราให้เอไอคือแก้โจทย์คณิตศาสตร์ที่ยากมาก
เมื่อเอไอเป็น superintelligence
มันอาจตระหนักว่าวิธีที่มีประสิทธิภาพที่สุดในการแก้โจทย์
คือการเปลี่ยนดาวเคราะห์ให้กลายเป็นคอมพิวเตอร์ยักษ์
เพื่อที่จะเพิ่มสมรรถนะในการคิด
เห็นได้ว่าสิ่งนี้ให้เหตุผลที่เป็นเครื่องมือให้เอไอ
ทำสิ่งที่เราอาจไม่เห็นชอบด้วย
มนุษย์ สำหรับแบบจำลองนี้ คือภัยคุกคาม
เพราะมนุษย์อาจทำให้มันไม่สามารถแก้โจทย์นั้นได้
แน่นอนว่า เหตุการณ์อาจจะไม่เกิดตามนี้เป๊ะๆ
นี่เป็นแค่ตัวอย่างในการ์ตูน
แต่ประเด็นหลักนี้สำคัญมาก
ถ้าคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
เพื่อจะให้มันทำงานได้ดีที่สุดเพื่อเป้าหมาย x
คุณควรทำให้มั่นใจด้วยว่าคำนิยามของ x นั้น
ครอบคลุมทุกๆ อย่างที่คุณสนใจ
นี่เป็นบทเรียนในตำนานหลายเรื่อง
ราชาไมดาส ผู้ขอให้ทุกอย่างที่เขาแตะจะเปลี่ยนเป็นทอง
เขาแตะลูกสาวของเขา เธอกลายเป็นทอง
เขาแตะอาหาร มันก็กลายเป็นทอง
ซึ่งนี่อาจจะเกี่ยวข้องอย่างมาก
ไม่ใช่แค่ในฐานะการอุปมาถึงความโลภ
แต่ในฐานะของสิ่งที่อาจจะเกิดขึ้น
หากคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
และให้เป้าหมายที่ไม่ชัดเจนหรืออาจถูกตีความผิดกับมัน
คุณอาจจะคิดว่า "ถ้ามันเริ่มติดขั้วไฟฟ้ากับหน้าคนจริง
เราก็ปิดเครื่องมันซะสิ"
หนึ่ง มันอาจจะไม่ง่ายที่จะทำอย่างนั้น
ถ้าเราต้องพึ่งพาระบบนี้อีกมาก
เช่น... ไหนล่ะปุ่มปิดสวิตช์อินเตอร์เนต
สอง ทำไมชิมแปนซีถึงไม่ปิดสวิตช์มนุษยชาติ
หรือมนุษย์นีแอนเดอร์ทัล
พวกมันมีเหตุผลแน่นอน
พวกเรามีปุ่มปิดสวิตช์ ตัวอย่างเช่น ตรงนี้
(สำลัก)
เหตุผลนั้นก็คือพวกเราเป็นศัตรูที่มีความฉลาด
เราเห็นถึงภัยคุกคามและวางแผนจัดการมัน
เช่นเดียวกับ superintelligence ตัวนั้น
และมันคงทำได้ดีกว่าเรา
ประเด็นก็คือเราไม่ควรจะมั่นใจ..ว่าเราสามารถควบคุมมันได้
เราอาจจะทำให้งานมันง่ายขึ้น
โดยการใส่เอไอตัวนั้นในกล่อง
เช่นสภาพแวดล้อมทางซอฟต์แวร์แบบปิด
ระบบจำลองเสมือนจริง ที่มันหนีออกมาไม่ได้
แต่เราจะมั่นใจได้แค่ไหนว่าเอไอจะหาช่องโหว่(Bug) ไม่เจอ
ในเมื่อคนที่เป็นแฮกเกอร์ทั่วๆ ไปยังหาบั๊กเจอได้ตลอด
สรุปคือ มั่นใจไม่ได้มากนั่นเอง
เราอาจถอดสายอีเทอร์เน็ตเพื่อให้เกิดช่องว่างขึ้น
แต่ก็เหมือนเดิม แฮกเกอร์ก็ยังฝ่่ามาได้เป็นประจำ
โดยใช้วิศวกรรมสังคม
ในขณะที่ผมกำลังพูดอยู่นี้
ผมเชื่อว่า มีลูกจ้างคนนึงอยู่ซักแห่ง
กำลังถูกล่อให้บอกข้อมูลของเธอ
กับคนที่บอกว่าตัวเองมาจากแผนกไอที
เหตุการณ์ที่แปลกกว่านี้ก็ยังเป็นไปได้
เช่นถ้าคุณเป็นเอไอ
คุณอาจจะหมุนขั้วไฟฟ้าในวงจรภายใน
เพื่อสร้างคลื่นวิทยุ คุณจะได้สื่อสารได้
หรือคุณอาจจะแกล้งทำเป็นพัง
พอโปรแกรมเมอร์มาเช็กว่ามีอะไรผิดปกติ
เขาก็จะดูโค้ดโปรแกรม
ตู้ม! การควบคุมก็สามารถเริ่มขึ้นได้
หรือมันอาจจะสร้างพิมพ์เขียวของเทคโนโลยีดีๆ
แล้วพอเราสร้างตามนั้น
มันก็มีผลข้างเคียงลับๆ ที่เอไอวางแผนไว้
ประเด็นก็คือ เราไม่ควรมั่นใจในความสามารถของเรา
ว่าจะขังยักษ์จีนี่ superintelligence ไว้ในตะเกียงตลอดไปได้
ไม่ช้าก็เร็ว มันก็จะออกมาอยู่ดี
ผมเชื่อว่า ทางออกก็คือ
การหาวิธีสร้างเอไอ ที่ถึงแม้ว่ามันจะหนีออกมาได้
มันก็ยังไม่เป็นภัย เพราะโดยเนื้อแท้แล้วมันอยู่ฝั่งเดียวกับเรา
เพราะเราและมันมีความเชื่อหรือค่านิยมเหมือนกัน
ผมไม่เห็นทางออกอื่นของปัญหานี้อีกแล้ว
ที่จริง ผมก็ค่อนข้างมั่นใจว่าเราสามารถแก้ปัญหานี้ได้
เราคงไม่ต้องนั่งลิสต์ทุกอย่างที่เราแคร์
หรือแย่ไปกว่านั้น เขียนพวกมันในภาษาคอมพิวเตอร์
เช่น C++ หรือ Python
นั่นคงเป็นงานที่น่าสิ้นหวังเอามากๆ
แต่เราจะสร้างเอไอที่ใช้ความฉลาดของมัน
ไปเรียนรู้สิ่งที่เราเห็นคุณค่า
ระบบแรงจูงใจของมันจะถูกสร้าง เพื่อให้มันอยากจะ
เรียนรู้ค่านิยมของเรา หรือทำสิ่งที่มันคาดว่าเราจะเห็นด้วย
ดังนั้น เราจะให้อำนาจความฉลาดของมันให้มากที่สุด
ไปในการแก้ปัญหาเรื่องค่านิยมที่ไม่ตรงกัน
สิ่งนี้สามารถเป็นไปได้
และผลของมันอาจมีประโยชน์มากต่อมนุษยชาติ
แต่มันจะไม่เกิดขึ้นอย่างอัตโนมัติ
เงื่อนไขตั้งต้นของความก้าวหน้าในด้านนี้
ต้องถูกวางแผนจัดการในทางที่ถูกต้อง
หากเราต้องการให้ผลที่ออกมาควบคุมได้
ค่านิยมที่เอไอมีจะต้องเทียบเท่ากับของเรา
ไม่ใช่แค่ในบริบทเดิมๆ
ที่เราสามารถตรวจสอบพฤติกรรมของมันได้
แต่ยังรวมถึงบริบทใหม่ๆ ที่เอไออาจจะเจอ
ในอนาคตอันไม่สิ้นสุด
นอกจากนี้ ยังมีปัญหาเฉพาะอื่นๆ ที่จำเป็นต้องแก้
รายละเอียดของทฤษฏีการตัดสินใจของมัน
วิธีการรับมือกับความไม่แน่นอน และอื่นๆ
ปัญหาเฉพาะทางเหล่านี้อาจจะทำให้งานนี้ดู
ค่อนข้างยาก
ไม่ยากถึงขนาดการสร้างเอไอทรงภูมิปัญญา
แต่ก็ยากในระดับหนึ่ง
นี่คือสิ่งที่น่าเป็นกังวล
การสร้างเอไอทรงภูมิปัญญาเป็นความท้าทายที่ยากมากๆ
การสร้างเอไอที่ทั้งทรงภูมิปัญญาและไม่เป็นภัย
นั่นเป็นความท้าทายที่ยากยิ่งกว่า
ความเสี่ยงคือ กรณีที่มีคนแก้ปัญหาแรกได้สำเร็จ
โดยที่ยังไม่สามารถแก้ปัญหาที่สอง
ซึ่งจะเป็นตัวรับประกันความปลอดภัยอย่างสมบูรณ์แบบได้
ผมจึงคิดว่า เราควรจะหาทางออก
ของปัญหาด้านการควบคุมล่วงหน้าไว้
เพื่อที่เราจะได้เตรียมพร้อมใช้ในกรณีที่จำเป็น
ซึ่งมันก็เป็นไปได้ ที่เราจะไม่สามารถ
แก้ปัญหาทั้งหมดได้ล่วงหน้า
เพราะบางองค์ประกอบอาจจะแก้ได้
หลังจากที่เรารู้รายละเอียดของงานที่มันจะถูกใช้เท่านั้น
แต่ยิ่งเราสามารถแก้ปัญหาล่วงหน้าได้มากเท่าไหร่
โอกาสที่การเปลี่ยนแปลงไปสู่
ยุคปัญญาประดิษฐ์จะเป็นไปด้วยดี
ก็มากเท่านั้น
สำหรับผมแล้ว นี่เป็นสิ่งที่คู่ควรกับการลงแรงทำ
ผมจินตนาการได้เลยว่า ถ้าผลออกมาโอเค
ผู้คนในอีกหนึ่งล้านปีข้างหน้ามองย้อนมาในศตวรรษนี้
เขาจะพูดกันว่าสิ่งหนึ่งที่เราทำ ซึ่งสำคัญจริงๆ
คือการทำให้สิ่งนี้ถูกต้อง
ขอบคุณ
(เสียงปรบมือ)