0:00:01.000,0:00:03.216 ผมจะพูดถึงความล้มเหลว[br]ของการหยั่งรู้โดยสัญชาตญาณ 0:00:03.240,0:00:04.840 ซึ่งพวกเราหลายคนประสบอยู่ 0:00:05.480,0:00:08.520 แท้จริงแล้ว มันเป็นความล้มเหลว[br]ของการสัมผัสได้ถึงอันตรายบางอย่าง 0:00:09.360,0:00:11.096 ผมกำลังจะอธิบายสถานการณ์หนึ่ง 0:00:11.120,0:00:14.376 ที่ผมคิดว่ามันทั้งน่าสะพรึงกลัว 0:00:14.400,0:00:16.160 และก็น่าจะเกิดขึ้นได้ 0:00:16.840,0:00:18.496 และนั่นไม่ใช่ส่วนผสมที่ดีเลย 0:00:18.520,0:00:20.056 ดังที่ปรากฎออกมา 0:00:20.080,0:00:22.536 แต่แทนที่จะกลัว [br]ท่านทั้งหลายส่วนใหญ่จะรู้สึกว่า 0:00:22.560,0:00:24.910 สิ่งที่ผมกำลังจะพูดถึงนั้น [br]เป็นอะไรที่ดูเจ๋ง 0:00:25.200,0:00:28.176 ผมกำลังจะอธิบายให้ฟังว่า[br]ผลประโยชน์ที่เราได้รับ 0:00:28.200,0:00:29.976 จากปัญญาประดิษฐ์ 0:00:30.000,0:00:31.776 ในที่สุดแล้วอาจทำลายเราได้อย่างไร 0:00:31.800,0:00:34.760 และที่จริง ผมว่ามันยากมาก[br]ที่จะเข้าใจว่าพวกมันจะไม่ทำลายเรา 0:00:34.760,0:00:37.230 หรือไม่ดลใจให้เรา[br]ทำลายตัวเองได้อย่างไร 0:00:37.400,0:00:39.256 ถ้าหากว่าคุณเป็นอย่างผม 0:00:39.280,0:00:41.936 คุณจะพบว่ามันสนุกดี[br]ที่จะคิดถึงเรื่องเหล่านี้ 0:00:41.960,0:00:45.336 และการตอบสนองนั้น[br]ก็เป็นส่วนหนึ่งของปัญหา 0:00:45.360,0:00:47.740 ใช่ไหมครับ การตอบรับนั้น[br]น่าจะทำให้คุณกังวลใจ 0:00:47.920,0:00:50.576 ถ้าในการบรรยายนี้[br]ผมต้องการโน้มน้าวคุณให้เชื่อว่า 0:00:50.600,0:00:54.016 เราน่าจะต้องประสบกับความทุกข์ยาก[br]จากความอดอยากไปทั่วโลก 0:00:54.040,0:00:57.096 ไม่ว่าจะเป็นเพราะการเปลี่ยนแปลง[br]สภาวะอากาศ หรือหายนะอย่างอื่น 0:00:57.120,0:01:00.536 และลูกหลานของพวกคุณ[br]หรือของลูกหลานของพวกเขา 0:01:00.560,0:01:02.360 อาจจะต้องมีความเป็นอยู่แบบนี้ 0:01:03.200,0:01:04.870 คุณคงจะไม่คิดหรอกว่า 0:01:05.440,0:01:06.776 "น่าสนใจนะ 0:01:06.800,0:01:08.000 ฉันชอบ TED Talk เรื่องนี้" 0:01:09.200,0:01:11.450 ความอดอยากนั้นไม่น่าสนุก 0:01:11.800,0:01:15.176 ในขณะที่ ความตาย[br]ในนวนิยายวิทยาศาสตร์เป็นเรื่องสนุก 0:01:15.200,0:01:18.760 สิ่งหนึ่งที่ทำให้ผมกังวลที่สุดเกี่ยวกับ[br]การพัฒนาปัญญาประดิษฐ์ขึ้นมา ณ ตอนนี้ 0:01:18.760,0:01:23.296 ก็คือ ดูเหมือนว่าเราไม่สามารถสร้าง[br]การตอบสนองทางอารมณ์ที่เหมาะสม 0:01:23.320,0:01:25.136 ต่ออันตรายที่อยู่เบื้องหน้าได้ 0:01:25.160,0:01:28.890 ผมเองก็ไม่สามารถที่จะปลุกการตอบสนองนี้ได้[br]ผมจึงต้องมาพูดเรื่องนี้ 0:01:30.120,0:01:32.816 มันเหมือนกับว่า [br]เรายืนอยู่ข้างหน้าประตูสองบาน 0:01:32.840,0:01:34.096 ด้านหลังประตูหมายเลขหนึ่ง 0:01:34.120,0:01:37.416 เราหยุดที่จะก้าวหน้าต่อไป[br]ในการสร้างจักรกลที่ชาญฉลาด 0:01:37.440,0:01:41.456 คอมพิวเตอร์ฮาร์ดแวร์และซอฟแวร์[br]ต่างหยุดพัฒนา ด้วยเหตุผลบางอย่าง 0:01:41.480,0:01:44.850 ลองใช้เวลาสักครู่เพื่อพิจารณานะครับ[br]ว่าทำไมเรื่องแบบนี้อาจจะเกิดขึ้นได้ 0:01:44.850,0:01:48.736 ผมหมายความว่า ด้วยคุณค่าของ[br]ความฉลาดและความเป็นอัตโนมัตินั้น 0:01:48.760,0:01:52.280 เราจะยังคงพัฒนาเทคโนโลยีของเราต่อไป[br]หากเรายังสามารถทำได้ 0:01:53.200,0:01:55.687 อะไรล่ะจะหยุดเราไม่ไห้ทำสิ่งนี้ 0:01:55.800,0:01:57.600 สงครามนิวเคลียร์เต็มรูปแบบหรือ 0:01:59.000,0:02:00.560 โรคที่ระบาดไปทั่วโลกหรือ 0:02:02.320,0:02:04.330 ดาวเคราะห์น้อยมาชนโลกหรือ 0:02:05.640,0:02:08.476 จัสติน บีเบอร์ [br]มาเป็นประธานาธิบดีของสหรัฐหรือ 0:02:08.476,0:02:10.520 (เสียงหัวเราะ) 0:02:12.760,0:02:16.680 ประเด็นก็คือ บางสิ่งบางอย่างจะต้อง[br]มาทำลายอารยธรรมที่เรารู้จัก 0:02:17.360,0:02:21.656 คุณจะต้องจินตนาการเองว่า[br]มันจะแย่ขนาดไหน 0:02:21.680,0:02:25.016 ที่จะมากีดกันเราจากการ[br]ปรับปรุงเทคโนโลยีของเราให้ดีขึ้น 0:02:25.040,0:02:26.256 อย่างถาวร 0:02:26.280,0:02:28.296 ที่เกิดขึ้นยุคแล้วยุคเล่า 0:02:28.320,0:02:30.456 เกือบจะเรียกได้ว่า[br]นี่คือสิ่งเลวร้ายที่สุด 0:02:30.480,0:02:32.496 ที่ได้เคยเกิดขึ้น[br]ในประวัติศาสตร์มนุษยชาติ 0:02:32.520,0:02:33.816 ฉะนั้นตัวเลือกเดียวที่เหลือ 0:02:33.840,0:02:36.176 และนั่นคือสิ่งที่อยู่ด้านหลัง[br]ประตูหมายเลขสอง 0:02:36.200,0:02:39.336 ก็คือ เรายังคงปรับปรุงจักรกลที่ฉลาด[br]ของเรานี้ให้ดีขึ้นต่อไป 0:02:39.360,0:02:41.410 ปีแล้วปีเล่า 0:02:41.720,0:02:45.360 จนเมื่อถึงจุดหนึ่ง[br]เราก็จะสร้างจักรกลที่ฉลาดกว่าเรา 0:02:46.080,0:02:48.450 และเมื่อเรามีจักรกล[br]ที่ฉลาดกว่าเราแล้ว 0:02:48.450,0:02:50.660 มันก็จะเริ่มต้นปรับปรุงตัวมันเองให้ดีขึ้น 0:02:50.660,0:02:53.456 แล้วเราก็จะเสี่ยงกับ[br]สิ่งที่นักคณิตศาสตร์ ไอเจ กูด เรียกว่า 0:02:53.480,0:02:55.256 "การระเบิดของความชาญฉลาด" 0:02:55.280,0:02:57.470 กระบวนการที่ซึ่งมนุษย์[br]ไม่สามารถควบคุมมันได้ 0:02:58.000,0:03:00.936 เรื่องนี้มักจะถูกทำเป็นการ์ตูนล้อเลียน[br]อย่างที่แสดงให้ดูตรงนี้ 0:03:00.960,0:03:04.176 เป็นความกลัวที่ทหารหุ่นยนต์ที่มุ่งร้าย 0:03:04.200,0:03:05.456 จะเข้ามาโจมตีทำร้ายเรา 0:03:05.480,0:03:08.176 แต่นั่นไม่ใช่สถานการณ์[br]ที่น่าจะเป็นไปได้มากที่สุด 0:03:08.200,0:03:13.056 ไม่ใช่ว่าจักรกลของเรา[br]จะกลายเป็นภัยอันตรายขึ้นมาเอง 0:03:13.080,0:03:15.696 ความกังวลจริง ๆ ก็คือ [br]เราจะสร้างจักรกล 0:03:15.720,0:03:17.776 ที่มีความสามารถที่สูงกว่าเรามาก ๆ 0:03:17.800,0:03:21.576 ที่ความแตกต่างเพียงเล็กน้อยระหว่าง[br]เป้าหมายของมันกับของเราเอง 0:03:21.600,0:03:22.800 ก็อาจจะทำลายเราได้ 0:03:23.960,0:03:26.040 ลองแค่คิดดูว่า [br]เรามีสัมพันธ์กับมดอย่างไร 0:03:26.600,0:03:28.256 เราไม่ได้เกลียดพวกมัน 0:03:28.280,0:03:30.336 เราไม่ได้ยอมลำบาก[br]ใช้ความพยายามไปทำร้ายมัน 0:03:30.360,0:03:32.736 อันที่จริง บางครั้งเราต้องอดกลั้น[br]ที่จะไม่ทำร้ายมัน 0:03:32.760,0:03:34.776 เราก้าวข้ามพวกมันไปบนทางเดิน 0:03:34.800,0:03:36.936 แต่เมื่อใดก็ตามที่การปรากฏอยู่ของมัน 0:03:36.960,0:03:39.456 ขัดแย้งอย่างรุนแรง[br]กับเป้าหมายอย่างหนึ่งของเรา 0:03:39.480,0:03:41.957 ยกตัวอย่าง เมื่อก่อสร้างอาคาร [br]เช่น อาคารนี้ 0:03:41.981,0:03:43.941 เราทำลายล้างพวกมันได้อย่างสบายใจ 0:03:44.480,0:03:47.416 ความวิตกกังวลก็คือสักวันหนึ่ง[br]เราจะสร้างจักรกล 0:03:47.440,0:03:50.176 ที่ไม่ว่าพวกมันจะมีความคิด[br]อย่างมีสติหรือไม่ก็ตาม 0:03:50.200,0:03:52.780 จะทำกับเราได้อย่างเฉยเมย[br]ในแบบเดียวกัน 0:03:53.760,0:03:56.890 ครับ ผมเข้าใจว่า สิ่งนี้ดูจะไกลจากความจริง[br]สำหรับหลาย ๆ ท่าน 0:03:57.360,0:04:03.350 ผมมั่นใจว่ายังมีคนไม่เชื่อว่า[br]ปัญญาประดิษฐ์ยอดอัจฉริยะจะเกิดขึ้นได้จริง 0:04:03.350,0:04:05.646 หรือไม่เชื่อว่ามันหลีกเลี่ยงไม่ได้ 0:04:05.646,0:04:09.020 แต่คุณจะพบว่ามีบางอย่างที่ไม่ถูกต้อง[br]ในสมมติฐานเบื้องต้นต่อไปนี้ 0:04:09.044,0:04:10.616 ซึ่งก็มีเพียงสามอย่างเท่านั้น 0:04:11.800,0:04:16.519 หนึ่งคือ ความฉลาดเป็นเรื่องของการ[br]ประมวลข้อมูลในระบบทางกายภาพ 0:04:16.930,0:04:19.899 แต่จริง ๆ แล้ว ข้อนี้มัน[br]มากกว่าสมมติฐานเบื้องต้นสักหน่อย 0:04:19.899,0:04:23.416 เราใส่ความฉลาดในขอบเขตแคบ ๆ [br]ไว้ในจักรกลของเราเรียบร้อยแล้ว 0:04:23.440,0:04:25.456 และจักรกลมากมายเหล่านี้ก็ทำงาน 0:04:25.480,0:04:28.120 ด้วยความฉลาดระดับเหนือมนุษย์อยู่แล้ว 0:04:28.840,0:04:31.416 และเราก็รู้ว่า แค่มีความฉลาดระดับนั้น 0:04:31.440,0:04:34.056 ก็ทำให้เกิดสิ่งที่เรียกว่า[br]"ความฉลาดทั่วไป" 0:04:34.080,0:04:37.736 ซึ่งเป็นความสามารถที่จะคิด[br]ได้อย่างยืดหยุ่นในหลาย ๆ ด้าน 0:04:37.760,0:04:40.896 ก็เพราะว่าสมองของเรานั้น [br]ก็สามารถทำได้ ใช่ไหมล่ะครับ 0:04:40.920,0:04:44.856 ผมหมายความว่า [br]มันก็แค่อะตอมในนี้ 0:04:44.880,0:04:49.376 และตราบใดที่เรายังคงสร้าง[br]ระบบของอะตอม 0:04:49.400,0:04:52.096 ที่แสดงพฤติกรรมชาญฉลาด[br]มากขึ้นและมากขึ้น 0:04:52.120,0:04:54.656 ในที่สุดถ้าเราไม่ถูกขัดขวาง 0:04:54.680,0:04:58.056 เราก็จะสร้างความฉลาดทั่วไป 0:04:58.080,0:04:59.376 เอาไว้ในจักรกลของเรา 0:04:59.400,0:05:03.056 มันจำเป็นมากที่ต้องตระหนักว่า[br]อัตราความก้าวหน้านั้นไม่สำคัญ 0:05:03.080,0:05:06.256 เพราะความก้าวหน้าใด ๆ ก็ตาม[br]ก็เพียงพอที่จะพาเราเข้าสู่ช่วงสุดท้าย 0:05:06.280,0:05:10.056 ไม่จำเป็นต้องดำเนินไปตามกฎของมอร์ [br]ไม่จำเป็นต้องก้าวหน้าไปแบบยกกำลัง 0:05:10.080,0:05:12.290 เราแค่ต้องก้าวหน้าต่อไปเรื่อย ๆ[br]เท่านั้นเอง 0:05:13.480,0:05:16.720 สมมติฐานเบื้องต้นข้อที่สอง [br]คือเราจะก้าวหน้าต่อไปเรื่อย ๆ 0:05:17.000,0:05:19.760 เราจะยังคงปรับปรุงจักรกล[br]ที่ชาญฉลาดของเราต่อไป 0:05:21.000,0:05:25.376 และด้วยคุณค่าของความฉลาด -- 0:05:25.400,0:05:28.920 ผมหมายถึงว่า ไม่ว่าความฉลาด[br]จะเป็นทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า 0:05:28.920,0:05:31.836 หรือเราต้องใช้มันเพื่อปกป้อง[br]ทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า 0:05:31.836,0:05:34.016 มันก็เป็นสิ่งที่มีคุณค่าที่สุดของเรา 0:05:34.040,0:05:35.576 ฉะนั้น เราจึงต้องการทำสิ่งนี้ 0:05:35.600,0:05:38.936 เรามีปัญหา[br]ที่เราจำเป็นต้องแก้ไขอย่างเร่งด่วน 0:05:38.960,0:05:42.160 เราต้องการรักษาโรค [br]อย่างเช่น อัลไซเมอร์และมะเร็ง 0:05:42.960,0:05:46.896 เราต้องการเข้าใจระบบเศรษฐกิจ[br]เราต้องการปรับปรุงศาสตร์ภูมิอากาศวิทยา 0:05:46.920,0:05:49.176 เราจึงต้องทำสิ่งนี้ [br]หากเราสามารถทำได้ 0:05:49.200,0:05:52.486 รถไฟได้ออกจากสถานีไปแล้ว[br]และไม่มีเบรคที่จะดึงมันไว้ได้ 0:05:53.880,0:05:59.336 ข้อสุดท้าย เราไม่ได้ยืนอยู่[br]บนจุดสูงสุดของความฉลาด 0:05:59.360,0:06:01.430 ไม่แม้แต่จะใกล้เคียง 0:06:01.430,0:06:03.516 นี่เป็นความเข้าใจที่สำคัญยิ่ง 0:06:03.516,0:06:05.996 นี่แหละที่ทำให้สถานการณ์ของเรา[br]ล่อแหลมต่ออันตรายยิ่ง 0:06:06.000,0:06:10.040 และนี่แหละที่ทำให้สัญชาตญาณของเรา[br]ที่มีต่อความเสี่ยงนั้นเชื่อถือไม่ได้ 0:06:11.120,0:06:13.840 ครับ แค่ลองพิจารณา[br]ถึงคนฉลาดที่สุดที่เคยมีชีวิตอยู่ 0:06:14.640,0:06:18.056 สำหรับทุกคนแล้ว หนึ่งในรายชื่อนั้น[br]ก็คืออ จอห์น วอน นอยแมน 0:06:18.080,0:06:21.416 ผมหมายถึง ความประทับใจของผู้คน[br]ที่มีต่อ วอน นอยแมน 0:06:21.440,0:06:25.496 และนั่นก็รวมถึงนักคณิตศาสตร์[br]และนักฟิสิกส์ที่ยิ่งใหญ่ในยุคนั้น 0:06:25.520,0:06:27.456 ได้ถูกบันทีกไว้เป็นอย่างดี 0:06:27.480,0:06:31.256 ถ้าเรื่องราวของเขาสักครึ่งหนึ่งนั้น[br]จะมีมูลความจริงอยู่ถึงสักครึ่ง 0:06:31.280,0:06:32.496 ก็ไม่ต้องกังขาเลยว่า 0:06:32.520,0:06:34.976 เขาเป็นคนฉลาดที่สุดในโลกคนหนึ่ง 0:06:35.000,0:06:37.520 เมื่อพิจารณาระดับช่วงของความฉลาด 0:06:38.320,0:06:39.749 ตรงนี้เรามี จอห์น วอน นอยแมน 0:06:41.560,0:06:42.894 แล้วเราก็มี คุณและผม 0:06:44.120,0:06:45.416 แล้วต่อมาก็มีไก่ 0:06:45.440,0:06:47.376 (เสียงหัวเราะ) 0:06:47.400,0:06:48.616 ขอโทษครับ ไก่ 0:06:48.640,0:06:49.896 (เสียงหัวเราะ) 0:06:49.920,0:06:53.656 ไม่มีเหตุผลอะไร ที่ผมจะทำให้[br]การบรรยายนี้หดหู่ใจมากเกินจำเป็น 0:06:53.680,0:06:55.280 (เสียงหัวเราะ) 0:06:56.339,0:06:59.816 อย่างไรก็ตาม ดูจะเป็นไปได้มาก[br]ที่ระดับช่วงของความฉลาดนั้น 0:06:59.840,0:07:02.960 ขยายออกไปได้ไกล[br]มากกว่าที่เราตระหนักในปัจจุบัน 0:07:03.880,0:07:07.096 และถ้าเราสร้างจักรกลที่ฉลาดกว่าเรา 0:07:07.120,0:07:09.416 พวกมันก็น่าจะสำรวจตรวจค้น[br]ความชาญฉลาดเหล่านี้ 0:07:09.440,0:07:11.296 ในแบบที่เราคิดไม่ถึง 0:07:11.320,0:07:13.840 และเหนือกว่าเราในแบบที่เราคิดไม่ถึง 0:07:15.000,0:07:19.336 มันจำเป็นที่เราต้องยอมรับว่า [br]สิ่งนี้เป็นจริงไปแล้ว ในเรื่องความเร็ว 0:07:19.360,0:07:24.416 ใช่ไหมครับ ลองคิดดูว่า ถ้าเราแค่สร้าง[br]ปัญญาประดิษฐ์อัจฉริยะขึ้นมาสักเครื่อง 0:07:24.440,0:07:27.896 ที่ไม่ได้ฉลาดกว่ากลุ่มนักวิจัยทั่ว ๆ ไป 0:07:27.920,0:07:30.216 ที่แสตนฟอร์ดหรือเอ็มไอที 0:07:30.240,0:07:33.216 วงจรไฟฟ้านั้นทำงานได้เร็วกว่าวงจรชีวเคมี 0:07:33.240,0:07:34.496 ประมาณหนึ่งล้านเท่า 0:07:34.520,0:07:37.806 ดังนั้น จักรกลนี้ควรจะคิดได้เร็วกว่า[br]ปัญญาของมนุษย์ผู้สร้างมันขึ้นมา 0:07:37.806,0:07:39.496 ประมาณหนึ่งล้านเท่า 0:07:39.520,0:07:41.176 เมื่อคุณเดินเครื่องนานหนึ่งสัปดาห์ 0:07:41.200,0:07:45.760 มันจะทำงานได้เท่ากับการทำงานโดยใช้[br]สติปัญญาในระดับของมนุษย์นาน 20,000 ปี 0:07:46.400,0:07:48.360 นานสัปดาห์แล้วสัปดาห์เล่า 0:07:49.640,0:07:53.686 เราจะไปเข้าใจ หรือแม้แต่จำกัดขอบเขต[br]ของปัญญาประดิษฐ์ 0:07:53.686,0:07:55.920 ที่สร้างความก้าวหน้าแบบนี้ได้อย่างไร 0:07:56.840,0:07:58.976 อีกเรื่องหนึ่งที่น่าวิตกกังวล 0:07:59.000,0:08:03.976 คือ ลองจินตนาการถึงสถานการณ์ที่ดีที่สุด 0:08:04.000,0:08:08.090 จินตนาการว่า เราค้นพบการออกแบบ[br]ปัญญาประดิษฐ์อันชาญฉลาด 0:08:08.090,0:08:09.606 ที่ไม่มีปัญหาเรื่องความปลอดภัย 0:08:09.606,0:08:12.856 เรามีแบบที่สมบูรณ์เป็นครั้งแรก 0:08:12.880,0:08:15.096 ราวกับว่าเราได้รับคำพยากรณ์ 0:08:15.120,0:08:17.136 ที่เป็นไปดังใจคิดเป๊ะ 0:08:17.160,0:08:21.300 ครับ จักรกลนี้ก็น่าจะเป็นเครื่องมือ[br]ที่ประหยัดแรงงานได้อย่างสมบูรณ์แบบ 0:08:21.680,0:08:24.109 มันสามารถออกแบบจักรกล[br]ที่สามารถสร้างจักรกล 0:08:24.133,0:08:25.896 ซึ่งสามารถทำงานเชิงกายภาพอะไรก็ได้ 0:08:25.920,0:08:27.376 ใช้พลังจากแสงอาทิตย์ 0:08:27.400,0:08:30.096 โดยมีต้นทุนแค่ค่าวัตถุดิบ 0:08:30.120,0:08:33.376 ดังนั้น เรากำลังพูดกันถึงการสิ้นสุด[br]ของงานหนักที่น่าเบื่อของมนุษย์ 0:08:33.400,0:08:36.530 เรากำลังพูดถึงการจบสิ้นของงาน[br]ที่ใช้สติปัญญามากที่สุดด้วยเช่นกัน 0:08:37.200,0:08:40.256 แล้วลิงจ๋ออย่างพวกเรานั้น[br]จะทำอย่างไรในสถานการณ์แบบนี้ 0:08:40.280,0:08:44.360 ครับ เราก็ว่างที่จะไปเล่นจานร่อน [br]แล้วก็ทำการนวดเฟ้นให้กันและกัน 0:08:45.840,0:08:48.696 เพิ่มการเสพสารแอลเอสดี [br]และเสื้อผ้าที่ดูไม่ออกว่าเป็นแนวไหน 0:08:48.720,0:08:50.896 และโลกทั้งใบก็คงกลายเป็น[br]งานเทศกาล Burning Man 0:08:50.920,0:08:52.560 (เสียงหัวเราะ) 0:08:54.320,0:08:56.320 ครับ นั่นอาจจะฟังดูค่อนข้างจะดี 0:08:57.280,0:08:59.656 แต่ลองถามตัวเองดูว่าจะเกิดอะไรขึ้น 0:08:59.680,0:09:02.416 ภายใต้ระเบียบการเมืองและเศรษฐกิจ[br]ในปัจจุบันของเรานี้ 0:09:02.440,0:09:04.856 ดูเหมือนว่าเราน่าจะได้เห็น 0:09:04.880,0:09:08.980 ความไม่เท่าเทียมของความมั่งคั่ง[br]และอัตราการว่างงานที่สูง 0:09:08.980,0:09:10.536 อย่างที่เราไม่เคยได้เห็นมาก่อน 0:09:10.560,0:09:13.266 การขาดความเต็มใจ[br]ที่จะรีบนำความมั่งคั่งที่เกิดขึ้นใหม่นี้ 0:09:13.266,0:09:15.200 มารับใช้มนุษยชาติทั้งมวลในทันที 0:09:15.640,0:09:19.256 ทำให้เศรษฐีระดับพันล้านบางราย[br]อาจเฉิดฉายบนปกนิตยสารธุรกิจ 0:09:19.280,0:09:21.720 ในขณะที่ส่วนอื่น ๆ ของโลก[br]กำลังอดอยากปากแห้งกัน 0:09:22.320,0:09:24.616 แล้วคนรัสเซียหรือคนจีนจะทำอย่างไร 0:09:24.640,0:09:27.256 หากพวกเขารู้ว่าบางบริษัทในซิลิคอนแวลลีย์ 0:09:27.280,0:09:30.016 กำลังจะนำปัญญาประดิษฐ์ที่ชาญฉลาดมาใช้ 0:09:30.040,0:09:32.896 จักรกลที่ว่านี้อาจสามารถนำไปใช้[br]ในการศึกสงครามได้ 0:09:32.920,0:09:35.136 ไม่ว่าจะเป็นทางภาคพื้นโลก [br]หรือทางอินเทอร์เน็ต 0:09:35.160,0:09:36.840 ด้วยพละกำลังที่ไม่อาจประเมินได้ 0:09:38.120,0:09:39.976 นี่คือสถานการณ์แบบผู้ชนะได้ทุกอย่าง 0:09:40.000,0:09:43.136 เพื่อที่จะนำหน้าไปหกเดือน[br]ในการแข่งขันนี้ 0:09:43.160,0:09:45.936 คือการที่เราต้องนำหน้าอยู่ 500,000 ปี 0:09:45.960,0:09:47.456 เป็นอย่างน้อย 0:09:47.480,0:09:52.216 ฉะนั้น จึงเหมือนกับว่า แม้เพียงข่าวลือ[br]ในเรื่องการค้นพบที่ยิ่งใหญ่แบบนี้ 0:09:52.240,0:09:54.736 ก็อาจเป็นเหตุให้ชาติพันธุ์ของเรา[br]บ้าระห่ำกันขึ้นมาได้ 0:09:54.736,0:09:57.536 ครับ สิ่งหนึ่งที่น่าหวาดกลัวที่สุด 0:09:57.560,0:10:00.336 ในความเห็นของผม ในขณะนี้ 0:10:00.360,0:10:04.656 คือ สิ่งที่พวกนักวิจัยปัญญาประดิษฐ์พูดกัน 0:10:04.680,0:10:06.770 เมื่อพวกเขาต้องการจะปลอบใจเรา 0:10:07.000,0:10:10.456 และเหตุผลที่ธรรมดาที่สุดที่เขาบอกพวกเรา[br]ให้ไม่ต้องกังวลก็คือเรื่องเวลา 0:10:10.480,0:10:12.536 เรื่องนี้มันอีกนานนัก ไม่รู้หรอกหรือ 0:10:12.560,0:10:15.000 มันน่าจะเป็นอีก 50 หรือ 100 ปี ข้างหน้า 0:10:15.720,0:10:16.976 นักวิจัยคนหนึ่งเคยพูดว่า 0:10:17.000,0:10:18.576 "กังวลเรื่องความปลอดภัยของปัญญาประดิษฐ์ 0:10:18.600,0:10:20.880 ก็จะเหมือนกับกังวล[br]เรื่องประชากรจะล้นดาวอังคาร" 0:10:21.786,0:10:23.736 นี่เป็นเรื่องราวในรูปแบบของซิลิคอนแวลลีย์ 0:10:23.760,0:10:26.406 ในการบอกว่า "ไม่ต้องเอาสมองน้อยๆ [br]มากังวลเรื่องนี้หรอก" 0:10:26.406,0:10:27.496 (เสียงหัวเราะ) 0:10:27.520,0:10:29.416 ดูเหมือนจะไม่มีใครสังเกตเห็นว่า 0:10:29.440,0:10:32.056 การอ้างถึงขอบเขตของเวลา 0:10:32.080,0:10:34.656 เป็นคำพูดที่ไม่มีเหตุผลอย่างสิ้นเชิง 0:10:34.680,0:10:37.936 ถ้าหากว่าความชาญฉลาดเป็นเพียง[br]เรื่องของการประมวลผลข้อมูล 0:10:37.960,0:10:40.616 และเรายังคงปรับปรุงจักรกลของเรา[br]ให้ดียิ่งขึ้นต่อไป 0:10:40.640,0:10:43.520 เราก็จะผลิตอะไรบางอย่างในรูปแบบ[br]สุดยอดความชาญฉลาดออกมา 0:10:44.320,0:10:47.976 และเราก็ไม่รู้เลยว่า[br]เราจะใช้เวลานานแค่ไหน 0:10:48.000,0:10:50.400 เพื่อสร้างสภาวะที่จะทำสิ่งนั้น[br]ได้อย่างปลอดภัย 0:10:52.200,0:10:53.496 ขอผมยํ้าอีกครั้ง 0:10:53.520,0:10:57.336 เราไม่รู้เลยว่าเราจะใช้เวลานานแค่ไหน 0:10:57.360,0:11:00.490 เพื่อสร้างสภาวะที่จะทำสิ่งนั้น[br]ได้อย่างปลอดภัย 0:11:00.920,0:11:04.376 และถ้าคุณยังไม่ทันสังเกตอีกล่ะก็[br]50 ปีนั้นไม่เป็นอย่างที่มันเคยเป็น 0:11:04.400,0:11:06.856 นี่คือ 50 ปีในอีกไม่กี่เดือน 0:11:06.880,0:11:08.720 เรามีไอโฟนมานานเท่านี้ 0:11:09.440,0:11:12.040 "เดอะ ซิมพ์สันส์" ออกอากาศทางทีวี[br]มานานแค่นี้ 0:11:12.680,0:11:15.056 ห้าสิบปีไม่ใช่เวลาที่นานมาก 0:11:15.080,0:11:18.240 ที่จะพบกับสิ่งท้าทายที่ยิ่งใหญ่ที่สุด[br]ที่ชาติพันธ์ุของเราจะเผชิญ 0:11:19.640,0:11:23.590 ยํ้าอีกครั้งนะครับ ดูเหมือนเรากำลังล้มเหลว[br]ที่จะมีการตอบสนองทางอารมณ์ที่เหมาะสม 0:11:23.590,0:11:26.526 ต่อสิ่งที่เราเชื่อได้ด้วยเหตุผล[br]ในทุก ๆ ด้าน ว่ามันกำลังมาถึง 0:11:26.526,0:11:30.376 นักวิทยาศาสตร์คอมพิวเตอร์ สจวร์ต รัสเซลล์[br]เปรียบเทียบไว้เป็นอย่างดีในเรื่องนี้ 0:11:30.400,0:11:35.296 เขาพูดว่า ลองจินตนาการดูว่า[br]เราได้รับข้อความจากอารยธรรมต่างดาว 0:11:35.320,0:11:37.016 ความว่า 0:11:37.040,0:11:38.576 "มนุษย์โลก 0:11:38.600,0:11:40.960 เราจะไปถึงดาวเคราะห์ของท่านในอีก 50 ปี 0:11:41.800,0:11:43.376 เตรียมตัวให้พร้อมนะ" 0:11:43.400,0:11:47.656 แล้วตอนนี้เราจะแค่นับเดือนถอยหลัง[br]จนยานแม่มาลงจอดบนพื้นโลกอย่างนั้นหรือ 0:11:47.680,0:11:50.680 เราน่าจะรู้สึกต้องรีบเร่งขึ้น[br]กว่าที่เราเป็นอยู่บ้าง 0:11:52.680,0:11:54.536 อีกเหตุผลหนึ่ง ที่เขาบอกเราไม่ให้กังวล 0:11:54.560,0:11:57.576 คือจักรกลพวกนี้[br]ยังไงก็จะมีค่านิยมเหมือนกับเรา 0:11:57.600,0:12:00.216 เพราะแท้จริงแล้วมันจะเป็น[br]ส่วนต่อขยายออกไปของตัวเราเอง 0:12:00.240,0:12:02.056 พวกมันจะถูกเชื่อมต่อกับสมองของเรา 0:12:02.080,0:12:05.160 หรือที่จริงคือ เรากลายเป็นสมองระบบลิมบิก[br](ทำหน้าที่รับรู้อารมณ์) ของพวกมัน 0:12:05.160,0:12:06.536 ครับ มาพิจารณาสักครู่ 0:12:06.560,0:12:09.736 ว่าวิถีทางเดียวที่ปลอดภัยและรอบคอบ[br]ที่จะใช้ต่อไปข้างหน้า 0:12:09.760,0:12:11.096 ที่ได้รับการเสนอแนะมานั้น 0:12:11.120,0:12:13.920 คือการปลูกถ่ายเทคโนโลยีนี้[br]เข้าสู่สมองของเราโดยตรง 0:12:14.600,0:12:17.976 ครับ จริง ๆ แล้วนี่อาจเป็นวิถีทางเดียว[br]ที่ปลอดภัยและรอบคอบที่จะใช้ต่อไป 0:12:18.000,0:12:21.056 แต่โดยปกติ ความกังวลเรื่อง[br]ความปลอดภัยของเทคโนโลยี 0:12:21.080,0:12:24.736 จะต้องได้รับการคลี่คลายให้ได้ไม่มากก็น้อย[br]ก่อนที่จะเอามันไปติดเข้าไปในหัวของเรา 0:12:24.760,0:12:26.776 (เสียงหัวเราะ) 0:12:26.800,0:12:32.136 ปัญหาที่ลึกลํ้ากว่าก็คือการสร้าง[br]ปัญญาประดิษฐ์อัจฉริยะขึ้นมา โดยตัวมันเอง 0:12:32.160,0:12:33.896 ดูน่าจะง่ายกว่า 0:12:33.920,0:12:35.776 การสร้างปัญญาประดิษฐ์อัจฉริยะ 0:12:35.800,0:12:37.576 โดยมีประสาทวิทยาศาสตร์ที่สมบูรณ์แบบ 0:12:37.600,0:12:40.280 ที่ทำให้เราหลอมรวมปัญญาความคิดของเรา [br]เข้ากับมันได้อย่างแนบเนียน 0:12:40.800,0:12:43.976 และถ้าคิดถึงว่า บริษัทและรัฐบาลทั้งหลาย[br]ที่กำลังทำงานนี้อยู่ 0:12:44.000,0:12:47.656 น่าจะรู้ดีว่าพวกเขานั้นกำลังแข่งขันกันอยู่ 0:12:47.680,0:12:50.936 เพราะว่าการเอาชนะการแข่งขันนี้ได้[br]คือการที่จะได้ครองโลก 0:12:50.960,0:12:53.416 ถ้าคุณไม่ทำลายมันในวินาทีต่อมาไปซะก่อน 0:12:53.440,0:12:56.056 มันก็ดูน่าจะเป็นไปได้ว่า[br]อะไรก็ตามที่ทำได้ง่ายกว่า 0:12:56.080,0:12:57.860 ก็จะถูกทำเป็นอันดับแรก 0:12:58.560,0:13:01.416 ครับ โชคไม่ดี ผมไม่มีวิธีแก้ปัญหานี้ 0:13:01.440,0:13:04.040 นอกเหนือจากการแนะนำ[br]ให้พวกเรานี้คิดถึงมันมากขึ้นกว่านี้ 0:13:04.040,0:13:06.456 ผมว่าเราต้องการอะไร[br]คล้ายๆ โครงการแมนฮัตตัน 0:13:06.480,0:13:08.360 ในหัวเรื่องปัญญาประดิษฐ์นี้ 0:13:08.360,0:13:11.576 ไม่ใช่เพื่อจะสร้างมัน เพราะผมว่า[br]มันต้องเกิดแน่ เลี่ยงไม่ได้อยู่แล้ว 0:13:11.576,0:13:14.616 แต่เพื่อให้เข้าใจถึงวิธีที่จะหลีกเลี่ยง[br]การแข่งขันกันสะสมอาวุธ 0:13:14.640,0:13:18.136 และสร้างมันขึ้นมา ในแบบที่[br]สอดคล้องกับผลประโยชน์ของเรา 0:13:18.160,0:13:20.296 เมื่อเราพูดกันถึงปัญญาประดิษฐ์อัจฉริยะ 0:13:20.320,0:13:22.576 ที่สามารถเปลี่ยนแปลงตัวมันได้เอง 0:13:22.600,0:13:27.216 ก็ดูเหมือนว่า เรามีเพียงโอกาสเดียว[br]ที่จะทำให้สภาพการณ์เริ่มแรกนั้นถูกต้อง 0:13:27.240,0:13:29.296 และถึงกระนั้น เราก็จำเป็นจะต้องซึมซับ 0:13:29.320,0:13:32.360 ผลสืบเนื่องทางการเมืองและเศรษฐกิจ[br]ของการที่ต้องทำให้มันถูกต้อง 0:13:33.760,0:13:35.816 แต่ ณ วินาทีที่เรายอมรับ 0:13:35.840,0:13:39.840 ว่าการประมวลข้อมูล[br]เป็นแหล่งที่มาของความชาญฉลาด 0:13:40.720,0:13:45.520 ว่าระบบคอมพิวเตอร์ที่เหมาะสมบางอย่างนั้น[br]คือสิ่งที่เป็นพื้นฐานของความชาญฉลาด 0:13:46.360,0:13:50.120 และเราก็ยอมรับว่า เราจะปรับปรุง[br]ระบบเหล่านี้อย่างต่อเนื่อง 0:13:51.280,0:13:55.736 และเรายอมรับว่า มันเป็นไปได้มากว่า[br]ขอบเขตของปัญญารู้คิดจะไกลเกินกว่า 0:13:55.760,0:13:57.710 สิ่งที่เรารู้ในปัจจุบัน 0:13:58.120,0:13:59.526 แล้วเราก็ต้องยอมรับ 0:13:59.526,0:14:02.530 ว่าเราอยู่ในกระบวนการ[br]ของการสร้างเทพเจ้าบางอย่างขึ้นมา 0:14:03.400,0:14:04.976 ขณะนี้ จึงน่าจะเป็นช่วงเวลาที่ดี 0:14:05.000,0:14:08.113 ที่เราจะทำให้แน่ใจว่าเทพเจ้าองค์นั้น[br]จะเป็นเทพที่อยู่ร่วมกับเราได้ 0:14:08.120,0:14:09.656 ขอบคุณมากครับ 0:14:09.680,0:14:14.773 (เสียงปรบมือ)