เราจะสามารถสร้างปัญญาประดิษฐ์โดยไม่สูญเสียการควบคุมมันได้หรือไม่
-
0:01 - 0:03ผมจะพูดถึงความล้มเหลว
ของการหยั่งรู้โดยสัญชาตญาณ -
0:03 - 0:05ซึ่งพวกเราหลายคนประสบอยู่
-
0:05 - 0:09แท้จริงแล้ว มันเป็นความล้มเหลว
ของการสัมผัสได้ถึงอันตรายบางอย่าง -
0:09 - 0:11ผมกำลังจะอธิบายสถานการณ์หนึ่ง
-
0:11 - 0:14ที่ผมคิดว่ามันทั้งน่าสะพรึงกลัว
-
0:14 - 0:16และก็น่าจะเกิดขึ้นได้
-
0:17 - 0:18และนั่นไม่ใช่ส่วนผสมที่ดีเลย
-
0:19 - 0:20ดังที่ปรากฎออกมา
-
0:20 - 0:23แต่แทนที่จะกลัว
ท่านทั้งหลายส่วนใหญ่จะรู้สึกว่า -
0:23 - 0:25สิ่งที่ผมกำลังจะพูดถึงนั้น
เป็นอะไรที่ดูเจ๋ง -
0:25 - 0:28ผมกำลังจะอธิบายให้ฟังว่า
ผลประโยชน์ที่เราได้รับ -
0:28 - 0:30จากปัญญาประดิษฐ์
-
0:30 - 0:32ในที่สุดแล้วอาจทำลายเราได้อย่างไร
-
0:32 - 0:35และที่จริง ผมว่ามันยากมาก
ที่จะเข้าใจว่าพวกมันจะไม่ทำลายเรา -
0:35 - 0:37หรือไม่ดลใจให้เรา
ทำลายตัวเองได้อย่างไร -
0:37 - 0:39ถ้าหากว่าคุณเป็นอย่างผม
-
0:39 - 0:42คุณจะพบว่ามันสนุกดี
ที่จะคิดถึงเรื่องเหล่านี้ -
0:42 - 0:45และการตอบสนองนั้น
ก็เป็นส่วนหนึ่งของปัญหา -
0:45 - 0:48ใช่ไหมครับ การตอบรับนั้น
น่าจะทำให้คุณกังวลใจ -
0:48 - 0:51ถ้าในการบรรยายนี้
ผมต้องการโน้มน้าวคุณให้เชื่อว่า -
0:51 - 0:54เราน่าจะต้องประสบกับความทุกข์ยาก
จากความอดอยากไปทั่วโลก -
0:54 - 0:57ไม่ว่าจะเป็นเพราะการเปลี่ยนแปลง
สภาวะอากาศ หรือหายนะอย่างอื่น -
0:57 - 1:01และลูกหลานของพวกคุณ
หรือของลูกหลานของพวกเขา -
1:01 - 1:02อาจจะต้องมีความเป็นอยู่แบบนี้
-
1:03 - 1:05คุณคงจะไม่คิดหรอกว่า
-
1:05 - 1:07"น่าสนใจนะ
-
1:07 - 1:08ฉันชอบ TED Talk เรื่องนี้"
-
1:09 - 1:11ความอดอยากนั้นไม่น่าสนุก
-
1:12 - 1:15ในขณะที่ ความตาย
ในนวนิยายวิทยาศาสตร์เป็นเรื่องสนุก -
1:15 - 1:19สิ่งหนึ่งที่ทำให้ผมกังวลที่สุดเกี่ยวกับ
การพัฒนาปัญญาประดิษฐ์ขึ้นมา ณ ตอนนี้ -
1:19 - 1:23ก็คือ ดูเหมือนว่าเราไม่สามารถสร้าง
การตอบสนองทางอารมณ์ที่เหมาะสม -
1:23 - 1:25ต่ออันตรายที่อยู่เบื้องหน้าได้
-
1:25 - 1:29ผมเองก็ไม่สามารถที่จะปลุกการตอบสนองนี้ได้
ผมจึงต้องมาพูดเรื่องนี้ -
1:30 - 1:33มันเหมือนกับว่า
เรายืนอยู่ข้างหน้าประตูสองบาน -
1:33 - 1:34ด้านหลังประตูหมายเลขหนึ่ง
-
1:34 - 1:37เราหยุดที่จะก้าวหน้าต่อไป
ในการสร้างจักรกลที่ชาญฉลาด -
1:37 - 1:41คอมพิวเตอร์ฮาร์ดแวร์และซอฟแวร์
ต่างหยุดพัฒนา ด้วยเหตุผลบางอย่าง -
1:41 - 1:45ลองใช้เวลาสักครู่เพื่อพิจารณานะครับ
ว่าทำไมเรื่องแบบนี้อาจจะเกิดขึ้นได้ -
1:45 - 1:49ผมหมายความว่า ด้วยคุณค่าของ
ความฉลาดและความเป็นอัตโนมัตินั้น -
1:49 - 1:52เราจะยังคงพัฒนาเทคโนโลยีของเราต่อไป
หากเรายังสามารถทำได้ -
1:53 - 1:56อะไรล่ะจะหยุดเราไม่ไห้ทำสิ่งนี้
-
1:56 - 1:58สงครามนิวเคลียร์เต็มรูปแบบหรือ
-
1:59 - 2:01โรคที่ระบาดไปทั่วโลกหรือ
-
2:02 - 2:04ดาวเคราะห์น้อยมาชนโลกหรือ
-
2:06 - 2:08จัสติน บีเบอร์
มาเป็นประธานาธิบดีของสหรัฐหรือ -
2:08 - 2:11(เสียงหัวเราะ)
-
2:13 - 2:17ประเด็นก็คือ บางสิ่งบางอย่างจะต้อง
มาทำลายอารยธรรมที่เรารู้จัก -
2:17 - 2:22คุณจะต้องจินตนาการเองว่า
มันจะแย่ขนาดไหน -
2:22 - 2:25ที่จะมากีดกันเราจากการ
ปรับปรุงเทคโนโลยีของเราให้ดีขึ้น -
2:25 - 2:26อย่างถาวร
-
2:26 - 2:28ที่เกิดขึ้นยุคแล้วยุคเล่า
-
2:28 - 2:30เกือบจะเรียกได้ว่า
นี่คือสิ่งเลวร้ายที่สุด -
2:30 - 2:32ที่ได้เคยเกิดขึ้น
ในประวัติศาสตร์มนุษยชาติ -
2:33 - 2:34ฉะนั้นตัวเลือกเดียวที่เหลือ
-
2:34 - 2:36และนั่นคือสิ่งที่อยู่ด้านหลัง
ประตูหมายเลขสอง -
2:36 - 2:39ก็คือ เรายังคงปรับปรุงจักรกลที่ฉลาด
ของเรานี้ให้ดีขึ้นต่อไป -
2:39 - 2:41ปีแล้วปีเล่า
-
2:42 - 2:45จนเมื่อถึงจุดหนึ่ง
เราก็จะสร้างจักรกลที่ฉลาดกว่าเรา -
2:46 - 2:48และเมื่อเรามีจักรกล
ที่ฉลาดกว่าเราแล้ว -
2:48 - 2:51มันก็จะเริ่มต้นปรับปรุงตัวมันเองให้ดีขึ้น
-
2:51 - 2:53แล้วเราก็จะเสี่ยงกับ
สิ่งที่นักคณิตศาสตร์ ไอเจ กูด เรียกว่า -
2:53 - 2:55"การระเบิดของความชาญฉลาด"
-
2:55 - 2:57กระบวนการที่ซึ่งมนุษย์
ไม่สามารถควบคุมมันได้ -
2:58 - 3:01เรื่องนี้มักจะถูกทำเป็นการ์ตูนล้อเลียน
อย่างที่แสดงให้ดูตรงนี้ -
3:01 - 3:04เป็นความกลัวที่ทหารหุ่นยนต์ที่มุ่งร้าย
-
3:04 - 3:05จะเข้ามาโจมตีทำร้ายเรา
-
3:05 - 3:08แต่นั่นไม่ใช่สถานการณ์
ที่น่าจะเป็นไปได้มากที่สุด -
3:08 - 3:13ไม่ใช่ว่าจักรกลของเรา
จะกลายเป็นภัยอันตรายขึ้นมาเอง -
3:13 - 3:16ความกังวลจริง ๆ ก็คือ
เราจะสร้างจักรกล -
3:16 - 3:18ที่มีความสามารถที่สูงกว่าเรามาก ๆ
-
3:18 - 3:22ที่ความแตกต่างเพียงเล็กน้อยระหว่าง
เป้าหมายของมันกับของเราเอง -
3:22 - 3:23ก็อาจจะทำลายเราได้
-
3:24 - 3:26ลองแค่คิดดูว่า
เรามีสัมพันธ์กับมดอย่างไร -
3:27 - 3:28เราไม่ได้เกลียดพวกมัน
-
3:28 - 3:30เราไม่ได้ยอมลำบาก
ใช้ความพยายามไปทำร้ายมัน -
3:30 - 3:33อันที่จริง บางครั้งเราต้องอดกลั้น
ที่จะไม่ทำร้ายมัน -
3:33 - 3:35เราก้าวข้ามพวกมันไปบนทางเดิน
-
3:35 - 3:37แต่เมื่อใดก็ตามที่การปรากฏอยู่ของมัน
-
3:37 - 3:39ขัดแย้งอย่างรุนแรง
กับเป้าหมายอย่างหนึ่งของเรา -
3:39 - 3:42ยกตัวอย่าง เมื่อก่อสร้างอาคาร
เช่น อาคารนี้ -
3:42 - 3:44เราทำลายล้างพวกมันได้อย่างสบายใจ
-
3:44 - 3:47ความวิตกกังวลก็คือสักวันหนึ่ง
เราจะสร้างจักรกล -
3:47 - 3:50ที่ไม่ว่าพวกมันจะมีความคิด
อย่างมีสติหรือไม่ก็ตาม -
3:50 - 3:53จะทำกับเราได้อย่างเฉยเมย
ในแบบเดียวกัน -
3:54 - 3:57ครับ ผมเข้าใจว่า สิ่งนี้ดูจะไกลจากความจริง
สำหรับหลาย ๆ ท่าน -
3:57 - 4:03ผมมั่นใจว่ายังมีคนไม่เชื่อว่า
ปัญญาประดิษฐ์ยอดอัจฉริยะจะเกิดขึ้นได้จริง -
4:03 - 4:06หรือไม่เชื่อว่ามันหลีกเลี่ยงไม่ได้
-
4:06 - 4:09แต่คุณจะพบว่ามีบางอย่างที่ไม่ถูกต้อง
ในสมมติฐานเบื้องต้นต่อไปนี้ -
4:09 - 4:11ซึ่งก็มีเพียงสามอย่างเท่านั้น
-
4:12 - 4:17หนึ่งคือ ความฉลาดเป็นเรื่องของการ
ประมวลข้อมูลในระบบทางกายภาพ -
4:17 - 4:20แต่จริง ๆ แล้ว ข้อนี้มัน
มากกว่าสมมติฐานเบื้องต้นสักหน่อย -
4:20 - 4:23เราใส่ความฉลาดในขอบเขตแคบ ๆ
ไว้ในจักรกลของเราเรียบร้อยแล้ว -
4:23 - 4:25และจักรกลมากมายเหล่านี้ก็ทำงาน
-
4:25 - 4:28ด้วยความฉลาดระดับเหนือมนุษย์อยู่แล้ว
-
4:29 - 4:31และเราก็รู้ว่า แค่มีความฉลาดระดับนั้น
-
4:31 - 4:34ก็ทำให้เกิดสิ่งที่เรียกว่า
"ความฉลาดทั่วไป" -
4:34 - 4:38ซึ่งเป็นความสามารถที่จะคิด
ได้อย่างยืดหยุ่นในหลาย ๆ ด้าน -
4:38 - 4:41ก็เพราะว่าสมองของเรานั้น
ก็สามารถทำได้ ใช่ไหมล่ะครับ -
4:41 - 4:45ผมหมายความว่า
มันก็แค่อะตอมในนี้ -
4:45 - 4:49และตราบใดที่เรายังคงสร้าง
ระบบของอะตอม -
4:49 - 4:52ที่แสดงพฤติกรรมชาญฉลาด
มากขึ้นและมากขึ้น -
4:52 - 4:55ในที่สุดถ้าเราไม่ถูกขัดขวาง
-
4:55 - 4:58เราก็จะสร้างความฉลาดทั่วไป
-
4:58 - 4:59เอาไว้ในจักรกลของเรา
-
4:59 - 5:03มันจำเป็นมากที่ต้องตระหนักว่า
อัตราความก้าวหน้านั้นไม่สำคัญ -
5:03 - 5:06เพราะความก้าวหน้าใด ๆ ก็ตาม
ก็เพียงพอที่จะพาเราเข้าสู่ช่วงสุดท้าย -
5:06 - 5:10ไม่จำเป็นต้องดำเนินไปตามกฎของมอร์
ไม่จำเป็นต้องก้าวหน้าไปแบบยกกำลัง -
5:10 - 5:12เราแค่ต้องก้าวหน้าต่อไปเรื่อย ๆ
เท่านั้นเอง -
5:13 - 5:17สมมติฐานเบื้องต้นข้อที่สอง
คือเราจะก้าวหน้าต่อไปเรื่อย ๆ -
5:17 - 5:20เราจะยังคงปรับปรุงจักรกล
ที่ชาญฉลาดของเราต่อไป -
5:21 - 5:25และด้วยคุณค่าของความฉลาด --
-
5:25 - 5:29ผมหมายถึงว่า ไม่ว่าความฉลาด
จะเป็นทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า -
5:29 - 5:32หรือเราต้องใช้มันเพื่อปกป้อง
ทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า -
5:32 - 5:34มันก็เป็นสิ่งที่มีคุณค่าที่สุดของเรา
-
5:34 - 5:36ฉะนั้น เราจึงต้องการทำสิ่งนี้
-
5:36 - 5:39เรามีปัญหา
ที่เราจำเป็นต้องแก้ไขอย่างเร่งด่วน -
5:39 - 5:42เราต้องการรักษาโรค
อย่างเช่น อัลไซเมอร์และมะเร็ง -
5:43 - 5:47เราต้องการเข้าใจระบบเศรษฐกิจ
เราต้องการปรับปรุงศาสตร์ภูมิอากาศวิทยา -
5:47 - 5:49เราจึงต้องทำสิ่งนี้
หากเราสามารถทำได้ -
5:49 - 5:52รถไฟได้ออกจากสถานีไปแล้ว
และไม่มีเบรคที่จะดึงมันไว้ได้ -
5:54 - 5:59ข้อสุดท้าย เราไม่ได้ยืนอยู่
บนจุดสูงสุดของความฉลาด -
5:59 - 6:01ไม่แม้แต่จะใกล้เคียง
-
6:01 - 6:04นี่เป็นความเข้าใจที่สำคัญยิ่ง
-
6:04 - 6:06นี่แหละที่ทำให้สถานการณ์ของเรา
ล่อแหลมต่ออันตรายยิ่ง -
6:06 - 6:10และนี่แหละที่ทำให้สัญชาตญาณของเรา
ที่มีต่อความเสี่ยงนั้นเชื่อถือไม่ได้ -
6:11 - 6:14ครับ แค่ลองพิจารณา
ถึงคนฉลาดที่สุดที่เคยมีชีวิตอยู่ -
6:15 - 6:18สำหรับทุกคนแล้ว หนึ่งในรายชื่อนั้น
ก็คืออ จอห์น วอน นอยแมน -
6:18 - 6:21ผมหมายถึง ความประทับใจของผู้คน
ที่มีต่อ วอน นอยแมน -
6:21 - 6:25และนั่นก็รวมถึงนักคณิตศาสตร์
และนักฟิสิกส์ที่ยิ่งใหญ่ในยุคนั้น -
6:26 - 6:27ได้ถูกบันทีกไว้เป็นอย่างดี
-
6:27 - 6:31ถ้าเรื่องราวของเขาสักครึ่งหนึ่งนั้น
จะมีมูลความจริงอยู่ถึงสักครึ่ง -
6:31 - 6:32ก็ไม่ต้องกังขาเลยว่า
-
6:33 - 6:35เขาเป็นคนฉลาดที่สุดในโลกคนหนึ่ง
-
6:35 - 6:38เมื่อพิจารณาระดับช่วงของความฉลาด
-
6:38 - 6:40ตรงนี้เรามี จอห์น วอน นอยแมน
-
6:42 - 6:43แล้วเราก็มี คุณและผม
-
6:44 - 6:45แล้วต่อมาก็มีไก่
-
6:45 - 6:47(เสียงหัวเราะ)
-
6:47 - 6:49ขอโทษครับ ไก่
-
6:49 - 6:50(เสียงหัวเราะ)
-
6:50 - 6:54ไม่มีเหตุผลอะไร ที่ผมจะทำให้
การบรรยายนี้หดหู่ใจมากเกินจำเป็น -
6:54 - 6:55(เสียงหัวเราะ)
-
6:56 - 7:00อย่างไรก็ตาม ดูจะเป็นไปได้มาก
ที่ระดับช่วงของความฉลาดนั้น -
7:00 - 7:03ขยายออกไปได้ไกล
มากกว่าที่เราตระหนักในปัจจุบัน -
7:04 - 7:07และถ้าเราสร้างจักรกลที่ฉลาดกว่าเรา
-
7:07 - 7:09พวกมันก็น่าจะสำรวจตรวจค้น
ความชาญฉลาดเหล่านี้ -
7:09 - 7:11ในแบบที่เราคิดไม่ถึง
-
7:11 - 7:14และเหนือกว่าเราในแบบที่เราคิดไม่ถึง
-
7:15 - 7:19มันจำเป็นที่เราต้องยอมรับว่า
สิ่งนี้เป็นจริงไปแล้ว ในเรื่องความเร็ว -
7:19 - 7:24ใช่ไหมครับ ลองคิดดูว่า ถ้าเราแค่สร้าง
ปัญญาประดิษฐ์อัจฉริยะขึ้นมาสักเครื่อง -
7:24 - 7:28ที่ไม่ได้ฉลาดกว่ากลุ่มนักวิจัยทั่ว ๆ ไป
-
7:28 - 7:30ที่แสตนฟอร์ดหรือเอ็มไอที
-
7:30 - 7:33วงจรไฟฟ้านั้นทำงานได้เร็วกว่าวงจรชีวเคมี
-
7:33 - 7:34ประมาณหนึ่งล้านเท่า
-
7:35 - 7:38ดังนั้น จักรกลนี้ควรจะคิดได้เร็วกว่า
ปัญญาของมนุษย์ผู้สร้างมันขึ้นมา -
7:38 - 7:39ประมาณหนึ่งล้านเท่า
-
7:40 - 7:41เมื่อคุณเดินเครื่องนานหนึ่งสัปดาห์
-
7:41 - 7:46มันจะทำงานได้เท่ากับการทำงานโดยใช้
สติปัญญาในระดับของมนุษย์นาน 20,000 ปี -
7:46 - 7:48นานสัปดาห์แล้วสัปดาห์เล่า
-
7:50 - 7:54เราจะไปเข้าใจ หรือแม้แต่จำกัดขอบเขต
ของปัญญาประดิษฐ์ -
7:54 - 7:56ที่สร้างความก้าวหน้าแบบนี้ได้อย่างไร
-
7:57 - 7:59อีกเรื่องหนึ่งที่น่าวิตกกังวล
-
7:59 - 8:04คือ ลองจินตนาการถึงสถานการณ์ที่ดีที่สุด
-
8:04 - 8:08จินตนาการว่า เราค้นพบการออกแบบ
ปัญญาประดิษฐ์อันชาญฉลาด -
8:08 - 8:10ที่ไม่มีปัญหาเรื่องความปลอดภัย
-
8:10 - 8:13เรามีแบบที่สมบูรณ์เป็นครั้งแรก
-
8:13 - 8:15ราวกับว่าเราได้รับคำพยากรณ์
-
8:15 - 8:17ที่เป็นไปดังใจคิดเป๊ะ
-
8:17 - 8:21ครับ จักรกลนี้ก็น่าจะเป็นเครื่องมือ
ที่ประหยัดแรงงานได้อย่างสมบูรณ์แบบ -
8:22 - 8:24มันสามารถออกแบบจักรกล
ที่สามารถสร้างจักรกล -
8:24 - 8:26ซึ่งสามารถทำงานเชิงกายภาพอะไรก็ได้
-
8:26 - 8:27ใช้พลังจากแสงอาทิตย์
-
8:27 - 8:30โดยมีต้นทุนแค่ค่าวัตถุดิบ
-
8:30 - 8:33ดังนั้น เรากำลังพูดกันถึงการสิ้นสุด
ของงานหนักที่น่าเบื่อของมนุษย์ -
8:33 - 8:37เรากำลังพูดถึงการจบสิ้นของงาน
ที่ใช้สติปัญญามากที่สุดด้วยเช่นกัน -
8:37 - 8:40แล้วลิงจ๋ออย่างพวกเรานั้น
จะทำอย่างไรในสถานการณ์แบบนี้ -
8:40 - 8:44ครับ เราก็ว่างที่จะไปเล่นจานร่อน
แล้วก็ทำการนวดเฟ้นให้กันและกัน -
8:46 - 8:49เพิ่มการเสพสารแอลเอสดี
และเสื้อผ้าที่ดูไม่ออกว่าเป็นแนวไหน -
8:49 - 8:51และโลกทั้งใบก็คงกลายเป็น
งานเทศกาล Burning Man -
8:51 - 8:53(เสียงหัวเราะ)
-
8:54 - 8:56ครับ นั่นอาจจะฟังดูค่อนข้างจะดี
-
8:57 - 9:00แต่ลองถามตัวเองดูว่าจะเกิดอะไรขึ้น
-
9:00 - 9:02ภายใต้ระเบียบการเมืองและเศรษฐกิจ
ในปัจจุบันของเรานี้ -
9:02 - 9:05ดูเหมือนว่าเราน่าจะได้เห็น
-
9:05 - 9:09ความไม่เท่าเทียมของความมั่งคั่ง
และอัตราการว่างงานที่สูง -
9:09 - 9:11อย่างที่เราไม่เคยได้เห็นมาก่อน
-
9:11 - 9:13การขาดความเต็มใจ
ที่จะรีบนำความมั่งคั่งที่เกิดขึ้นใหม่นี้ -
9:13 - 9:15มารับใช้มนุษยชาติทั้งมวลในทันที
-
9:16 - 9:19ทำให้เศรษฐีระดับพันล้านบางราย
อาจเฉิดฉายบนปกนิตยสารธุรกิจ -
9:19 - 9:22ในขณะที่ส่วนอื่น ๆ ของโลก
กำลังอดอยากปากแห้งกัน -
9:22 - 9:25แล้วคนรัสเซียหรือคนจีนจะทำอย่างไร
-
9:25 - 9:27หากพวกเขารู้ว่าบางบริษัทในซิลิคอนแวลลีย์
-
9:27 - 9:30กำลังจะนำปัญญาประดิษฐ์ที่ชาญฉลาดมาใช้
-
9:30 - 9:33จักรกลที่ว่านี้อาจสามารถนำไปใช้
ในการศึกสงครามได้ -
9:33 - 9:35ไม่ว่าจะเป็นทางภาคพื้นโลก
หรือทางอินเทอร์เน็ต -
9:35 - 9:37ด้วยพละกำลังที่ไม่อาจประเมินได้
-
9:38 - 9:40นี่คือสถานการณ์แบบผู้ชนะได้ทุกอย่าง
-
9:40 - 9:43เพื่อที่จะนำหน้าไปหกเดือน
ในการแข่งขันนี้ -
9:43 - 9:46คือการที่เราต้องนำหน้าอยู่ 500,000 ปี
-
9:46 - 9:47เป็นอย่างน้อย
-
9:47 - 9:52ฉะนั้น จึงเหมือนกับว่า แม้เพียงข่าวลือ
ในเรื่องการค้นพบที่ยิ่งใหญ่แบบนี้ -
9:52 - 9:55ก็อาจเป็นเหตุให้ชาติพันธุ์ของเรา
บ้าระห่ำกันขึ้นมาได้ -
9:55 - 9:58ครับ สิ่งหนึ่งที่น่าหวาดกลัวที่สุด
-
9:58 - 10:00ในความเห็นของผม ในขณะนี้
-
10:00 - 10:05คือ สิ่งที่พวกนักวิจัยปัญญาประดิษฐ์พูดกัน
-
10:05 - 10:07เมื่อพวกเขาต้องการจะปลอบใจเรา
-
10:07 - 10:10และเหตุผลที่ธรรมดาที่สุดที่เขาบอกพวกเรา
ให้ไม่ต้องกังวลก็คือเรื่องเวลา -
10:10 - 10:13เรื่องนี้มันอีกนานนัก ไม่รู้หรอกหรือ
-
10:13 - 10:15มันน่าจะเป็นอีก 50 หรือ 100 ปี ข้างหน้า
-
10:16 - 10:17นักวิจัยคนหนึ่งเคยพูดว่า
-
10:17 - 10:19"กังวลเรื่องความปลอดภัยของปัญญาประดิษฐ์
-
10:19 - 10:21ก็จะเหมือนกับกังวล
เรื่องประชากรจะล้นดาวอังคาร" -
10:22 - 10:24นี่เป็นเรื่องราวในรูปแบบของซิลิคอนแวลลีย์
-
10:24 - 10:26ในการบอกว่า "ไม่ต้องเอาสมองน้อยๆ
มากังวลเรื่องนี้หรอก" -
10:26 - 10:27(เสียงหัวเราะ)
-
10:28 - 10:29ดูเหมือนจะไม่มีใครสังเกตเห็นว่า
-
10:29 - 10:32การอ้างถึงขอบเขตของเวลา
-
10:32 - 10:35เป็นคำพูดที่ไม่มีเหตุผลอย่างสิ้นเชิง
-
10:35 - 10:38ถ้าหากว่าความชาญฉลาดเป็นเพียง
เรื่องของการประมวลผลข้อมูล -
10:38 - 10:41และเรายังคงปรับปรุงจักรกลของเรา
ให้ดียิ่งขึ้นต่อไป -
10:41 - 10:44เราก็จะผลิตอะไรบางอย่างในรูปแบบ
สุดยอดความชาญฉลาดออกมา -
10:44 - 10:48และเราก็ไม่รู้เลยว่า
เราจะใช้เวลานานแค่ไหน -
10:48 - 10:50เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
ได้อย่างปลอดภัย -
10:52 - 10:53ขอผมยํ้าอีกครั้ง
-
10:54 - 10:57เราไม่รู้เลยว่าเราจะใช้เวลานานแค่ไหน
-
10:57 - 11:00เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
ได้อย่างปลอดภัย -
11:01 - 11:04และถ้าคุณยังไม่ทันสังเกตอีกล่ะก็
50 ปีนั้นไม่เป็นอย่างที่มันเคยเป็น -
11:04 - 11:07นี่คือ 50 ปีในอีกไม่กี่เดือน
-
11:07 - 11:09เรามีไอโฟนมานานเท่านี้
-
11:09 - 11:12"เดอะ ซิมพ์สันส์" ออกอากาศทางทีวี
มานานแค่นี้ -
11:13 - 11:15ห้าสิบปีไม่ใช่เวลาที่นานมาก
-
11:15 - 11:18ที่จะพบกับสิ่งท้าทายที่ยิ่งใหญ่ที่สุด
ที่ชาติพันธ์ุของเราจะเผชิญ -
11:20 - 11:24ยํ้าอีกครั้งนะครับ ดูเหมือนเรากำลังล้มเหลว
ที่จะมีการตอบสนองทางอารมณ์ที่เหมาะสม -
11:24 - 11:27ต่อสิ่งที่เราเชื่อได้ด้วยเหตุผล
ในทุก ๆ ด้าน ว่ามันกำลังมาถึง -
11:27 - 11:30นักวิทยาศาสตร์คอมพิวเตอร์ สจวร์ต รัสเซลล์
เปรียบเทียบไว้เป็นอย่างดีในเรื่องนี้ -
11:30 - 11:35เขาพูดว่า ลองจินตนาการดูว่า
เราได้รับข้อความจากอารยธรรมต่างดาว -
11:35 - 11:37ความว่า
-
11:37 - 11:39"มนุษย์โลก
-
11:39 - 11:41เราจะไปถึงดาวเคราะห์ของท่านในอีก 50 ปี
-
11:42 - 11:43เตรียมตัวให้พร้อมนะ"
-
11:43 - 11:48แล้วตอนนี้เราจะแค่นับเดือนถอยหลัง
จนยานแม่มาลงจอดบนพื้นโลกอย่างนั้นหรือ -
11:48 - 11:51เราน่าจะรู้สึกต้องรีบเร่งขึ้น
กว่าที่เราเป็นอยู่บ้าง -
11:53 - 11:55อีกเหตุผลหนึ่ง ที่เขาบอกเราไม่ให้กังวล
-
11:55 - 11:58คือจักรกลพวกนี้
ยังไงก็จะมีค่านิยมเหมือนกับเรา -
11:58 - 12:00เพราะแท้จริงแล้วมันจะเป็น
ส่วนต่อขยายออกไปของตัวเราเอง -
12:00 - 12:02พวกมันจะถูกเชื่อมต่อกับสมองของเรา
-
12:02 - 12:05หรือที่จริงคือ เรากลายเป็นสมองระบบลิมบิก
(ทำหน้าที่รับรู้อารมณ์) ของพวกมัน -
12:05 - 12:07ครับ มาพิจารณาสักครู่
-
12:07 - 12:10ว่าวิถีทางเดียวที่ปลอดภัยและรอบคอบ
ที่จะใช้ต่อไปข้างหน้า -
12:10 - 12:11ที่ได้รับการเสนอแนะมานั้น
-
12:11 - 12:14คือการปลูกถ่ายเทคโนโลยีนี้
เข้าสู่สมองของเราโดยตรง -
12:15 - 12:18ครับ จริง ๆ แล้วนี่อาจเป็นวิถีทางเดียว
ที่ปลอดภัยและรอบคอบที่จะใช้ต่อไป -
12:18 - 12:21แต่โดยปกติ ความกังวลเรื่อง
ความปลอดภัยของเทคโนโลยี -
12:21 - 12:25จะต้องได้รับการคลี่คลายให้ได้ไม่มากก็น้อย
ก่อนที่จะเอามันไปติดเข้าไปในหัวของเรา -
12:25 - 12:27(เสียงหัวเราะ)
-
12:27 - 12:32ปัญหาที่ลึกลํ้ากว่าก็คือการสร้าง
ปัญญาประดิษฐ์อัจฉริยะขึ้นมา โดยตัวมันเอง -
12:32 - 12:34ดูน่าจะง่ายกว่า
-
12:34 - 12:36การสร้างปัญญาประดิษฐ์อัจฉริยะ
-
12:36 - 12:38โดยมีประสาทวิทยาศาสตร์ที่สมบูรณ์แบบ
-
12:38 - 12:40ที่ทำให้เราหลอมรวมปัญญาความคิดของเรา
เข้ากับมันได้อย่างแนบเนียน -
12:41 - 12:44และถ้าคิดถึงว่า บริษัทและรัฐบาลทั้งหลาย
ที่กำลังทำงานนี้อยู่ -
12:44 - 12:48น่าจะรู้ดีว่าพวกเขานั้นกำลังแข่งขันกันอยู่
-
12:48 - 12:51เพราะว่าการเอาชนะการแข่งขันนี้ได้
คือการที่จะได้ครองโลก -
12:51 - 12:53ถ้าคุณไม่ทำลายมันในวินาทีต่อมาไปซะก่อน
-
12:53 - 12:56มันก็ดูน่าจะเป็นไปได้ว่า
อะไรก็ตามที่ทำได้ง่ายกว่า -
12:56 - 12:58ก็จะถูกทำเป็นอันดับแรก
-
12:59 - 13:01ครับ โชคไม่ดี ผมไม่มีวิธีแก้ปัญหานี้
-
13:01 - 13:04นอกเหนือจากการแนะนำ
ให้พวกเรานี้คิดถึงมันมากขึ้นกว่านี้ -
13:04 - 13:06ผมว่าเราต้องการอะไร
คล้ายๆ โครงการแมนฮัตตัน -
13:06 - 13:08ในหัวเรื่องปัญญาประดิษฐ์นี้
-
13:08 - 13:12ไม่ใช่เพื่อจะสร้างมัน เพราะผมว่า
มันต้องเกิดแน่ เลี่ยงไม่ได้อยู่แล้ว -
13:12 - 13:15แต่เพื่อให้เข้าใจถึงวิธีที่จะหลีกเลี่ยง
การแข่งขันกันสะสมอาวุธ -
13:15 - 13:18และสร้างมันขึ้นมา ในแบบที่
สอดคล้องกับผลประโยชน์ของเรา -
13:18 - 13:20เมื่อเราพูดกันถึงปัญญาประดิษฐ์อัจฉริยะ
-
13:20 - 13:23ที่สามารถเปลี่ยนแปลงตัวมันได้เอง
-
13:23 - 13:27ก็ดูเหมือนว่า เรามีเพียงโอกาสเดียว
ที่จะทำให้สภาพการณ์เริ่มแรกนั้นถูกต้อง -
13:27 - 13:29และถึงกระนั้น เราก็จำเป็นจะต้องซึมซับ
-
13:29 - 13:32ผลสืบเนื่องทางการเมืองและเศรษฐกิจ
ของการที่ต้องทำให้มันถูกต้อง -
13:34 - 13:36แต่ ณ วินาทีที่เรายอมรับ
-
13:36 - 13:40ว่าการประมวลข้อมูล
เป็นแหล่งที่มาของความชาญฉลาด -
13:41 - 13:46ว่าระบบคอมพิวเตอร์ที่เหมาะสมบางอย่างนั้น
คือสิ่งที่เป็นพื้นฐานของความชาญฉลาด -
13:46 - 13:50และเราก็ยอมรับว่า เราจะปรับปรุง
ระบบเหล่านี้อย่างต่อเนื่อง -
13:51 - 13:56และเรายอมรับว่า มันเป็นไปได้มากว่า
ขอบเขตของปัญญารู้คิดจะไกลเกินกว่า -
13:56 - 13:58สิ่งที่เรารู้ในปัจจุบัน
-
13:58 - 14:00แล้วเราก็ต้องยอมรับ
-
14:00 - 14:03ว่าเราอยู่ในกระบวนการ
ของการสร้างเทพเจ้าบางอย่างขึ้นมา -
14:03 - 14:05ขณะนี้ จึงน่าจะเป็นช่วงเวลาที่ดี
-
14:05 - 14:08ที่เราจะทำให้แน่ใจว่าเทพเจ้าองค์นั้น
จะเป็นเทพที่อยู่ร่วมกับเราได้ -
14:08 - 14:10ขอบคุณมากครับ
-
14:10 - 14:15(เสียงปรบมือ)
- Title:
- เราจะสามารถสร้างปัญญาประดิษฐ์โดยไม่สูญเสียการควบคุมมันได้หรือไม่
- Speaker:
- แซม แฮร์ริส (Sam Harris)
- Description:
-
คุณกลัวปัญญาประดิษฐ์ (AI) เจ้าปัญญาหรือไม่ครับ คุณควรจะกลัวนะ แซม แฮร์ริส นักปรัชญาและประสาทวิทยาศาสตร์ กล่าว -- แล้วก็ไม่ใช่แค่กลัวในเชิงทฤษฎีหรอกนะ แฮริสกล่าวว่า พวกเรากำลังจะสร้างจักรกลยอดมนุษย์ขึ้นมา แต่เรายังทำไม่สำเร็จในเรื่องการปลุกปลํ้าเพื่อเอาชนะปัญหาที่เกี่ยวกับการสร้างบางสิ่งบางอย่าง ที่อาจปฏิบัติต่อเราอย่างที่เราปฏิบัติกับพวกมด
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Kelwalin Dhanasarnsombut approved Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Kelwalin Dhanasarnsombut accepted Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Thipnapa Huansuriya rejected Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Thipnapa Huansuriya edited Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Thipnapa Huansuriya edited Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Kelwalin Dhanasarnsombut accepted Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Kelwalin Dhanasarnsombut edited Thai subtitles for Can we build AI without losing control over it? | |
![]() |
Kelwalin Dhanasarnsombut edited Thai subtitles for Can we build AI without losing control over it? |