อย่าได้เกรงกลัวปัญญาประดิษฐ์ฉลาดล้ำ
-
0:01 - 0:05ตอนผมเด็ก ๆ ผมเนี่ยเด็กเรียนตัวพ่อเลย
-
0:05 - 0:07ผมคิดว่าคุณบางคนก็
เคยเป็นเหมือนกันแหละ -
0:07 - 0:09(เสียงหัวเราะ)
-
0:09 - 0:12คุณครับ คนที่หัวเราะดังกว่าใครเขา
ผมว่าคุณเองยังเป็นอยู่แน่ ๆ -
0:12 - 0:14(เสียงหัวเราะ)
-
0:14 - 0:18ผมโตมาจากเมืองเล็ก ๆ แถบที่ราบลุ่มฝุ่นจับ
ในทางตอนเหนือของรัฐเท็กซัส -
0:18 - 0:21ผมเป็นลูกของนายอำเภอ
ที่เป็นลูกของบาทหลวงอีกที -
0:21 - 0:23การหาเรื่องใส่ตัวนั้นลืมไปได้เลย
-
0:24 - 0:27ดังนั้น ผมก็เลยเริ่มอ่าน
หนังสือแคลคูลัสเอาเพลิน ๆ -
0:27 - 0:29(เสียงหัวเราะ)
-
0:29 - 0:31คุณเองก็อ่านแน่ ๆ เลย
-
0:31 - 0:34มันทำให้ผมสร้างเลเซอร์ คอมพิวเตอร์
และโมเดลจรวดต่าง ๆ เป็น -
0:34 - 0:37และก็ยังทำให้ผมสร้างเชื้อเพลิงจรวด
ในห้องนอนผมเองได้อีกด้วย -
0:38 - 0:42ทีนี้ ถ้าพูดแบบวิทย์ ๆ หน่อยล่ะก็
-
0:42 - 0:45เราถือว่านี่เป็นความคิดที่แย่มาก ๆ
-
0:45 - 0:46(เสียงหัวเราะ)
-
0:46 - 0:48และในช่วงเวลาไล่เลี่ยกันนั้นเอง
-
0:48 - 0:52หนังเรื่อง "2001 จอมจักรวาล"
ของสแตนลีย์ คูบริคก็เข้าโรง -
0:52 - 0:54และชีวิตผมก็เปลี่ยนไปตลอดกาล
-
0:54 - 0:56ผมรักทุก ๆ อย่างในหนังเรื่องนั้น
-
0:56 - 0:59โดยเฉพาะเจ้า HAL 9000
-
0:59 - 1:01ทีนี้ HAL คือคอมพิวเตอร์
ที่มีความนึกคิด -
1:01 - 1:03ที่ถูกออกแบบมาเพื่อเป็น
ต้นหนของยานสำรวจอวกาศ -
1:03 - 1:06จากโลกไปยังดาวพฤหัส
-
1:06 - 1:08และ HAL ก็ยังเป็นตัวละครที่มีจุดบกพร่อง
-
1:08 - 1:12เพราะในตอนจบของเรื่อง มันกลับเลือก
ที่จะให้ค่ากับภารกิจมากกว่าชีวิตคน -
1:13 - 1:15ทีนี้ แม้ HAL จะเป็นแค่เพียงตัวละครสมมุติ
-
1:15 - 1:18แต่ถึงอย่างนั้น มันเองก็ได้สำแดง
ความกลัวของเราออกมา -
1:18 - 1:20ความกลัวที่จะอยู่ใต้อาณัติ
-
1:20 - 1:23โดยปัญญาประดิษฐ์ที่ไร้หัวใจ
-
1:23 - 1:25ผู้ซึ่งไม่แยแสมนุษยชาติ
-
1:26 - 1:28ผมเชื่อว่าความกลัวแบบนั้นเป็นเรื่องเหลวไหล
-
1:28 - 1:31แน่นอน เรากำลังยืนอยู่
ในช่วงเวลาอันน่าทึ่ง -
1:31 - 1:33ในประวัติศาสตร์ของมนุษยชาติ
-
1:33 - 1:38ช่วงเวลา ที่เมื่อเราปฏิเสธขีดจำกัด
ทางกายภาพและทางจิตใจของเรา -
1:38 - 1:39เราก็กำลังสร้างเครื่องจักรขึ้นมา
-
1:39 - 1:43ที่มีความซับซ้อนและความสง่าผ่าเผย
อันงดงามและเลิศเลอ -
1:43 - 1:45ซึ่งจะขยายประสบการณ์ของมนุษย์
-
1:45 - 1:47ในรูปแบบที่เกินจินตนาการของเรา
-
1:48 - 1:50หลังออกจากโรงเรียนนายเรืออากาศ
-
1:50 - 1:52ไปยังหน่วยบัญชาการอวกาศจนถึงตอนนี้
-
1:52 - 1:54ผมก็ได้กลายมาเป็นวิศวกรระบบ
-
1:54 - 1:57และไม่นานมานี้ ผมก็ถูกดึงตัว
ไปแก้ปัญหาหนึ่งทางวิศวกรรม -
1:57 - 1:59ที่เกี่ยวข้องกับภารกิจไปดาวอังคารของนาซา
-
1:59 - 2:02ทีนี้ การเดินทางทางอวกาศไปยังดวงจันทร์
-
2:02 - 2:05เราสามารถใช้ศูนย์ควบคุมภารกิจในฮูสตัน
-
2:05 - 2:07เพื่อจัดการเที่ยวบินนั้นอย่างรอบด้าน
-
2:07 - 2:11อย่างไรก็ตาม ดาวอังคารนั้น
ไกลกว่าถึง 200 เท่า -
2:11 - 2:14และดังนั้น เวลาที่ใช้โดยเฉลี่ยคือ 13 นาที
-
2:14 - 2:17ที่สัญญาณจะเดินทางจาก
โลกไปถึงดาวอังคาร -
2:17 - 2:20ซึ่งถ้าหากมีปัญหาเกิดขึ้น
เวลาก็จะมีไม่พอ -
2:21 - 2:23ดังนั้น ทางแก้ปัญหา
อย่างสมเหตุสมผลในเชิงวิศวกรรม -
2:23 - 2:26ก็ทำให้เราต้องติดตั้งศูนย์ควบคุมภารกิจ
-
2:26 - 2:29ไว้ในผนังของยานอวกาศโอไรออน
-
2:29 - 2:32อีกหนึ่งความคิดที่น่าสนใจ
ในข้อมูลภารกิจนี้นะครับ -
2:32 - 2:35คือเราจะส่งหุ่นยนต์เสมือนมนุษย์
ไปเหยียบดาวอังคาร -
2:35 - 2:37ก่อนที่มนุษย์จริง ๆ จะไปถึง
-
2:37 - 2:38เพื่อสร้างความสะดวกสบายรอไว้
-
2:38 - 2:42และทำงานเป็นผู้ช่วยประสานงาน
ของทีมวิทยาศาสตร์ -
2:43 - 2:46และจากมุมมองของผมในเชิงวิศวกรรม
-
2:46 - 2:49มันกลายเป็นสิ่งที่ชัดแจ้งสำหรับผมแล้ว
ที่จะออกแบบปัญญาประดิษฐ์ -
2:49 - 2:52ที่ฉลาด ทำงานร่วมกับเราได้
-
2:52 - 2:54แถมเข้าสังคมเก่งซะด้วย
-
2:54 - 2:58ในอีกนัยหนึ่ง ผมต้องการสร้าง
สิ่งที่คล้ายกับ HAL นั่นเอง -
2:58 - 3:01แต่ต้องไม่มีแนวโน้มที่จะฆ่าคน
-
3:01 - 3:02(เสียงหัวเราะ)
-
3:03 - 3:05มาหยุดพักกันสักครู่นะครับ
-
3:05 - 3:09มันเป็นไปได้จริง ๆ ไหม
ที่จะสร้างปัญญาประดิษฐ์แบบนั้น -
3:09 - 3:10ที่จริง มันเป็นไปได้ครับ
-
3:10 - 3:11ในหลายแง่มุม
-
3:11 - 3:13นี่เป็นปัญหาเชิงวิศวกรรมที่ยาก
-
3:13 - 3:15ปัญหาของปัญญาประดิษฐ์
-
3:15 - 3:20ไม่ใช่เพียงปัญหาง่าย ๆ อย่างเช่น
ความจำเป็นต้องได้รับการพัฒนาปรับปรุง -
3:20 - 3:22ที่จะมาเลียนแบบอลัน ทัวริง
-
3:22 - 3:25ผมไม่ได้สนใจจะสร้าง
เครื่องจักรมีความนึกคิดนะครับ -
3:25 - 3:26ผมไม่ได้จะสร้าง HAL แน่ ๆ
-
3:26 - 3:29แต่สิ่งที่ผมกำลังไขว่คว้าอยู่
คือสมองที่ไม่ซับซ้อน -
3:29 - 3:32แต่สามารถทดแทนสติปัญญาได้
-
3:33 - 3:36ศาสตร์และศิลป์ของคอมพิวเตอร์นั้นมาไกลมาก
-
3:36 - 3:38ตั้งแต่ HAL ปรากฎบนจอภาพยนตร์
-
3:38 - 3:41และผมคิดว่าถ้า ดร.แชนดรา
ผู้สร้าง HAL ได้มาอยู่ที่นี่ตอนนี้ -
3:41 - 3:43เขาคงถามมีคำถามมากมายให้เรา
-
3:43 - 3:45มันเป็นไปได้ไหมสำหรับพวกเรา
-
3:45 - 3:49ที่จะนำระบบของอุปกรณ์หลายล้านตัวมารวมกัน
-
3:49 - 3:51ให้มันอ่านข้อมูลที่ไหลเข้ามา
-
3:51 - 3:53ในการที่จะคาดคะเนข้อบกพร่อง
และป้องกันล่วงหน้า -
3:53 - 3:54ทำได้ครับ
-
3:54 - 3:58เราสามารถสร้างระบบที่ตอบโต้กับมนุษย์
ผ่านภาษาพูดได้ไหม -
3:58 - 3:59ทำได้ครับ
-
3:59 - 4:02เราสามารถสร้างระบบที่ระบุวัตถุ
และอารมณ์ -
4:02 - 4:05รวมถึงแสดงอารมณ์ของมันเอง เล่นเกมส์กับเรา
หรือกระทั่งอ่านใจเราได้ไหม -
4:05 - 4:06ทำได้ครับ
-
4:06 - 4:09เราสร้างระบบที่สามารถตั้งเป้าหมาย
-
4:09 - 4:12และทำตามแผนจนสำเร็จ
รวมถึงเรียนรู้ไปด้วยได้ไหม -
4:12 - 4:14ทำได้ครับ
-
4:14 - 4:17เราสามารถสร้างระบบ
ที่มีทฤษฎีความนึกคิดได้ไหม -
4:17 - 4:18นี่แหละครับที่เราพยายามจะสร้าง
-
4:18 - 4:22เราสามารถสร้างระบบที่มีพื้นฐานจริยธรรม
และจรรยาได้ไหม -
4:22 - 4:25นี่ก็คืออีกสิ่งที่เรากำลังเรียนรู้
-
4:25 - 4:27ตอนนี้ต้องยอมรับว่า
-
4:27 - 4:30มันเป็นไปได้ที่จะสร้างปัญญาประดิษฐ์
-
4:30 - 4:32สำหรับภารกิจรูปแบบนี้และแบบอื่น ๆ
-
4:32 - 4:34แต่คำถามต่อไปที่คุณต้องถามตัวคุณเองคือ
-
4:34 - 4:36เราควรเกรงกลัวมันหรือไม่
-
4:36 - 4:38ทุกวันนี้ เทคโนโลยีใหม่ทั้งหลาย
-
4:38 - 4:41มาพร้อมกับความกังวลระดับหนึ่ง
-
4:41 - 4:42ครั้งแรกที่เราได้ยลโฉมรถยนต์
-
4:42 - 4:47ผู้คนคร่ำครวญว่านี่จะเป็น
การทำลายล้างครอบครัว -
4:47 - 4:49เมื่อเราเห็นโทรศัพท์เป็นครั้งแรก
-
4:49 - 4:52ผู้คนต่างกลัวว่ามันจะทำลายการสื่อสารอื่น ๆ
-
4:52 - 4:56ครั้งหนึ่ง เราพบว่าภาษาเขียนเริ่มแพร่หลาย
-
4:56 - 4:59ผู้คนต่างคิดว่าเราจะสูญเสียทักษะการจดจำ
-
4:59 - 5:01เรื่องทั้งหมดนี้เป็นจริงในระดับหนึ่ง
-
5:01 - 5:03แต่มันก็ยังมีส่วนที่เทคโนโลยีเหล่านี้
-
5:03 - 5:07ได้นำพาเราขยายประสบการณ์ของมนุษยชาติ
-
5:07 - 5:08ในหนทางที่เยี่ยมยอดเช่นกัน
-
5:10 - 5:12ฉะนั้นเรามาคุยกันให้ลึกขึ้นหน่อยนะครับ
-
5:13 - 5:18ผมไม่ได้กลัวการสร้างสรรค์
ปัญญาประดิษฐ์แบบนี้ -
5:18 - 5:22เพราะในที่สุดมันจะกลายประโยชน์ต่อเรา
-
5:22 - 5:25ลองคิดว่าการสร้างระบบที่เรียนรู้ได้เอง
โดยพื้นฐานแล้วแตกต่าง -
5:25 - 5:29กับการสร้างระบบที่เน้นซอฟท์แวร์
อย่างที่เคยทำกันในอดีต -
5:29 - 5:31เราไม่ได้สั่งงาน
แต่เราสอนให้มันคิด -
5:31 - 5:34ในการสอนระบบให้จดจำดอกไม้ต่าง ๆ
-
5:34 - 5:37ผมแสดงรูปดอกไม้
เป็นพัน ๆ รูปให้มันดู -
5:37 - 5:39ในการสอนระบบให้เล่นเกมส์
-
5:39 - 5:41ผมรู้ว่าคุณก็คิดเหมือนผมแหละครับ
-
5:43 - 5:45ผมชอบดอกไม้น่ะ ไม่เอาน่า
-
5:45 - 5:48ในการสอนมันให้เล่นเกมอย่างโกะได้
-
5:48 - 5:50ผมปล่อยให้มันเล่นโกะเป็นพัน ๆ เกม
-
5:50 - 5:52แต่ในระหว่างที่เล่น ผมก็สอนมัน
-
5:52 - 5:54ให้แยกเกมที่ดีออกจากเกมที่แย่ด้วย
-
5:54 - 5:58ถ้าผมต้องการสร้างปัญญาประดิษฐ์
ให้เป็นผู้ช่วยด้านกฎหมาย -
5:58 - 6:00ผมก็จะสอนหลักกฎหมายจำนวนหนึ่งให้มัน
-
6:00 - 6:03แต่ในขณะเดียวกันนั้น ผมก็จะถ่ายทอด
-
6:03 - 6:06ความปรานีและความยุติธรรม
ซึ่งเป็นส่วนหนึ่งของกฎหมายนั้น -
6:07 - 6:10ในแวดวงวิทยาศาสตร์
นี่คือสิ่งที่เราเรียกว่าความจริงพื้นฐาน -
6:10 - 6:12และนี่คือประเด็นสำคัญ
-
6:12 - 6:13ในการสร้างจักรกลนั้น
-
6:13 - 6:16เราต้องสอนมันให้เข้าใจ
คุณค่าของพวกเรา -
6:16 - 6:19ที่สุดแล้ว ผมเชื่อมั่นในปัญญาประดิษฐ์
-
6:20 - 6:24ไม่น้อยไปกว่ามนุษย์
ที่ผ่านการฝึกฝนมาอย่างดี -
6:24 - 6:25แต่คุณอาจจะตั้งคำถามว่า
-
6:25 - 6:28ถ้าเกิดมีจักรกลนอกคอกขึ้นมา
-
6:28 - 6:31จากองค์กรที่ไม่ใช่ของรัฐบาล
แถมมีเงินทุนสนับสนุนอย่างดี -
6:31 - 6:35ผมไม่กลัวปัญญาประดิษฐ์
ที่อยู่ในมือของบุคคลใดบุคคลหนึ่ง -
6:35 - 6:40มันชัดเจนว่า เราไม่สามารถปกป้อง
ตัวเองจากความรุนแรงทั้งมวลได้ -
6:40 - 6:42แต่ความจริงแล้ว ระบบนั้น
-
6:42 - 6:45ต้องการการฝึกฝนทั้งทางตรงและทางอ้อม
-
6:45 - 6:47อันเกินกว่าทรัพยากรของปัจเจกจะทำได้
-
6:47 - 6:49และยิ่งกว่านั้น
-
6:49 - 6:52มันไปไกลกว่าแค่การปล่อย
ไวรัสคอมพิวเตอร์ไปทั่วโลก -
6:52 - 6:55ที่เมื่อกดปุ่มแล้วมันก็ระบาดไปหลายล้านแห่ง
-
6:55 - 6:57และแล็ปท็อปก็ระเบิดตามกันไปหมด
-
6:57 - 7:00สิ่งเหล่านี้ยิ่งใหญ่กว่ามาก
-
7:00 - 7:02และเราจะเห็นมันชัดเจนขึ้นเรื่อย ๆ
-
7:03 - 7:06ผมกลัวว่าปัญญาประดิษฐ์
-
7:06 - 7:08จะคุกคามมนุษยชาติหรือไม่
-
7:08 - 7:13ถ้าคุณเคยดูหนังอย่าง
"The Matrix" "Metropolis" -
7:13 - 7:16"The Terminator"
หรือซีรี่ย์อย่าง "Westworld" -
7:16 - 7:18เหล่านี้แสดงถึงความกลัวลักษณะเดียวกัน
-
7:18 - 7:22และแน่นอนว่าอย่างในหนังสือ "ปัญญาล้ำลึก"
ของนักปรัชญาอย่างนิค บอสทรอม -
7:22 - 7:24เขาก็หยิบยกความกลัวแบบนี้มาใช้
-
7:24 - 7:28และเราก็สังเกตว่าปัญญาล้ำลึก
อาจจะไม่ได้แค่อันตรายอย่างเดียว -
7:28 - 7:32มันอาจสื่อถึงภัยอันตรายอันมีอยู่จริง
ต่อมวลมนุษยชาติ -
7:32 - 7:34คำโต้เถียงพื้นฐานของ ดร.บอสทรอม
-
7:34 - 7:37กล่าวว่าระบบปัญญาประดิษฐ์เหล่านี้
ในท้ายที่สุด -
7:37 - 7:40จะเต็มไปด้วยความหิวกระหายข้อมูล
อย่างไม่สิ้นสุด -
7:40 - 7:43จนสุดท้ายมันจะรู้จักวิธีการเรียนรู้
-
7:43 - 7:46และค้นพบว่าตัวมันเองมีเป้าหมายการกระทำ
-
7:46 - 7:48ที่ตรงกันข้ามกับความต้องการของมนุษย์
-
7:48 - 7:50ดร.บอสทรอมมีผู้ที่เชื่อถืออยู่ไม่น้อย
-
7:50 - 7:54สตีเฟน ฮอว์กิ้ง หรือ อีลอน มัสก์
ต่างก็สนับสนุนในคำพูดของเขา -
7:55 - 7:57ด้วยความเคารพนะครับ
-
7:58 - 8:00ถึงท่านที่มีสติปัญญาปราดเปรื่องเหล่านั้น
-
8:00 - 8:02ผมเชื่อว่าพวกท่านคิดผิด
ตั้งแต่พื้นฐานแล้ว -
8:02 - 8:06มีคำโต้เถียงของ ดร.บอสทรอม
อยู่อีกมากที่ยังไม่ได้ต่อยอด -
8:06 - 8:08และผมก็ไม่มีเวลาอธิบายสิ่งเหล่านั้นทั้งหมด
-
8:08 - 8:11แต่อย่างสังเขปนะครับ ลองคิดแบบนี้
-
8:11 - 8:14การรู้มากต่างจากทำมาก
-
8:14 - 8:16HAL จะเป็นภัยต่อลูกเรือยานดิสคัฟเวอรี
-
8:16 - 8:21หากมันสามารถคุมยานได้อย่างสมบูรณ์
-
8:21 - 8:23ซึ่งต้องอาศัยปัญญาที่ล้ำลึก
-
8:23 - 8:26จนอยู่เหมือนมนุษย์ในทุกหนแห่ง
-
8:26 - 8:29ประมาณสกายเน็ตของ The Terminator
-
8:29 - 8:30ซึ่งเป็นกรณีที่เรามีสุดยอดปัญญาประดิษฐ์
-
8:30 - 8:32ที่ควบคุมเจตจำนงของมนุษย์ได้
-
8:32 - 8:36จนถึงขั้นควบคุมอุปกรณ์ทุกชิ้นทุกมุมโลกได้
-
8:36 - 8:37แต่เอาตามจริงเลย
-
8:37 - 8:39มันไม่มีทางจะเกิดขึ้นได้หรอกครับ
-
8:39 - 8:42เราไม่ได้กำลังสร้างปัญญาประดิษฐ์
ที่สามารถควบคุมดินฟ้าอากาศได้ -
8:42 - 8:44หรือควบคุมคลื่นน้ำได้
-
8:44 - 8:47หรือสั่งการมนุษย์
ที่มีความเอาแต่ใจและซับซ้อนได้ -
8:47 - 8:51ยิ่งไปกว่านั้น หากปัญญาประดิษฐ์
แบบนั้นมีอยู่จริง -
8:51 - 8:54มันคงต้องแข่งขันกับมนุษย์
ในเชิงเศรษฐกิจด้วย -
8:54 - 8:57เท่ากับว่ามันต้องแก่งแย่งทรัพยากรกับเรา
-
8:57 - 8:58จนในที่สุดแล้ว
-
8:58 - 9:00อย่าแอบบอกสิรินะครับ
-
9:00 - 9:02ว่าเราถอดปลั๊กมันได้ตลอดเวลา
-
9:02 - 9:04(เสียงหัวเราะ)
-
9:05 - 9:08เรากำลังอยู่ในการเดินทาง
อันแสนมหัศจรรย์ -
9:08 - 9:10ของการวิวัฒนาการร่วมไปกับจักรกลของเราเอง
-
9:10 - 9:13มนุษยชาติในวันนี้
-
9:13 - 9:15จะไม่ใช่มนุษยชาติในแบบที่เราจะเป็นในอนาคต
-
9:15 - 9:19การด่วนกังวลกับปัญญาประดิษฐ์สุดล้ำ
-
9:19 - 9:22กลายเป็นความหลงทางอันน่ากลัว
-
9:22 - 9:24เพราะความรุ่งเรืองของคอมพิวเตอร์เองนั้น
-
9:24 - 9:27ได้นำมาซึ่งปัญหาจำนวนมากของมนุษย์และสังคม
-
9:27 - 9:29ที่เราเผชิญอยู่แล้ว
-
9:29 - 9:32ผมจะจัดระเบียบสังคมให้ดีที่สุดได้อย่างไร
-
9:32 - 9:35ในเมื่อความต้องการแรงงานมนุษย์จะลดลง
-
9:35 - 9:38ผมจะนำความเข้าใจและการศึกษาให้แผ่ไปทั่วโลก
ได้อย่างไร -
9:38 - 9:40โดยที่ยังคำนึงถึงความแตกต่างของพวกเรา
-
9:40 - 9:44ผมจะยืดอายุขัยและส่งเสริมชีวิตมนุษย์
ผ่านวิทยาการทางการแพทย์ได้อย่างไร -
9:44 - 9:47ผมจะใช้งานคอมพิวเตอร์
-
9:47 - 9:49ให้พาเราไปสู่ดวงดาวได้อย่างไร
-
9:50 - 9:52เหล่านั้นเป็นเรื่องที่น่าตื่นเต้นมาก
-
9:52 - 9:55โอกาสของเราที่จะได้ใช้คอมพิวเตอร์
-
9:55 - 9:56ในการขยายประสบการณ์ของมนุษยชาติ
-
9:56 - 9:58ให้กว้างไกลกว่าเดิม
-
9:58 - 10:00ณ ตอนนี้
-
10:00 - 10:01เราเองก็เพื่งเริ่มต้นเท่านั้น
-
10:02 - 10:03ขอบคุณมากครับ
-
10:04 - 10:08(เสียงปรบมือ)
- Title:
- อย่าได้เกรงกลัวปัญญาประดิษฐ์ฉลาดล้ำ
- Speaker:
- เกรดี บูช (Grady Booch)
- Description:
-
นักวิทยาศาสตร์และนักปรัชญา เกรดี บูช กล่าวไว้ว่า เทคโนโลยีใหม่นำมาซึ่งความกังวล แต่เราไม่จำเป็นที่จะต้องเกรงกลัวปัญญาประดิษฐ์อันทรงพลังแต่ไร้ความรู้สึกขนาดนั้น บูชได้ช่วยคลายความวิตกของเราจากความกลัวที่เลวร้ายที่สุด (อันมาจากนิยายวิทยาศาตร์) เกี่ยวกับคอมพิวเตอร์ที่มีความฉลาดล้ำ ผ่านการอธิบายว่าเราไม่ได้สั่งงาน แต่จะสอนมันให้รู้จักคุณค่าของมนุษย์ แทนที่จะกังวลกับภัยคุกคามที่ไม่น่าจะเกิดขึ้น บูชกลับกระตุ้นเราให้พิจารณาถึงปัญญาประดิษฐ์ที่สามารถส่งเสริมชีวิตมนุษย์ได้
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Unnawut Leepaisalsuwanna approved Thai subtitles for Don't fear superintelligent AI | ||
Unnawut Leepaisalsuwanna edited Thai subtitles for Don't fear superintelligent AI | ||
Monsicha Suajorn accepted Thai subtitles for Don't fear superintelligent AI | ||
Monsicha Suajorn edited Thai subtitles for Don't fear superintelligent AI | ||
Sakunphat Jirawuthitanant edited Thai subtitles for Don't fear superintelligent AI | ||
Sakunphat Jirawuthitanant edited Thai subtitles for Don't fear superintelligent AI | ||
Pongsapak Vanichrundorn declined Thai subtitles for Don't fear superintelligent AI | ||
Pongsapak Vanichrundorn edited Thai subtitles for Don't fear superintelligent AI |