Return to Video

อันตรายของ AI มันประหลาดกว่าที่คุณคิด

  • 0:02 - 0:05
    ปัญญาประดิษฐ์
  • 0:05 - 0:08
    สิ่งประดิษฐ์ที่เข้ามาแทรกแซง
    อุตสาหกรรมทุกชนิด
  • 0:09 - 0:11
    แล้วกับไอศครีมล่ะ
  • 0:12 - 0:16
    รสชาติสุดตะลึงแบบไหนกัน
    ที่เราสามารถสร้างได้
  • 0:16 - 0:19
    ด้วยพลังของปัญญาประดิษฐ์ขั้นสูง
  • 0:19 - 0:23
    ฉันจึงจับกลุ่มกับนักเขียนโค้ด
    จากโรงเรียนมัธยมต้น Kealing
  • 0:23 - 0:25
    เพื่อค้นหาคำตอบของคำถามนี้
  • 0:25 - 0:31
    พวกเขารวบรวมไอศครีมทั้งหมด
    1,600 รสชาติ ที่มีอยู่
  • 0:31 - 0:36
    และเราก็ป้อนเข้าอัลกอริทึม
    เพื่อดูว่ามันจะสร้างอะไร
  • 0:36 - 0:40
    และนี่คือบางรสที่ AI คิดขึ้นมา
  • 0:40 - 0:42
    [ขยะฟักทอง]
  • 0:42 - 0:43
    (เสียงหัวเราะ)
  • 0:43 - 0:47
    [แยมเนยถั่วเหนียวเหนอะหนะ]
  • 0:47 - 0:48
    [โรคครีมสตรอเบอรี่]
  • 0:48 - 0:50
    (เสียงหัวเราะ)
  • 0:50 - 0:55
    รสชาติพวกนี้ไม่อร่อยเอาซะเลย
    ในขณะที่เราหวังว่าพวกเขาจะ
  • 0:55 - 0:57
    งั้นคำถามก็คือ มันเกิดอะไรขึ้น
  • 0:57 - 0:58
    มันผิดพลาดตรงไหน
  • 0:58 - 1:00
    นี่ AI พยายามจะฆ่าเราหรอ
  • 1:01 - 1:06
    หรือมันพยายามทำตามที่เราสั่ง
    และมันเป็นปัญหาหรอ
  • 1:07 - 1:09
    ในภาพยนต์ เมื่อมีบางอย่างผิดปกติกับ AI
  • 1:09 - 1:12
    มันเป็นเพราะ AI เป็นคนตัดสินใจว่า
  • 1:12 - 1:14
    มันไม่จำเป็นที่จะต้องทำตามคำสั่ง
    มนุษย์อีกต่อไป
  • 1:14 - 1:16
    และมันมีเป้าหมายของมันเอง
    ขอบคุณมากๆเลย
  • 1:17 - 1:21
    ในความเป็นจริง ถึงแม้ AI ที่เรามี
  • 1:21 - 1:23
    ยังไม่ฉลาดพอที่จะทำเช่นนั้น
  • 1:23 - 1:26
    มันมีพลังในการคำนวณโดยประมาณ
  • 1:26 - 1:27
    พอๆกับไส้เดือนดิน
  • 1:27 - 1:31
    หรืออาจจะพอๆกับผึ้งแค่ตัวเดียว
  • 1:31 - 1:33
    อันที่จริง อาจจะน้อยกว่าด้วยซ้ำ
  • 1:33 - 1:35
    เนื่องเพราะเราเรียนรู้สิ่งใหม่เกี่ยวกับสมอง
  • 1:35 - 1:39
    นี่ทำให้รู้ชัดว่า AI ยังเทียบไม่ได้กับสมองคนมนุษย์
  • 1:39 - 1:45
    ดังนั้นทุกวันนี้ AI สามารถทำงาน
    อย่างระบุคนเดินเท้าในภาพ
  • 1:45 - 1:48
    แต่มันไม่ได้มีความคิดที่ว่า
    อะไรคือคนเดินเท้า
  • 1:48 - 1:54
    มากไปกว่าว่ามันคือชุด
    ของเส้น พื้นผิวและสิ่งของ
  • 1:54 - 1:57
    มันไม่รู้เลยว่าจริงๆแล้วมนุษย์คืออะไร
  • 1:57 - 2:00
    ดังนั้นทุกวันนี้ AI
    จะทำในสิ่งที่เราสั่งให้ทำ
  • 2:00 - 2:02
    มันจะทำถ้ามันทำได้
  • 2:02 - 2:04
    แต่มันอาจไม่ทำในสิ่งที่เราต้องการ
  • 2:04 - 2:07
    งั้นลองคิดว่าคุณ
    พยายามใช้ AI
  • 2:07 - 2:10
    เพื่อรวบรวมชิ้นส่วนหุ่นยนต์นี้
  • 2:10 - 2:14
    และประกอบมันกลายเป็นหุ่นยนต์
    เพื่อไปจากจุด A ไปจุด B
  • 2:14 - 2:16
    ตอนนี้ ถ้าคุณกำลังพยายาม
    และแก้โจทย์นี้อยู่
  • 2:16 - 2:19
    โดยการเขียนโค้ดแบบเดิม
  • 2:19 - 2:22
    คุณจะให้โปรแกรม
    ทำตามคำแนะนำทีละขั้นตอน
  • 2:22 - 2:23
    วิธีการใช้ชิ้นส่วนเหล่านี้
  • 2:23 - 2:26
    วิธีประกอบมันให้กลายเป็นหุ่นยนต์ที่มีขา
  • 2:26 - 2:29
    และจากนั้นคือวิธีใช้ขาพวกนั้นไปให้ถึงจุด B
  • 2:29 - 2:32
    แต่เมื่อคุณใช้ AI
    เพื่อแก้โจทย์นี้
  • 2:32 - 2:33
    มันต่างกันเลย
  • 2:33 - 2:35
    คุณไม่ได้บอกมันว่า
    ต้องแก้โจทย์นี้อย่างไง
  • 2:35 - 2:37
    คุณแค่ให้เป้าหมายกับมัน
  • 2:37 - 2:40
    และมันก็คิดออกด้วยตัวมันเอง
    ผ่านการลองผิดลองถูก
  • 2:40 - 2:42
    เพื่อให้ถึงเป้าหมาย
  • 2:42 - 2:46
    และกลับพบว่าวิธีที่ AI มีแนวโน้ม
    เพื่อแก้ปัญหานี้
  • 2:46 - 2:48
    โดยการทำสิ่งนี้
  • 2:48 - 2:51
    มันประกอบตัวเองเป็นหอคอย
    และหล่นลงมา
  • 2:51 - 2:53
    ลงที่จุด B
  • 2:53 - 2:55
    และในทางเทคนิค สิ่งนี้ช่วยแก้ปัญหา
  • 2:55 - 2:58
    ทางเทคนิค มันไปยังจุด B
  • 2:58 - 3:02
    อันตรายของ AI ไม่ใช่ว่า
    มันกำลังจะกบฏต่อเรา
  • 3:02 - 3:07
    แต่มันกำลังจะทำในสิ่งที่เรา
    ขอให้ทำแบบเฉพาะเจาะจงเลย
  • 3:07 - 3:09
    ดังนั้นแล้วเคล็ดลับ
    การทำงานร่วมกับ AI ควรจะเป็น:
  • 3:09 - 3:13
    เราจะตั้งค่าปัญหาอย่างไร
    เพื่อที่มันทำสิ่งที่เราต้องการจริงๆ
  • 3:15 - 3:18
    เจ้าหุ่นตัวจิ๋วนี้
    กำลังถูกควบคุมโดย AI
  • 3:18 - 3:21
    AI มาพร้อมกับการออกแบบ
    สำหรับขาหุ่นยนต์
  • 3:21 - 3:25
    จากนั้นหาวิธีใช้มัน
    เพื่อผ่านอุปสรรคเหล่านี้ทั้งหมด
  • 3:25 - 3:28
    แต่เมื่อ David Ha ตั้งค่าการทดลองนี้
  • 3:28 - 3:31
    เขาตั้งค่ามันขึ้นมา
    ด้วยข้อจำกัดที่เข้มงวดมาก
  • 3:31 - 3:34
    ว่า AI นั้นได้รับอนุญาต
    ที่จะทำให้ขาใหญ่แค่ไหน
  • 3:34 - 3:35
    เพราะมิฉะนั้น...
  • 3:46 - 3:49
    (เสียงหัวเราะ)
  • 3:49 - 3:52
    และถ้าพูดในทางเทคนิคแล้ว
    มันก็ไปถึงจุดหมายแหละค่ะ
  • 3:52 - 3:57
    ดังนั้นคุณจะเห็นว่ามันยากแค่ไหนที่จะให้ AI
    ทำสิ่งที่ง่ายเพียงแค่เดิน
  • 3:57 - 4:01
    ดังนั้นเมื่อเห็น AI ทำเช่นนี้
    คุณอาจพูดว่า มันไม่ยุติธรรม
  • 4:01 - 4:04
    คุณไม่สามารถเป็น
    หอคอยสูงและล้มตัวลงมา
  • 4:04 - 4:07
    สิ่งที่คุณต้องทำจริงๆ
    คือการใช้ขาเพื่อเดิน
  • 4:07 - 4:10
    ผลปรากฎว่า
    มันก็ไม่ได้ผลเช่นกัน
  • 4:10 - 4:13
    งานของ AI ตัวนี้คือเคลื่อนที่ให้เร็ว
  • 4:13 - 4:17
    พวกมันไม่ได้ถูกบอกว่า
    มันต้องวิ่งเพื่อไปข้างหน้า
  • 4:17 - 4:19
    หรือว่ามันห้ามใช้แขนช่วย
  • 4:19 - 4:24
    นี่คือสิ่งที่คุณได้รับ
    เมื่อคุณฝึก AI ให้เคลื่อนที่เร็ว
  • 4:24 - 4:28
    สิ่งที่คุณจะได้ คือการตีลังกา
    และท่าเดินโง่ ๆ
  • 4:28 - 4:30
    จนเป็นเรื่องธรรมดาไปเลย
  • 4:30 - 4:33
    ดังนั้นการกระตุกไปมา
  • 4:33 - 4:34
    (เสียงหัวเราะ)
  • 4:35 - 4:38
    ในความคิดของฉัน คุณรู้มั้ย
    อะไรที่จะประหลาดกว่านี้มาก
  • 4:39 - 4:40
    อย่างหุ่นยนต์ "Terminator"
  • 4:40 - 4:44
    การแฮ็ก "The Matrix" เป็นอีกสิ่งหนึ่ง
    AI นั้นจะทำถ้าคุณให้โอกาสมัน
  • 4:44 - 4:47
    ดังนั้นถ้าคุณฝึก AI ในแบบจำลอง
  • 4:47 - 4:51
    มันจะเรียนรู้วิธีทำสิ่งต่าง ๆ เช่นแฮ็คเข้าไปใน
    ความผิดพลาดของคณิตศาสตร์ที่ใช้ในการจำลอง
  • 4:51 - 4:53
    และเก็บเกี่ยวพวกมันเป็นพลังงาน
  • 4:53 - 4:58
    หรือมันจะคิดว่าทำอย่างไรที่จะ
    กระตุกตัวซ้ำๆ ลงกับพื้นเพื่อเคลื่อนที่เร็วๆ
  • 4:58 - 5:00
    เมื่อคุณทำงานร่วมกับ AI
  • 5:00 - 5:02
    มันไม่เหมือนกับ
    การทำงานกับมนุษย์คนอื่น
  • 5:02 - 5:07
    และยังเหมือนทำงานกับ
    พลังธรรมชาติประหลาดๆสักอย่าง
  • 5:07 - 5:11
    และเป็นเรื่องง่ายโดยไม่ได้ตั้งใจ
    ที่ให้ AI แก้ปัญหาที่ผิด
  • 5:11 - 5:16
    และบ่อยครั้งเราไม่ได้ตระหนักถึงมัน
    จนกว่าจะมีบางอย่างผิดพลาดขึ้นมาจริงๆ
  • 5:16 - 5:18
    นี่คือการทดลองที่ฉันทำ
  • 5:18 - 5:22
    ฉันให้ปัญญาประดิษฐ์ลอกแถบสีเหล่านี้
  • 5:22 - 5:23
    เพื่อคิดค้นสีใหม่ขึ้นมา
  • 5:23 - 5:26
    โดยให้รายการสีเหมือนกับ
    อันที่อยู่ทางซ้ายมือนี้
  • 5:27 - 5:30
    และนี่คือสิ่งที่ปัญญาประดิษฐ์
    ให้ผลลัพท์ออกมา
  • 5:30 - 5:33
    [อึของซินดิส, เสมือนอึ, ความเจ็บปวด, ขนลับหงอก]
  • 5:33 - 5:37
    (เสียงหัวเราะ)
  • 5:39 - 5:41
    ดังนั้นทางเทคนิคแล้ว
  • 5:41 - 5:43
    มันทำอย่างที่ฉันสั่งให้ทำ
  • 5:43 - 5:46
    ฉันคิดว่าฉันขอให้มัน
    ตั้งชื่อสีที่ดูดี
  • 5:46 - 5:49
    แต่สิ่งที่ฉันสั่งให้ทำจริงๆ
  • 5:49 - 5:52
    แค่ลอกรูปแบบของกลุ่มอักษร
  • 5:52 - 5:54
    อย่างที่มันเห็นในตัวต้นฉบับ
  • 5:54 - 5:57
    และฉันไม่ได้บอกอะไรเลย
    เกี่ยวกับความหมายของคำ
  • 5:57 - 5:59
    หรือว่าอาจจะมีบางคำ
  • 5:59 - 6:02
    ที่มันควรเลี่ยงที่จะใช้
    ในแทบสีเหล่านี้
  • 6:03 - 6:07
    ดังนั้นโลกทั้งโลกของมัน
    คือข้อมูลที่ฉันให้มัน
  • 6:07 - 6:11
    เช่นเดียวกับ รสของไอศครีม
    มันไม่รู้อะไรอื่นเลย
  • 6:12 - 6:14
    ดังนั้น จากข้อมูลที่ให้มันนี่เอง
  • 6:14 - 6:19
    บ่อยครั้งที่เราบอกให้ AI
    ทำสิ่งที่ผิดโดยไม่เราตั้งใจ
  • 6:19 - 6:22
    นี่คือปลาที่เรียกว่าเทนช์
  • 6:22 - 6:24
    และมีกลุ่มนักวิจัย
  • 6:24 - 6:27
    ที่เป็นคนฝึกให้ AI ระบุ
    ปลาเทนช์ในรูปนี้
  • 6:27 - 6:29
    แต่เมื่อพวกเขาถามมัน
  • 6:29 - 6:32
    ส่วนไหนของภาพที่ใช้
    เพื่อระบุปลาจริงๆล่ะ
  • 6:32 - 6:34
    นี่คือสิ่งที่ AI บอกมาค่ะ
  • 6:35 - 6:37
    ใช่ พวกนั้นคือนิ้วมือมนุษย์
  • 6:37 - 6:39
    ทำไมถึงต้องมองหานิ้วมือมนุษย์ล่ะ
  • 6:39 - 6:42
    ถ้ามันพยายามที่จะระบุตัวปลา
  • 6:42 - 6:45
    คือปรากฎว่าปลาเทนช์
    ตัวนั้นคือถ้วยรางวัล
  • 6:45 - 6:49
    และในภาพจำนวนมาก
    ที่ AI ได้เห็นปลาตัวนี้
  • 6:49 - 6:50
    ในระหว่างการฝึก
  • 6:50 - 6:52
    ปลามีลักษณะเช่นนี้
  • 6:52 - 6:53
    (เสียงหัวเราะ)
  • 6:53 - 6:57
    และมันก็ไม่รู้ว่านิ้ว
    ไม่ใช่ส่วนหนึ่งของปลา
  • 6:59 - 7:03
    ฉะนั้นคุณจะเห็นว่ามันยากเหลือเกิน
    ที่จะออกแบบ AI
  • 7:03 - 7:06
    ที่สามารถเข้าใจจริงๆว่า
    มันกำลังดูอะไรอยู่
  • 7:06 - 7:09
    และนั้นคือเหตุผลที่การออกแบบ
    กระบวนการจดจำรูปภาพ
  • 7:09 - 7:11
    ในพาหนะไร้คนขับถึงได้ยากนัก
  • 7:11 - 7:13
    และนั้นคือเหตุผลที่ยานไร้คนขับ
    ทั้งหลายล้มเหลว
  • 7:14 - 7:16
    นั้นก็เพราะ AI เกิดความสับสน
  • 7:16 - 7:20
    ฉันอยากจะพูดเกี่ยวกับตัวอย่างจากปี 2016
  • 7:20 - 7:25
    ครั้งนั้นได้เกิดอุบัติเหตุเมื่อมีคน
    ใช้ระบบคนขับโดยใช้ AI ของ Tesla
  • 7:25 - 7:28
    แต่แทนที่จะใช้บนทางด่วน
    อย่างที่มันถูกออกแบบมา
  • 7:28 - 7:31
    พวกเขากลับใช้มันบนถนน
  • 7:31 - 7:32
    และสิ่งที่เกิดขึ้นคือ
  • 7:32 - 7:36
    มีรถบรรทุกขับอยู่ข้างหน้ารถ
    และรถไม่สามารถเบรกได้
  • 7:37 - 7:41
    ตอนนี้ AI ถูกสอนให้
    จดจำรถบรรทุกในรูป
  • 7:41 - 7:43
    แต่สิ่งที่ดูเหมือนว่าจะเกิดขึ้นคือ
  • 7:43 - 7:46
    AI ถูกสอนให้จดจำ
    รถบรรทุกที่ขับบนทางด่วน
  • 7:46 - 7:49
    ที่ที่คุณน่าจะเดาได้
    ว่าจะเห็นรถบรรทุกจากข้างหลัง
  • 7:49 - 7:53
    ภาพรถบรรทุกด้านข้างไม่ควร
    เกิดขึ้นบนทางด่วน
  • 7:53 - 7:56
    และเมื่อ AI เห็นรถบรรทุกเช่นนั้น
  • 7:56 - 8:01
    มันกลับคิดว่าสิ่งนั้น
    คล้ายกับป้ายจราจร
  • 8:01 - 8:03
    และดังนั้นมันจึงปลอดภัยที่จะขับต่อ
  • 8:04 - 8:07
    นี่คือความผิดพลาดของ AI
    จากสายงานต่างๆ
  • 8:07 - 8:10
    Amazon ต้องยอมล้มเลิก
    อัลกอริธิมจัดเรียงเรซูเม่
  • 8:10 - 8:11
    ที่พวกเขากำลังทำกันอยู่
  • 8:11 - 8:15
    เมื่อพวกเขาค้นพบว่าอัลกอริทึม
    เรียนรู้ที่จะเลือกปฏิบัติต่อผู้หญิง
  • 8:15 - 8:18
    สิ่งที่เกิดขึ้นคือพวกเขาฝึกมัน
    ในตัวอย่างเรซูเม่
  • 8:18 - 8:20
    ของคนที่เคยถูกจ้างมาแล้วในอดีต
  • 8:20 - 8:24
    และจากตัวอย่างนี้ AI เรียนรู้
    เพื่อหลีกเลี่ยงเรซูเม่ของ
  • 8:24 - 8:26
    คนที่มาจากวิทยาลัยสตรี
  • 8:26 - 8:29
    หรือใครก็ตามที่มีคำว่า "ผู้หญิง"
    สักแห่งในเร่ซูเม่พวกเขา
  • 8:29 - 8:34
    ไม่ว่าจะ "นักฟุตบอลหญิง"
    หรือ "สมาคมวิศวะกรหญิง"
  • 8:34 - 8:38
    AI ไม่รู้ว่ามันไม่จำเป็นจะต้อง
    สำเนาข้อความ
  • 8:38 - 8:40
    ที่มันได้เคยเห็นมนุษย์ทำไปเหล่านี้
  • 8:40 - 8:43
    และในทางเทคนิค
    มันทำอย่างที่มันถูกร้องขอให้ทำ
  • 8:43 - 8:46
    พวกมันถูกร้องขอโดยไม่ตั้งใจ
    ให้ทำสิ่งผิด
  • 8:47 - 8:50
    และมันเกิดขึ้นตลอดเวลากับ AI
  • 8:50 - 8:54
    AI สามารถทำตัวไม่เป็นประโยชน์
    โดยที่มันไม่รู้ตัว
  • 8:54 - 8:59
    ฉะนั้น AI ที่แนะนำ
    เนื่อหาใหม่ๆใน Facebook ใน Youtube
  • 8:59 - 9:02
    พวกมันถูกปรับแต่ง
    เพื่อเพี่มยอดคลิกและยอดรับชม
  • 9:02 - 9:06
    และโชคร้าย วิธีที่พวกมันทำ
  • 9:06 - 9:10
    คือการแนะนำเนื้อหา
    เกี่ยวกับทฤษฎีสมคบคิดหรือการคลั่งศาสนา
  • 9:11 - 9:16
    ตัว AI เองไม่มีแนวคิดใดๆ
    ว่าเนื้อหาพวกนี้คืออะไรกันแน่
  • 9:16 - 9:20
    และพวกมันก็ไม่มีแนวคิด
    ว่าผลกระทบที่ตามมาอาจเป็นอะไร
  • 9:20 - 9:22
    ของการแนะนำเนื้อหานี้
  • 9:22 - 9:24
    ฉะนั้น เมื่อเราทำงานร่วมกับ AI
  • 9:24 - 9:29
    มันขึ้นอยู่กับพวกเราเพื่อหลีกเลี่ยงปัญหา
  • 9:29 - 9:31
    และหลีกเลี่ยงความผิดพลาดต่างๆ
  • 9:31 - 9:35
    ที่จะนำไปสู่ปัญหาเดิมๆนั้นคือการสื่อสาร
  • 9:35 - 9:39
    มนุษย์ต้องเรียนรู้
    วิธีสื่อสารกับ AI
  • 9:39 - 9:43
    เราต้องเรียนรู้ว่าอะไรที่ AI
    ทำได้หรือไม่ได้
  • 9:43 - 9:46
    และเพื่อให้เข้าใจว่า
    ด้วยสมองหนอนจิ๋วๆของมัน
  • 9:46 - 9:50
    มันไม่เข้าใจจริงๆ
    ว่าอะไรคือสิ่งที่เราต้องการให้มันทำ
  • 9:51 - 9:54
    ในอีกแง่หนึ่งก็คือ เราต้องเตรียมพร้อม
    ที่จะทำงานร่วมกับ AI
  • 9:54 - 10:00
    นั่นไม่ใช่ความสามารถระดับสูงของ
    AI ที่ทุกคนรู้จักในนิยายวิทยาศาสตร์
  • 10:00 - 10:03
    เราต้องเตรียมพร้อมทำงาน
    ร่วมกับ AI
  • 10:03 - 10:06
    ที่เรามีในปัจจุบัน
  • 10:06 - 10:10
    และในปัจจุบัน AI
    ก็ดูจะแปลกมากขึ้นทุกที
  • 10:10 - 10:11
    ขอบคุณค่ะ
  • 10:11 - 10:16
    (เสียงปรบมือ)
Title:
อันตรายของ AI มันประหลาดกว่าที่คุณคิด
Speaker:
Janelle Shane
Description:

อันตรายของปัญญาประดิษฐ์ มันไม่ใช่ว่ามันจะลุกขึ้นมาต่อต้านเรา แต่คือการทำอย่างที่พวกเราสั่งให้มันทำต่างหาก นี่คือสิ่งที่นักวิจัย AI Janelle Shane ได้กล่าวไว้ Shane จะมาแบ่งปันความประหลาดที่บางครั้งก็น่าตกใจของอัลกอริธึม AI ในขณะที่พวกมันพยายามที่จะแก้ปัญหาของมนุษย์ เช่น การสร้างไอศครีมรสชาติใหม่หรือจดจำรถยนต์บนท้องถนน และเธอจะแสดงให้เห็นว่าทำไม AI ยังเทียบไม่ได้กับสมองคน

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Thai subtitles

Revisions