0:00:00.760,0:00:04.600 ကျွန်တော် ကလေးဘဝတုန်းက[br]စံပြုလောက်တဲ့ ချာတိတ် ဖြစ်ခဲ့တယ်။ 0:00:05.320,0:00:07.496 ခင်ဗျားတို့ တချို့လည်း အလားတူ[br]ဖြစ်ခဲ့ကြမှာပါ။ 0:00:07.520,0:00:08.736 (ရယ်မောသံများ) 0:00:08.760,0:00:11.976 ခုနက အကျယ်ဆုံး ရယ်လိုက်သူကတော့[br]အခုထက်ထိ အဲဒီလို ရှိနေပုံ ရတယ်။ 0:00:12.000,0:00:14.256 (ရယ်မောသံများ) 0:00:14.280,0:00:17.776 Texas မြောက်ပိုင်း ဖုန်ထူတဲ့[br]လွင်ပြင်က မြို့လေးမှာ ကြီးလာခဲ့ပြီး 0:00:17.800,0:00:21.136 သင်းအုပ်ဆရာရဲ့ သားဖြစ်သူ[br]ရဲအရာရှိမှ မွေးခဲ့တဲ့ သားတစ်ယောက်ပါ။ 0:00:21.160,0:00:23.080 သူများ ဘဝကို ခက်ခဲအောင်[br]မလုပ်တတ်ခဲ့ပါ။ 0:00:24.040,0:00:27.296 ဒါ့အကြောင့် ကျွန်တော်ဟာ calculus[br]အကြောင်း စာအုပ်တွေ ဖတ်လာခဲ့တယ်။ 0:00:27.320,0:00:28.856 (ရယ်မောသံများ) 0:00:28.880,0:00:30.576 ခင်ဗျားတို့လည်းဖတ်ခဲ့ကြမှာပါ။ 0:00:30.600,0:00:34.336 ဒါနဲ့ ကျွန်တော်ဟာ လေဆာနဲ့ ကွန်ပျူတာတွေ၊[br]ဒုံးပျံပုံစံတွေ ဆောက်လာတတ်ခဲ့တယ်၊ 0:00:34.360,0:00:37.360 အဲဒီကနေပြီး ကိုယ့်အိပ်ခန်းထဲမှာ[br]ဒုံးပျံလောင်စာကို တီထွင်ခဲ့တယ်။ 0:00:37.960,0:00:41.616 အခုတော့၊ သိပ္ပံပညာ အမြင်အရ 0:00:41.640,0:00:44.896 သိပ်ကို ဆိုးတဲ့ အရာကြီးပေါ့။ 0:00:44.920,0:00:46.136 (ရယ်မောသံများ) 0:00:46.160,0:00:48.336 အဲဒီ အချိန် ဝန်းကျင်မှာပဲ၊ 0:00:48.360,0:00:51.576 Stanley Kubrick ရဲ့ "2001: A Space [br]Odyssey" ရုပ်ရှင် ထွက်လာခဲ့ရာ 0:00:51.600,0:00:53.800 ကျွန်တော့ဘဝဟာ ထာဝရအတွက်[br]ပြောင်းလဲသွားတော့တယ်။ 0:00:54.280,0:00:56.336 အဲဒီ ရုပ်ရှင်ထဲက အရာရာတိုင်းကို၊ 0:00:56.360,0:00:58.896 အထူးသဖြင့် HAL ၉၀၀၀ ကို[br]သိပ်ကို နှစ်ခြိုက်ခဲ့တယ်။ 0:00:58.920,0:01:00.976 အဲဒီ HAL ဟာ အာရုံခံစားနိုင်ခဲ့တဲ့ 0:01:01.000,0:01:03.456 ကွန်ပျူတာ ဖြစ်ခဲ့ပြီး [br]အာကာသယာဉ်ကို ကမ္ဘာဂြိုဟ်မှ 0:01:03.480,0:01:06.016 ဂျူပီတာအထိ လမ်းညွှန်ပေးရန်[br]ထုတ်လုပ်ခဲ့တဲ့ ကွန်ပျူတာပါ။ 0:01:06.040,0:01:08.096 HAL ဟာ စိတ်ဓာတ် အားနည်ခဲ့သူပါ၊ 0:01:08.120,0:01:12.400 နောက်ဆုံးတွင် ၎င်းဟာ လူသားရဲ့ အသက်ထက်[br]တာဝန်ကို တန်ဖိုးထားရန် ရွေးခဲ့လို့ပါ။ 0:01:12.840,0:01:14.936 HAL ဟာ စိတ်ကူးယဉ် ဖန်တီးလိုက်တဲ့[br]ဇာတ်ကောင်ပါ၊ 0:01:14.960,0:01:17.616 ဒါတောင် ၎င်းဟာ ကျွန်တော်တို့ရဲ့[br]စိုးရိမ်ချက်တွေကို၊ 0:01:17.640,0:01:19.736 ခံစားနိုင်စွမ်းမရှိတဲ့၊ လူသားတွေကို 0:01:19.760,0:01:22.776 ဂရုမစိုက်တဲ့ ဦးနှောက် အတုပိုင်ရှင်ဘက်မှ[br]ချုပ်ချယ်ခံရမယ့် 0:01:22.800,0:01:24.760 စိုးရိမ်မှုတွေကို ထုတ်ဖေါ် ပြောခဲ့ပါတယ်။ 0:01:25.880,0:01:28.456 အဲဒီကြောက်ရွံမှုတွေ အခြေအမြစ်[br]မရှိဘူးလို့ ယုံကြည်တယ်။ 0:01:28.480,0:01:31.176 တကယ်တမ်းတွင်၊ ကျွန်ုပ်တို့ဟာ[br]လူသား သမိုင်းမှာ 0:01:31.200,0:01:32.736 မှတ်သားစရာ ကာလထဲ ရှိနေကြပါတယ်၊ 0:01:32.760,0:01:37.520 ကျွန်ုပ်တို့ ခန္ဓာကိုယ်နဲ့ ဦးနှောက်ရဲ့ [br]ကန့်သတ်ချက်တွေကို လက်မခံနိုင်ကြလို့ 0:01:37.520,0:01:39.456 ကျွန်ုပ်တို့ဟာ သိမ်မွေ့၊ လှပ ရှုပ်ထွေး 0:01:39.480,0:01:43.096 ကျော့ရှင်းကြတဲ့ စက်ပစ္စည်းတွေကို [br]ထုတ်လုပ်လာခဲ့ကြရာ ၎င်းတို့ဟာ စိတ်ကူးလို့ 0:01:43.120,0:01:45.176 ရနိုင်တဲ့ လူတွေ လုပ်ကိုင်နိုင်ကြတာထက်ကို 0:01:45.200,0:01:46.880 များစွာမှ သာလွန်သွားကြမှာပါ။ 0:01:47.720,0:01:50.296 ကျွန်တော်ဟာ Air Force Academy[br]မှာ လုပ်ကိုင်ရင်းကနေပြီး 0:01:50.320,0:01:52.256 အခု Space Command ကို ရောက်လာလို့ 0:01:52.280,0:01:53.976 စနစ်များရဲ့ အင်ဂျင်နီယာဖြစ်လာတယ်၊ 0:01:54.000,0:01:56.736 မကြာခင်မီတွင် NASA ရဲ့ အင်္ဂါသို့ သွားရေး[br]လုပ်ငန်းကြီးနဲ့ 0:01:56.760,0:01:59.336 ဆက်စပ်နေတဲ့ အင်ဂျင်နီယာ ပြဿနာကို[br]လေ့လာလာရပါတယ်။ 0:01:59.360,0:02:01.856 လဆီကို သွားမယ့် ပျံသန်းမှုတွေ[br]ဆိုရင် ပျံသန်းမှု 0:02:01.880,0:02:05.016 ကိစ္စတွေအတွက် Houston ရှိနေတဲ့[br]ထိန်းချုပ်ရေးဌာနကို 0:02:05.040,0:02:07.016 အားကိုးလို့ ရနိုင်တာ ရှင်းနေပါတယ်။ 0:02:07.040,0:02:10.576 ဒါပေမဲ့ အင်္ဂါဂြိုဟ်ကျတော့ အဆ ၂၀၀ အထိကို[br]ပိုဝေးနေပါတယ်၊ 0:02:10.600,0:02:13.816 အဲဒါကြောင့် ကမ္ဘာဂြိုဟ်မှနေပြီး [br]အင်္ဂါဂြိုဟ်ဆီ ပို့လိုက်တဲ့ 0:02:13.840,0:02:16.976 အချက်ပြမှု အနေနဲ့ ရောက်ဖို့ အချိန်[br]ပျမ်းမျှ ၁၃ မိနစ် ကြာပါတယ်။ 0:02:17.000,0:02:20.400 ပြဿနာ တစ်ခုခု ပေါ်လာရင်[br]အချိန် မလောက်နိုင်ပါ။ 0:02:20.840,0:02:23.336 အဲဒါကြောင့် ပျံသန်းမှု ထိန်းချုပ်ရေးကို[br] 0:02:23.360,0:02:25.936 Orion အာကာသယာဉ်ရဲ့ [br]နံရံများအတွင်းမှာကို ထည့်သွင်းရန် 0:02:25.960,0:02:28.976 အင်ဂျင်နီယာ နည်းပညာက တောင်းဆိုလာပါတယ်။ 0:02:29.000,0:02:31.896 အဲဒီပျံသန်းမှု ပရိုဖိုင်တွင် အင်္ဂါဂြိုဟ်[br]ပေါ်တွင် လူသားပုံစံ 0:02:31.920,0:02:34.816 robot တွေိကို နေရာချပေးရေး[br]အံ့ဖွယ် စိတ်ကူးလည်း ပါရှိပါတယ်။ 0:02:34.840,0:02:36.696 လူတွေ အဲဒီကို မရောက်ခင်တွင်[br]လိုအပ်တာတွေ 0:02:36.720,0:02:38.376 ဆောက်လုပ်ရန်နဲ့ နောက်ပိုင်းတွင် 0:02:38.400,0:02:41.760 သိပ္ပံအဖွဲ့ထဲမှာ ပူးတွဲကူညီပေးမယ့်[br]လုပ်အားအဖြစ် ထားရှိရန်ဖြစ်တယ်။ 0:02:43.400,0:02:46.136 အဲဒါကို အင်ဂျင်နီယာ ရှုထောင့်မှ[br]ကျွန်တော် သုံးသပ်ကြည့်ရာ၊ 0:02:46.160,0:02:49.336 ကျွန်တော် ပုံစံထုတ်ပေးရမယ့်ဟာက[br]တော်ပြီး လက်တွဲလုပ်ကိုင်နိုင်မယ့်၊ 0:02:49.360,0:02:51.536 လူမှုရေးအရ တော်ရမယ့် [br] 0:02:51.560,0:02:53.936 အသိပညာ အတုစားမျိုး ဖြစ်ရပါမယ်။ 0:02:53.960,0:02:58.256 တစ်မျိုးကို ရှင်းပြရပါက၊ ကျွန်တော်ဟာ[br]HAL နဲ့ ဆင်တူဟာမျိုးကို ဆောက်လုပ်ပေးရမယ်၊ 0:02:58.280,0:03:00.696 ကိုယ့်ကိုကိုယ် လုပ်ကြံရေး [br]စိတ်တွေက လွဲလျက်ပေါ့လေ။ 0:03:00.720,0:03:02.080 (ရယ်မောသံများ) 0:03:02.920,0:03:04.736 ဒီနေရာမှာ ခဏ ရပ်လိုက်ကြပါစို့။ 0:03:04.760,0:03:08.656 artificial intelligence (ဦးနှောက် အတု)ကို[br]အဲဒီလို ဆောက်လုပ် နိုင်ပါသလား။ 0:03:08.680,0:03:10.136 လက်တွေ့တွင် ရနိုင်ပါတယ်။ 0:03:10.160,0:03:11.416 နည်းအမျိုးမျိုး ရှိတယ်၊ 0:03:11.440,0:03:13.416 ဒါဟာ ခဲယဉ်းတဲ့ အင်ဂျင်နီယာ ပြဿနာဖြစ်ပြီး 0:03:13.440,0:03:14.896 AI အစိတ်အပိုင်းတွေ ပါမယ်၊ 0:03:14.920,0:03:19.616 ဖြေရှင်းပေးရမယ့် AI ပြဿနာတွေဟာ[br]အသေးအမွှားတွေ မဟုတ်ကြပါ။ 0:03:19.640,0:03:21.900 Alan Turing ပြောခဲ့ဘူးတာကို တမျိုး[br]ပြန်ပြောရရင်၊ 0:03:21.900,0:03:24.926 အာရုံခံစားနိုင်စွမ်း ရှိမယ့် စက်[br]ဆောက်လုပ်ရန် စိတ်မဝင်စားပါ။ 0:03:24.926,0:03:26.556 ကျွန်တော်ဟာ HAL တည်ဆောက်မှာ မဟုတ်ပါ။ 0:03:26.556,0:03:28.736 ကျွန်တော် စဉ်းစားနေတာက သာမန် ဦးနှောက်ပါ၊ 0:03:28.760,0:03:31.880 အသိပညာ ရှိသလို ခံစားရမယ့်ဟာ[br]တစ်ခုခုကိုပါ။ 0:03:32.710,0:03:35.580 HAL ကို ရုပ်ရှင်ထဲ မြင်ခဲ့ရတဲ့ နောက်ပိုင်း[br]နှစ်များ အတွင်းမှာ 0:03:35.580,0:03:37.660 တွက်ချက်မှု ပညာဟာ အတော်လေး[br]ခရီးပေါက်ခဲ့လို့၊ 0:03:37.660,0:03:40.870 ဒီနေ့သာ တီထွင်ရှင် Dr. Chandra သာ[br]ဒီမှာ ရှိနေခဲ့ရင် ကျွန်တော်တို့အား 0:03:40.870,0:03:43.546 မေးလိုက်မယ့် မေးခွန်းတွေ [br]အတော့်ကို များမှာပါ။ 0:03:43.546,0:03:45.516 စက်ကိရိယာတွေ သန်းပေါင်းများစွာ ရှိကြမယ့် 0:03:45.516,0:03:49.080 စနစ်ကို အတူယူသွားပြီး ၎င်းတို့ရဲ့[br]ချွတ်ယွင်းချက်တွကို ခန့်မှန်းလျက် 0:03:49.080,0:03:50.896 ကြိုတင်ပြီး အရေးယူဆောင်ရွက်နိုင်အောင် 0:03:50.920,0:03:53.176 ၎င်းတို့ရဲ့ ဒေတာကို ဖတ်ပြီး လုပ်နိုင်မလား။ 0:03:53.200,0:03:54.400 ရတယ်။ 0:03:54.400,0:03:57.666 လူသားတွေနဲ့ ပုံမှန် ဘာသာစကားဖြင့်[br]ဆက်သွယ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။ 0:03:57.666,0:03:58.590 ရတယ်။ 0:03:58.590,0:04:01.986 အရာတွေကို သိမှတ်နိုင်ကာ စိတ်ခံစားမှုကို[br]ဖေါ်ထုတ်လျက် ၎င်းတို့ ကိုယ်တိုင် 0:04:01.986,0:04:05.596 ခံစားချက်ကို ပြကာ ဂိမ်းတွေ ကစားလျက်[br]နှုတ်ခမ်းဖတ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။ 0:04:05.596,0:04:06.496 ရတယ်။ 0:04:06.520,0:04:08.656 ကျွန်ုပ်တို့ဟာ ပန်းတိုင်တွေကို ချမှတ်လျက် 0:04:08.660,0:04:12.476 ပန်းတိုင်များအတွက် စီမံကိန်းတွေ လုပ်ကိုင်[br]ရင်း သင်ယူနိုင်တဲ့ စနစ် ဆောက်နိုင်လား။ 0:04:12.476,0:04:13.536 ရတယ်။ 0:04:13.560,0:04:16.896 စိတ်ဆိုတဲ့ သီအိုရီ ပါရှိမယ့်[br]စနစ်တွေကို ဆောက်နိုင်လား။ 0:04:16.920,0:04:18.416 အဲဒါကို လုပ်နိင်ရန် သင်နေကြတယ်။ 0:04:18.440,0:04:21.920 ကျင့်စဉ် နဲ့ စိတ်ဓာတ်ဆိုင်ရာ အုတ်မြစ်[br]ပါမယ့် စနစ်တွေကို ဆောက်နိုင်သလား။ 0:04:22.480,0:04:24.520 အဲဒါ ဘယ်လို လုပ်ရမှာကို သင်ကြရပါမယ်။ 0:04:25.360,0:04:26.736 အဲဒီလို တာဝန်များနဲ့ အခြား 0:04:26.760,0:04:29.656 တာဝန်များအတွက် အသိဉာဏ်အတုကို[br]ဆောက်လုပ်လို့ 0:04:29.680,0:04:31.816 ရနိုင်တယ်လို့ ခဏလေး ခံယူကြပါစို့။ 0:04:31.840,0:04:34.376 အဲနောက်မှာ ကိုယ့်ကိုကိုယ် [br]မေးရမယ့် မေးခွန်းက အဲဒါကို 0:04:34.400,0:04:35.856 ကျွန်ုပ်တို့ ကြောက်သင့်လား။ 0:04:35.880,0:04:37.856 တကယ်တော့ နည်းပညာသစ် မှန်သမျှဟာ 0:04:37.880,0:04:40.776 စိုးရိမ်စရာ တစ်စုံတစ်ခုနဲ့ [br]စတင်တာချည်းပါပဲ။ 0:04:40.800,0:04:42.496 ကားတွေကို ပထမဦးဆုံး[br]မြင်တွေ့ခဲ့ရစဉ် 0:04:42.520,0:04:46.536 မိသားစုတွေ ပြိုလဲကျတော့မယ်လို့[br]စိုးရိမ်နေခဲ့ကြတယ်။ 0:04:46.560,0:04:49.256 တယ်လီဖုန်းတွေ ဘဝထဲ ခြေချဝင်လာတော့၊ 0:04:49.280,0:04:52.176 လူတွေ စကားဝိုင်းဖွဲ့ ပြောဆိုမှု[br]ချုပ်ငြိမ်းတော့မယ် ထင်ခဲ့တယ်။ 0:04:52.200,0:04:56.136 စာတွေကို ပုံနှိပ်ထုတ်ဝေမှု ပေါ်လာတော့[br]ကျွန်ုပ်တို့ဟာ မှတ်ဉာဏ်တွေ 0:04:56.160,0:04:58.656 ဆုံးရှုံးကြတော့မှာဘဲလို့ ထင်မြင်ခဲ့ကြတယ်။ 0:04:58.680,0:05:00.736 အဲဒီလို အရာတွေဟာ တစ်စုံတစ်ရာအထိ[br]မှန်ကန်တယ်၊ 0:05:00.760,0:05:03.176 ဒါပေမဲ့ အဲဒီတချိန်တည်းမှာ အဲဒီလို[br]နည်းပညာတွေဟာ 0:05:03.200,0:05:06.576 လူတွေရဲ့ ဘဝအတွေ့အကြုံကို အံ့ဖွယ်[br]နည်းလမ်းများဖြင့် မြှင့်တင်ပေး 0:05:06.600,0:05:08.480 ခဲ့ကြတာကိုပါ အသိအမှတ် ပြုကြရပါမယ်။ 0:05:09.840,0:05:12.120 ဒီအကြောင်းကို ရှေ့ဆက် ကြည့်ကြရအောင်။ 0:05:13.120,0:05:17.856 ခုနကလို AI ဖန်တီးပေးမယ်ဆိုရင်[br]ကျွန်ုပ်တို့ရဲ့ တန်ဖိုးထားချက်တွေ 0:05:17.880,0:05:21.696 အဲဒီမှာ ထည့်သွင်းပါရှိမှာမို့ အဲဒါကို[br]ကျွန်တော် မကြောက်ပါဘူး။ 0:05:21.720,0:05:25.216 သိမြင်နိုင်တဲ့ စနစ်ကို ဆောက်လုပ်မှုဟာ[br]အခြေခံအရကိုက 0:05:25.240,0:05:28.536 အတိတ်ကာလက ဆော့ဝဲ အများအပြားကို[br]သုံးတဲ့ သမရိုးကျ စနစ်နဲ့ ခြားနားတယ်။ 0:05:28.560,0:05:31.016 ၎င်းတို့အတွက် ပရိုဂရမ်ကို[br]မရေးဆွဲဘဲ သင်ပေးကြတယ်။ 0:05:31.040,0:05:33.696 စနစ်တစ်ခုအား ပန်းတွေကို သိမှတ်လာရန်[br]ကျွန်တော်ဟာ 0:05:33.720,0:05:36.736 ကျွန်တော် ကြိုက်တဲ့ ပန်းတွေကို[br]ထောင်ချီ ပြပေးပါတယ်။ 0:05:36.760,0:05:39.016 စနစ်တစ်ခုအနေနဲ့ ဂိမ်း ကစားလာတတ်ရန်[br]ကျွန်တော် 0:05:39.040,0:05:41.000 လုပ်နိုင်၊ ခင်ဗျားတို့လည်း လုပ်နိုင်တယ်။ 0:05:42.600,0:05:44.640 ကျွန်တော်က ပန်းတွေကို ကြိုက်တယ်။[br]တကယ်ပါ။ 0:05:45.440,0:05:48.296 စနစ်တစ်ခုအနေနဲ့ Go လို ဂိမ်းကို [br]ကစားလာနိုင်ရန် အတွက် 0:05:48.320,0:05:50.376 ကျွန်တော်ဟာ Go ဂိမ်းကို ထောင်ချီ[br]ကစားပြရင်း 0:05:50.400,0:05:52.056 ကောင်းတဲ့ ဂိမ်းနဲ့ ဆိုးတဲ့ ဂိမ်း 0:05:52.080,0:05:54.496 ခွဲခြားနိုင်ရေးကိုပါ သင်ပေးရမယ်။ 0:05:54.520,0:05:58.216 တကယ်လို့ ကျွန်တော်ဟာ ဥပဒေရေးရာထဲ[br]ကူညီပေးရမယ့် ဉာဏ်အတုကို ဖန်တီးချင်ရင်၊ 0:05:58.240,0:06:00.016 ဥပဒေတွေ အများကြီးကို သင်ပေးရင်း 0:06:00.040,0:06:02.896 ဥပဒေနဲ့ ခွဲခြားမရနိုင်တဲ့ ကရုဏာနဲ့ [br]တရားမျှတမှု ဆိုတဲ့ 0:06:02.920,0:06:05.800 သဘောတရားတွေကိုပါ ရိုက်သွင်းပေးဖို့[br]ကြိုးစားရပါမယ်။ 0:06:06.560,0:06:09.536 သိပ္ပံပညာရှင်တွေက အဲဒါကို အခြေခံ[br]အမှန်တရားလို့ ခေါ်ကြတယ်၊ 0:06:09.560,0:06:11.576 ဒီမှာ အရေးကြီးတဲ့ အချက်က- 0:06:11.600,0:06:13.056 ဒီလို စက်တွေကို ထုတ်လုပ်ရာတွင် 0:06:13.080,0:06:16.496 ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ တန်ဖိုးတွေရဲ့[br]အနှစ်သာရကို သင်ပေးရမယ်။ 0:06:16.520,0:06:19.656 အဲဒီနောက်မှာတော့၊ ကျွန်တော်ဟာ[br]အသိဉာဏ်အတုကို ကောင်းမွန်စွာ 0:06:19.680,0:06:23.320 သင်တန်းပေးထားတဲ့ လူသားနည်းတူ၊ ပိုတောင်[br]ပုပြီး ယုံကြည်မှာပါ။ 0:06:24.080,0:06:25.296 ဒါပေမဲ့၊ ကောက်ကျစ်တဲ့ 0:06:25.320,0:06:27.936 ဆိုးဝါးတဲ့ အေဂျင့်တွေ၊ 0:06:27.960,0:06:31.296 ငွေကြေး အများအပြားရကြတဲ့ အစိုးရ[br]မဟုတ်တဲ့ အဖွဲ့အစည်းတွေ ကျတော့ကော။ 0:06:31.320,0:06:35.136 လူဆိုး တစ်ယောက်ရဲ့ လက်ထဲက[br]အသိဉာဏ်အတုကို ကျွန်တော် မကြောက်ပါ။ 0:06:35.160,0:06:39.696 ကျွန်ုပ်တို့ဟာ အမှတ်တမဲ့ ဖြစ်လာနိုင်တဲ့[br]အကြမ်းဖက်မှုများမှ ကာကွယ် မရနိုင်ပေမဲ့၊ 0:06:39.720,0:06:41.856 တကယ်ကျတော့ အဲဒီလို စနစ်ပေါ်လာဖို့ 0:06:41.880,0:06:44.976 အတော့်ကို စနစ်တကျ လေ့ကျင့် သင်တန်း[br]ပေးရန်လိုအပ်တာမို့လို့၊ 0:06:45.000,0:06:47.296 လူပုဂ္ဂိုလ် တစ်ဦးဦးအနေနဲ့ [br]တတ်နိုင်ရန် မလွယ်ပါ။ 0:06:47.320,0:06:48.536 ဒီထက်ပိုပြီး၊ 0:06:48.560,0:06:51.816 အဲဒါဟာ ဗိုင်းရပ်စ်ကို ခလုတ် တစ်ချက်[br]နှိပ်ရုံနဲ့ တစ်ကမ္ဘာလုံးမှာ 0:06:51.840,0:06:54.936 ပျံ့နှံ့သွားစေလျက် နေရာတိုင်းရှိ [br]လက်တော့ သန်းချီ ပေါက်ကွဲစေရန် 0:06:54.960,0:06:57.416 ကူးစက်နိုင်စေတာမျိုးနဲ့ လုံးဝမတူပါ။ 0:06:57.440,0:07:00.256 အခုပြောနေတဲ့ အရာတွေဟာ များစွာမှ[br]ပိုပြီး ကြီးမားကြမှာပါ၊ 0:07:00.280,0:07:01.995 လာကြတာကို ကျွန်ုပ်တို့ မြင်ကြရမယ်။ 0:07:02.520,0:07:05.576 အဲဒီလို အသိဉာဏ် အတုက လူသား တစ်ရပ်လုံးအား 0:07:05.600,0:07:07.560 ခြိမ်းခြောက်မှာကို ကျွန်တော်[br]ကြောက်ပါသလား။ 0:07:08.280,0:07:12.656 ခင်ဗျားတို့ဟာ "The Matrix"၊ "Metropolis"၊ [br]"The Terminator"၊ 0:07:12.680,0:07:15.856 ရုပ်ရှင်တွေနဲ့ "Westworld"လို ရှိုးတွေကို[br]ကြည့်ကြည့်ပါက၊ 0:07:15.880,0:07:18.016 ၎င်းတို့ထဲမှာ ခုန ကြောက်စိတ်[br]အကြောင်းပါတယ်။ 0:07:18.040,0:07:22.336 ဒဿနိက ပညာရှင် Nick Bostrom ရဲ့ [br]"Superintelligence" စာအုပ်ထဲတွင် 0:07:22.360,0:07:23.896 အဲဒီအကြောင်းကို တင်ပြထားပြီး 0:07:23.920,0:07:27.936 ဆူပါအသိဉာဏ်ဟာ အန္တရာယ်များရုံသာမက 0:07:27.960,0:07:31.816 လူသားတို့အတွက် တကယ့်ခြိမ်းခြောက်မှု[br]ဖြစ်လာမယ်လို့ ဆိုထားပါတယ်။ 0:07:31.840,0:07:34.056 Dr. Bostrom ရဲ့ အဓိက ဆင်ခြေက 0:07:34.080,0:07:36.816 အဲဒီလို စနစ်တွေဟာ အချက်အလက်တွေကို 0:07:36.840,0:07:40.096 တိုးတိုး ရယူချင်ကြမှာ မို့လို့ ၎င်းတို့ဟာ 0:07:40.120,0:07:43.016 ဘယ်လို သင်ယူနိုင်သလဲဆိုတာကို[br]သင်ယူနိုင်ကြပြီး 0:07:43.040,0:07:45.656 အဆုံးမှာ သူတို့ဆီမှာ ပေါ်ပေါက်လာကြမယ့်[br]ပန်းတိုင်များဟာ 0:07:45.680,0:07:47.976 လူသားရဲ့ လိုအပ်ချက်များနဲ့[br]ဆန့်ကျင်ဘက် ဖြစ်လာမယ်။ 0:07:48.000,0:07:49.856 Dr. Bostrom ကို ထောက်ခံသူ များပါတယ်။ 0:07:49.880,0:07:54.200 သူ့ကို Elon Musk နှင့် Stephen Hawking လို[br]ပုဂ္ဂိုလ်တွေ ထောက်ခံကြတယ်။ 0:07:54.880,0:07:57.280 အဲဒီမဟာပုဂ္ဂိုလ်ကြီးတွေရဲ့ အမြော်အမြင်ကို 0:07:58.160,0:08:00.176 ထိုက်တန်စွာ လေးစားပေမဲ့၊ 0:08:00.200,0:08:02.456 အခြေခံအရ သူတို့ မှားနေတယ်လို့ [br]ကျွန်တော် ထင်တယ်။ 0:08:02.480,0:08:05.656 Dr. Bostrom ရဲ့ အဆိုကို အသေးစိတ်[br]ဆင်ခြေပေးရန် အချိန် အများကြီး 0:08:05.680,0:08:07.816 လိုမှာမို့လို့ တိုတိုနဲ့ ပြောရရင် 0:08:07.840,0:08:10.536 ဒီလို စဉ်းစားကြည့်စေလိုပါတယ်- 0:08:10.560,0:08:14.140 ဆူပါ အသိဉာဏ်ဟာ ဆူပါ လုပ်ကိုင်မှုနဲ့[br]လုံးဝမတူ တခြားစီးပါ။ 0:08:14.140,0:08:16.506 HAL ဟာ Discovery တဖွဲ့လုံးအတွက်[br]ခြိမ်းခြောက်မှုပါ 0:08:16.506,0:08:20.656 Discovery ရဲ့ မျက်နှာစာအားလုံးကို HAL က[br]အမိန့်ပေးနေသရွေ့ မှန်ခဲ့တယ်။ 0:08:20.680,0:08:23.176 အဲဒါကြောင့်မို့လို့ ၎င်းဟာ ဆူပါဦးနှောက်[br]ဖြစ်ခဲ့တာပါ။ 0:08:23.200,0:08:25.696 ကျွန်ုပ်တို့ ကမ္ဘာကြီးထဲ အားလုံး [br]ချုပ်ကိုင်ခဲ့မှာ။ 0:08:25.720,0:08:28.536 တဖန် "The Terminator" ထဲက [br]Skynet ဆိုတဲ့ထဲမှာလည်း 0:08:28.560,0:08:30.416 ဆူပါဦးနှောက် ရှိနေခဲ့ပြီး လူတွေရဲ့ 0:08:30.440,0:08:31.816 စိတ်ဆန္ဒကို အမိန့်ခဲ့တယ်၊ 0:08:31.840,0:08:35.696 ကမ္ဘာကြီးရဲ့ ဘယ်နေရာမှာပဲ ရှိရှိ [br]ကိရိယာတိုင်းကို ၎င်းက ညွှန်ကြားခဲ့တယ်။ 0:08:35.720,0:08:37.176 လက်တွေ့တွင် 0:08:37.200,0:08:39.296 ဒါတွေ ဖြစ်လာမှာ မဟုတ်ပါဘူး။ 0:08:39.320,0:08:42.376 ကျွန်ုပ်တို့ဟာ ရာသီဥတုကို [br]ထိန်းချုပ်ခဲ့မယ့်၊ 0:08:42.400,0:08:43.736 ဒီရေတွေကို ညွှန်ကြားပေးမယ့်၊ 0:08:43.760,0:08:47.136 ပြောင်းလွယ်ပြီး ပရမ်းပတာနိုင်တဲ့ လူတွေကို[br]အမိန့်ပေးဖို့ ဆောက်နေတာ မဟုတ်။ 0:08:47.160,0:08:51.056 အဲဒီအပြင်၊ အဲဒီလို ဆူပါဦးနှောက်တု[br]ရှိခဲ့မယ်ဆိုရင်၊ 0:08:51.080,0:08:54.016 ၎င်းဟာ လူသားရဲ့ စီးပွားရေးနဲ့[br]ပြိုင်ဆိုင်ဖို့ လိုအပ်လာမယ်၊ 0:08:54.040,0:08:56.720 ကျွန်ုပ်တို့နဲ့အတူ အရင်းအမြစ်များ[br]အတွက် တိုက်ပွဲဝင်ရမယ်။ 0:08:57.200,0:08:58.416 နောက်ဆုံးမှာတော့၊ 0:08:58.440,0:08:59.680 အဲဒါ Siri ကို မပြောပါနဲ့- 0:09:00.440,0:09:02.526 ကျွန်ုပ်တို့ အချိန်မရွေး ပိတ်ပစ်နိုင်တယ်။ 0:09:02.526,0:09:04.300 (ရယ်မောသံများ) 0:09:04.670,0:09:07.420 ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ စက်တွေနဲ့[br]အတူ 0:09:07.420,0:09:10.336 ပူးတွဲလျက် ဆင့်ကဲ ပြောင်းလဲရေး[br]အံ့ဖွယ် ခရီးကို နှင်နေကြတယ်။ 0:09:10.360,0:09:12.856 ဒီနေ့ ကျွန်ုပ်တို့ လူသားတွေဟာ 0:09:12.880,0:09:15.416 လာမယ့် နောင်လူသားတွေ မဟုတ်ပါ။ 0:09:15.440,0:09:18.576 ဒီအချိန်မှာ ဆူပါဦးနှောက်တု ပေါ်ပေါက်[br]လာမှာကို စိုးရိမ်နေခြင်းဟာ 0:09:18.600,0:09:21.656 အန္တရာယ်များတဲ့ အာရုံလွှဲပြောင်းမှု[br]ဖြစ်တယ်လို့ ဆိုချင်တယ်၊ 0:09:21.680,0:09:24.016 ကွန်ပျူးတင်းတွေ ပေါ်ပေါက်လာခဲ့ကြလို့ 0:09:24.040,0:09:27.056 လူသားနဲ့ လူမှုရေး ပြဿနာတွေ[br]တပုံကြီး ပေါ်လာခဲ့ကြရာ 0:09:27.080,0:09:29.210 အဲဒါတွေကို ကျွန်ုပ်တို့ [br]ဂရုစိုက်ဖို့လိုတယ်။ 0:09:29.360,0:09:32.160 လူသားရဲ့ လုပ်အား လိုအပ်ချက်[br]နည်းလာတဲ့ အခါမှာ 0:09:32.160,0:09:34.536 ကျွန်ုပ်တို့ လူ့အဖွဲ့အစည်းကို[br]ဘယ်လို စည်းရုံးကြမလဲ။ 0:09:34.560,0:09:37.920 ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ မတူ[br]ကွဲပြားမှုတွေကို လေးစားရင်း 0:09:37.920,0:09:40.176 နားလည်မှုရှိရန် ပညာသင်နိုင်ရန်[br]ဘယ်လို လုပ်ကြမလဲ။ 0:09:40.200,0:09:44.456 သိမှတ်မှု ကျန်းမာရေး စနစ်ဖြင့်[br]ကျွန်ုပ်တို့ လူ့ဘဝကို ဘယ်လို မြှင့်တင်မလဲ။ 0:09:44.480,0:09:47.336 ကွန်ပျူတာသုံးပြီး ကျွန်ုပ်တို့[br]ကြယ်တွေဆီ 0:09:47.360,0:09:49.120 သွားနိုင်အောင် ဘယ်လို လုပ်ကိုင်ကြမလဲ။ 0:09:49.760,0:09:51.800 အဲဒါတွေကမှ စိတ်လှုပ်ရှားစရာတွေပါ။ 0:09:52.400,0:09:54.736 လူသားတွေရဲ့ ဘဝကို မြှင့်တင်ပေးနိုင်မယ့် 0:09:54.760,0:09:56.296 ကွန်ပျူတာတွေရဲ့ အလားအလာတွေကို 0:09:56.320,0:09:57.736 ကျွန်ုပ်တို့ လက်လှမ်းမှီတယ်၊ 0:09:57.760,0:09:59.616 ဟိုမှာ ဒီမှာ ပြည့်နေကြတယ်၊ 0:09:59.640,0:10:01.530 ပြီးတော့ ကျွန်ုပ်တို့ စရုံပဲ[br]ရှိသေးတယ်။ 0:10:02.280,0:10:03.496 အထူး ကျေးဇူးတင်ပါတယ်။ 0:10:03.520,0:10:07.806 (လက်ခုပ်တီးသံများ)