WEBVTT 00:00:01.468 --> 00:00:06.690 ၂၀၁၃ ခုနှစ်၊ ဧပြီလ ၂၃ ရက်နေ့တွင်၊ 00:00:06.714 --> 00:00:12.228 Associated Press သတင်းဌာနက အောက်ပါ tweet ကို Twitter မှ ထုတ်လွှင့်ခဲ့တယ်။ 00:00:12.252 --> 00:00:14.649 "အထူးသတင်းကြေငြာချက်- 00:00:14.673 --> 00:00:17.244 အိမ်ဖြူတော်မှာ ဗုံးနှစ်လုံး ပေါက်ကွဲခဲ့ရာ 00:00:17.268 --> 00:00:19.601 ဘားရက် အိုဘားမား ဒဏ်ရာရရှိခဲ့တယ်။ " 00:00:20.212 --> 00:00:25.637 အဲဒီ tweet ကို ငါးမိနစ်တောင် မရှိတဲ့အချိန် အတွင်းမှာ ၄၀၀၀ ပြန်ပြီး tweet ခဲ့ကြတယ်၊ 00:00:25.661 --> 00:00:27.878 နောက်ပိုင်းမှာ တောမီးလို ပျံ့နှံ့သွားခဲ့တယ်။ 00:00:28.760 --> 00:00:33.110 ဒါပေမဲ့ အဲဒီတွတ်ဟာ Associated Press မှ ထုတ်လွှင့်ခဲ့တဲ့ သတင်းအမှန် မဟုတ်ခဲ့ပါ။ 00:00:33.134 --> 00:00:36.467 တကယ်တမ်းမှာ လိမ်ညာသတင်း ဒါမှမဟုတ် လုပ်ကြံသတင်း ဖြစ်ခဲ့ပြီး 00:00:36.491 --> 00:00:39.316 ဆီးရီးယားဟက်ကာများမှ ထုတ်လွှင့်ပေးလိုက်တာပါ။ 00:00:39.340 --> 00:00:43.934 သူတို့ဟာ Associated Press Twitter ဌာနထဲ ဖောက်ဝင်ပြီး လွှင့်နိုင်ခဲ့ကြတာ။ 00:00:43.934 --> 00:00:48.296 လူ့အဖွဲ့အစည်းကို အလန့်တကြား ဖြစ်စေရန် ရည် ရွယ်ခဲ့ပေမဲ့ နှောင့်ယှက်မှုကြီး ဖြစ်လာတယ်။ 00:00:48.320 --> 00:00:51.670 ဘာဖြစ်လို့လဲဆိုတော့ ရှယ်ယာဈေးကွက်မှာ အလိုအလျောက် ကုန်သွယ်ရေး စနစ်တွေက 00:00:51.670 --> 00:00:54.180 tweet ထဲက သတင်းကို ချက်ချင်းထည့်တွက်လျက် 00:00:54.204 --> 00:00:57.686 အမေရိကန် ပြည်ထောင်စုရဲ့ သမ္မတဟာ ဒဏ်ရာရခဲ့ သို့မဟုတ် သေဆုံးသွားပြီ ဆိုတဲ့ 00:00:57.686 --> 00:01:00.577 အလားအလာကို ထည့်တွက်လျက် ၎င်းတို့ရဲ့ ကုန်သွယ်မှုကို 00:01:00.601 --> 00:01:01.801 ဆက်ပြုလုပ်ခဲ့ကြလို့ပါ။ 00:01:02.188 --> 00:01:04.180 အဲဒါကြောင့် အဲဒီ tweet စပေါ်လာတာနဲ့ကို 00:01:04.204 --> 00:01:07.553 ချက်ချင်းဆိုသလို စတော့ရှယ်ယာစျေးကွက်ဟာ ခြေမွခံလိုက်ရတယ်၊ 00:01:07.577 --> 00:01:12.744 တစ်ရက်တည်း အတွင်းမှာ ပိုင်ဆိုင်မှုတန်ဖိုး ဒေါ်လာ ဘီလီယံ ၁၄၀ ဆုံးရှုံးခဲ့ရတယ်။ 00:01:13.062 --> 00:01:17.538 အမေရိကန်ပြည်ထောင်စုရဲ့ အထူးရှေ့နေချုပ် Robert Mueller က 00:01:17.562 --> 00:01:21.454 ရုရှားကုမ္ပဏီသုံးခုနဲ့ ရုရှားလူမျိုး ၁၃ ဦးတို့အား 00:01:21.478 --> 00:01:23.927 ၂၀၁၆ ခုနှစ် သမ္မတရွေးကောက်ပွဲ အတွင်းမှာ 00:01:23.927 --> 00:01:27.288 အမေရိကန် ပြည်ထောင်စု ပြည်သူများကို လိမ်လည်ရန် ကြံစည်အားထုတ်ခဲ့ကြတယ်လို့ 00:01:27.312 --> 00:01:31.092 တရားဝင် စွပ်စွဲလျက် စွဲချက် တင်ခဲ့ပါတယ်။ 00:01:31.855 --> 00:01:35.419 အဲဒီစွဲချက်ထဲတွင် ဖေါ်ပြခဲ့လို့ သိလာရတာက 00:01:35.443 --> 00:01:38.585 အင်တာနက်သုတေသနအေဂျင်စီ ဆိုတာရဲ့ ဇာတ်လမ်းဖြစ်ပါတယ်။ 00:01:38.609 --> 00:01:42.203 ၎င်းဟာ လူမှုမီဒီယာထဲက ကရင်မလင်ရဲ့ ကိုယ်ဖျေိာက် စစ်တပ်နဲ့ တူပါတယ်။ 00:01:42.815 --> 00:01:45.592 သမ္မတ ရွေးကောက်ပွဲ တစ်ခုတည်း အတွင်းမှာကို 00:01:45.616 --> 00:01:47.505 အင်တာနက်အေဂျင်စီရဲ့ အားထုတ်မှုက 00:01:47.529 --> 00:01:52.696 United States ထဲက Facebook ကို သုံးကြတဲ့ ပြည်သူ ၁၂၆ သန်းထိ ရောက်ရှိခဲ့ပါတယ်။ 00:01:52.720 --> 00:01:55.997 သူတို့ဟာ သီးခြားစီ ဖြစ်တဲ့ tweet သုံးသန်းကို ထုတ်ဝေခဲ့ပြီး 00:01:56.021 --> 00:01:59.863 YouTube မှာ ၄၃ နာရီဖိုး အကြောင်းအရာများကို ထုတ်လွှင့်ခဲ့ကြတယ်။ 00:01:59.863 --> 00:02:01.539 အဲဒါတွေ အားလုံး လုပ်ကြံသတင်းတွေပါ-- 00:02:01.563 --> 00:02:07.886 အမေရိကန် သမ္မတရွေးကောက်ပွဲ ထဲတွင် သဘောထားကွဲလွဲစေရန် ရည်ရွယ်ချက်နဲ့ပါ။ 00:02:08.996 --> 00:02:11.646 Oxford တက္ကသိုလ်ရဲ့ မကြာသေးမီက သုတေသန တစ်ခုအရ 00:02:11.670 --> 00:02:14.940 နောက်ဆုံး လုပ်ပြီးသွားခဲ့တဲ့ ဆွီဒင် ရွေးကောက်ပွဲတုန်းက 00:02:14.964 --> 00:02:18.889 လူမှုမီဒီယာမှာ ပျံ့နှံ့နေခဲ့တဲ့ သတင်းအချက် အလက် သုံးပုံတစ်ပုံတို့ဟာ 00:02:18.889 --> 00:02:20.561 ရွေးကောက်ပွဲဆိုင်ရာ ဖေါ်ပြရာတွင် 00:02:20.585 --> 00:02:23.607 လုပ်ကြံမှု သို့မဟုတ် တလွဲဖေါ်ပြမှု ဖြစ်ခဲ့တယ်လို့ တွေ့ခဲ့တယ်။ 00:02:23.607 --> 00:02:28.115 ပြီးတော့၊ လူမှုမီဒီယာတွင် အဲဒီလို မဟုတ် မမှန် တမင်ကို ရေးသားဖေါ်ပြမှုက 00:02:28.139 --> 00:02:32.290 "ဂျီနိုဆိုက် ဝါဒဖြန့်မှု" လို့ ခေါ်တဲ့ အရာအတွက်ပါ သုံးနိုင်ပါသေးတယ်။ 00:02:32.314 --> 00:02:34.535 ဥပမာအဖြစ် မြန်မာနိုင်ငံထဲက ရိုဟင်ဂျာ ပြဿနာ၊ 00:02:34.535 --> 00:02:37.752 အိန္ဒိယတွင် လူတွေ အုပ်စုလိုက် သတ်ဖြတ်ခံရမှုများကို ဖေါ်ပြနိုင်ပါတယ်။ 00:02:37.776 --> 00:02:39.684 ကျွန်ုပ်တို့ဟာ သတင်းတုတွေကို လေ့လာတာ 00:02:39.684 --> 00:02:42.513 အဲဒါ လူတွေအားလုံး မသိခင်တုန်းကတည်းကပါ။ 00:02:43.030 --> 00:02:47.860 အဲဒါနဲ့ ဒီနှစ်မတ်လထုတ် "Science" မှာ မျက်နှာဖုံး အကြောင်းအရာအဖြစ် 00:02:47.860 --> 00:02:50.380 အွန်လိုင်းမှနေပြီး သတင်းအတုများကို ဖြန့်ဝေမှုဆိုင်ရာ 00:02:50.404 --> 00:02:53.608 ကာလအကြာဆုံး သုတေသန စာတမ်းကို တင်နိုင်ခဲ့ကြပါတယ်။ 00:02:53.923 --> 00:02:57.814 ကျွန်ပ်တို့ဟာ Twitter ပေါ်တွင် ထုတ်ပြန်တဲ့ မှန်ကန်ပြီး မဟုတ်မှန်တဲ့ ဖြစ်ရပ်များကို 00:02:57.828 --> 00:03:00.935 ၎င်းကို စထူထောင်ခဲ့တဲ့ ၂၀၀၆ ခုနှစ်မှ ၂၀၁၇ နှစ်အထိ အချိန်ကာလအတွက် 00:03:00.935 --> 00:03:04.303 မှန်မမှန် စိစစ်ခဲ့ကြပါတယ်။ 00:03:04.352 --> 00:03:06.926 အဲဒီလို အချက်အလက်များကို ကျွန်ုပ်တို့က လေ့လာကြရာတွင်၊ 00:03:06.950 --> 00:03:10.820 ကျွန်ုပ်တို့ဟာ သီးခြားလွတ်လပ်ကြတဲ့ အချက် အလက် ရှာဖွေရေး အဖွဲ့အစည်း ခြောက်ခုတို့မှ 00:03:10.820 --> 00:03:13.308 စိစစ်လေ့လာခဲ့ကြတဲ့ အဖြစ်အပျက်များကို လေ့လာခဲ့ကြပါတယ်။ 00:03:13.308 --> 00:03:15.794 အဲဒီလိုနည်းဖြင့် ဘယ်အဖြစ်အပျက် တွေဟာ မှန်ကန်ခဲ့ကြတယ်၊ 00:03:15.794 --> 00:03:18.704 ဘယ်အဖြစ်အပျက်တွေ မမှန်ကန်ကြဘူး ဆိုတာ ကျွန်ုပ်တို့ သိလာရခဲ့တယ်။ 00:03:18.728 --> 00:03:21.220 ၎င်းတို့ရဲ့ ပျံ့နှံ့နိုင်စွမ်းကို တိုင်တာနိုင်ခဲ့တယ်၊ 00:03:21.220 --> 00:03:22.140 ပျံ့နှံ့မှုနှုန်း၊ 00:03:22.140 --> 00:03:24.739 နက်ရှိုင်းမှုနဲ့ ကျယ်ပြန့်မှုကို၊ သတင်းအချက်အလက်တွေကို 00:03:24.739 --> 00:03:28.561 ထိတွေ့ခံစားလိုက်ရတဲ့ ပြည်သူ အရေအတွက် စသဖြင့် လေ့လာနိုင်ခဲ့ကြတယ်။ 00:03:28.712 --> 00:03:30.256 အဲဒီစာတမ်းထဲတွင် ကျွန်ုပ်တို့ဟာ 00:03:30.256 --> 00:03:34.165 သတင်းအမှန်တွေရဲ့ ပျံ့နှံ့မှုကို သတင်းအမှား ပျံ့နှံ့မှုနဲ့ နှိုင်းယှဉ်ခဲ့ကြပါသေးတယ်။ 00:03:34.165 --> 00:03:36.022 ကျွန်ုပ်တို့ တွေ့ခဲ့ရတာ ဒီလိုရှိပါတယ်။ 00:03:36.046 --> 00:03:39.635 ကျွန်ုပ်တို့ လေ့လာခဲ့သမျှ သတင်းအမျိုးအစားတိုင်းမှာ 00:03:39.635 --> 00:03:41.855 သတင်းအတုတွေဟာ သတင်းမှန်နဲ့ စာရင် ပိုဝေးတဲ့အထိ၊ 00:03:41.855 --> 00:03:45.316 ပိုမြန်ဆန် နက်ရှိုင်းစွာ၊ ကျယ်ပြန့်စွာ ပျံ့နှံ့နိုင်ခဲ့တာကို တွေ့ခဲ့ရပြီး 00:03:45.316 --> 00:03:47.405 တစ်ခါတစ်ရံတွင် ဆယ်ဆထိ ပိုအားကောင်းခဲ့ပါတယ်။ 00:03:47.622 --> 00:03:51.236 လက်တွေ့မှာ၊ နိုင်ငံရေး သတင်းအတုတွေဟာ အမြန်ဆုံး ပျံ့နှံ့ခဲ့ကြပါတယ်။ 00:03:51.236 --> 00:03:54.537 ၎င်းဟာ အခြား ဘယ်သတင်းတုတွေနဲ့ကို မတူပဲ ပိုမိုမြန်ဆန် နက်ရှိုင်းစွာနဲ့ 00:03:54.537 --> 00:03:56.893 ပိုပြီး ကျယ်ပြန့်စွာ ပျံ့နှံ့နိုင်ခဲ့တာ ဖြစ်ပါတယ်။ 00:03:56.893 --> 00:03:58.774 ကျွန်ုပ်တို့ အဲဒါကို တွေ့မြင်လိုက်ရတော့ 00:03:58.774 --> 00:04:01.545 စိုးရိမ်မိတဲ့ တချိန်တည်းမှာ စိတ်ဝင်စားလာခဲ့ကြတယ်။ 00:04:01.569 --> 00:04:02.720 ဘာ​ကြောင့်များလဲ။ 00:04:02.744 --> 00:04:05.397 သတင်းမှားတွေဟာ ဘာကြောင့်များ သတင်းမှန်တွေနဲ့စာရင် 00:04:05.397 --> 00:04:08.339 ပိုမိုမြန်ဆန် နက်ရှိုင်းစွာနဲ့ ကျယ်ပြန့်စွာ ပျံ့နှံ့နိုင်တာလဲ။ 00:04:08.339 --> 00:04:11.300 ကျွန်ုပ်တို့ဆီမှာ ပထမဦးဆုံး ပေါ်လာတဲ့ ယူဆချက်က၊ 00:04:11.324 --> 00:04:16.116 "သတင်းတုတွေကို ဖြန့်ဝေသူတို့ထံမှာ နောက် လိုက်များလို့၊ သူတို့က လိုက်တဲ့လူများလို့၊ 00:04:16.116 --> 00:04:17.697 ဒါမှမဟုတ် ပိုမကြာခဏ tweet ကြလို့၊ 00:04:17.721 --> 00:04:21.427 ဒါမှမဟုတ် သူတို့ထဲမှာ 'စိစစ်ပြီး' သူတွေ များလို့၊ စိတ်ချယုံကြည်မှု ပိုများလို့၊ 00:04:21.427 --> 00:04:24.457 ဒါမှမဟုတ် သူတို့ရဲ့ Twitter သက်တမ်း ပိုကြာရှည်လို့" ထင်ခဲ့ကြတယ်။ 00:04:24.457 --> 00:04:26.475 အဲဒါနဲ့ အဲဒီတစ်ချက်ချင်းကို စစ်ဆေးခဲ့ကြတယ်။ 00:04:26.475 --> 00:04:29.671 ကျွန်ုပ်တို့ တွေ့လိုက်ရတဲ့အချက်က လုံးဝကို ပြောင်းပြန် ဖြစ်နေခဲ့တယ်။ 00:04:29.671 --> 00:04:32.275 သတင်းတု ဖြန့်ဝေကြသူတို့မှာ နောက်လိုက်တွေ ပိုနည်းနေတယ်၊ 00:04:32.275 --> 00:04:34.653 သူတို့ လိုက်ကြည့်သူ နည်းပြီး တက်ကြွမှု နည်းခဲ့တယ်၊ 00:04:34.653 --> 00:04:36.217 "စိစစ်ပြီးသူ" မကြာခဏ နည်းခဲ့တယ်။ 00:04:36.217 --> 00:04:38.951 ပြီးတော့ Twitter မှာ လုပ်သက်လည်း တိုတောင်းတဲ့ အချိန်ကာလပါ။ 00:04:38.951 --> 00:04:40.030 ဒါတောင်မှ၊ 00:04:40.054 --> 00:04:45.087 သတင်းတုဟာ သတင်းမှန်နဲ့ဆိုရင် ထိန်းချုပ်မှု မျိုးစုံနဲ့ အခြား အချက်အလက်များကြောင့် 00:04:45.111 --> 00:04:48.224 ပြန်ပြီး tweet လုပ်ခံရဖို့ အလားအလာ ၇၀ ရာခိုင်နှုန်းပိုပါတယ်။ 00:04:48.224 --> 00:04:51.188 အဲဒါကြောင့် ကျွန်ုပ်တို့ဟာ ဒီပြင် ရှင်းလင်းချက်ကို ရှာခဲ့ရတယ်။ 00:04:51.212 --> 00:04:54.679 အဲဒါကို ကျွန်ုပ်တို့က "ဆန်းသစ်တဲ့ ယူဆချက်"လို့ ခေါ်တွင်ကြပါတယ်။ 00:04:55.038 --> 00:04:56.998 ဥပမာ၊ ကျုပ်တို့က စာပေကို ဖတ်ရှုစဉ်၊ 00:04:57.022 --> 00:05:00.776 လူသားရဲ့ အာရုံဟာ ဆန်းသစ်မှုဆီကို ပတ်ဝန်းကျင်ထဲက အသစ်ဖြစ်တဲ့ အရာထံသို့ 00:05:00.800 --> 00:05:02.789 ဆွဲဆောင်ခံရတာ အားလုံးအသိပါ။ 00:05:02.789 --> 00:05:05.328 ကျုပ်တို့က လူမှုရေး စာပေကို ဖတ်ကြည့်ကြမယ် ဆိုရင်လည်း၊ 00:05:05.352 --> 00:05:09.652 ဆန်းသစ်တဲ့ အချက်အလက်တွေကို ကျုပ်တို့ မျှဝေချင်ကြတာ အားလုံးအသိပါ။ 00:05:09.676 --> 00:05:13.514 အဲဒီအချက်က ကျုပ်တို့ဟာ အတွင်းပိုင်း သတင်းကို သိထားသူဖြစ်သလို ထင်စေပြီး 00:05:13.514 --> 00:05:17.323 ဒီလို သတင်းမျိုး ဖြန့်ဝေခြင်းဖြင့် ကျွန် တော်တို့ အဆင့်ပိုမြင့်လာမယ် ထင်ကြလို့ပါ။ 00:05:17.792 --> 00:05:24.244 အဲဒါနဲ့ ကျွန်ုပ်တို့ဟာ ဝင်လာတဲ့ tweet တစ်ခုရဲ့ ဆန်းသစ်မှုကို၊ 00:05:24.268 --> 00:05:28.323 ထိုသူက Twitter ပေါ်မှာ လွန်ခဲ့တဲ့ ရက် ၆၀ အတွင်းမှာ မြင်တွေ့ခဲ့ရတဲ့ 00:05:28.347 --> 00:05:30.619 ဟာတွေနဲ့ နှိုင်းယှဉ်ပြီး တိုင်းတာခဲ့ကြပါတယ်။ 00:05:30.619 --> 00:05:33.982 ဒါပေမဲ့ ဒါဟာ မလုံလောက်သေးဘူးလို့ ကျုပ်တို့ မိမိဘာသာမိမိ စဉ်းစားမိကြတယ်။ 00:05:34.006 --> 00:05:38.214 "သတင်းတုဟာ အချက်အလက် သီအိုရီအရ ဆန်းသစ်တယ်လို့ ထင်ရပေမဲ့၊ 00:05:38.238 --> 00:05:41.606 လူတွေကျတော့ ၎င်းတို့ကို ပိုဆန်းသစ်တယ်လို့ ထင်မှတ်ချင်မှ ထင်မှတ်ကြမယ်။" 00:05:41.849 --> 00:05:45.776 အဲဒါနဲ့ သတင်းတုများအား လူတွေ ခံယူကြပုံကို နားလည်ရန်၊ 00:05:45.800 --> 00:05:49.490 ကျွန်ုပ်တို့ဟာ သတင်းတုနဲ့ သတင်းမှန်များအား 00:05:49.514 --> 00:05:53.490 လူတွေ တုံ့ပြန်ကြပုံထဲက အချက်အလက် ရေးသားချက်တွကို စစ်ကြည့်ခဲ့ကြတယ်။ 00:05:53.490 --> 00:05:55.228 ကျွန်ုပ်တို့ တွေ့ရှိလိုက်ရတဲ့ အချက်က 00:05:55.252 --> 00:05:59.466 ခံစားချက်အား တိုင်ထွာရေး နည်းလမ်း တသီကြီးရှိကြတဲ့ အထဲမှာ၊ 00:05:59.490 --> 00:06:02.791 အံ့အားသင့်မှု၊ ရွံရှာမှု၊ ကြောက်မှု၊ ဝမ်းနည်းမှု၊ 00:06:02.815 --> 00:06:05.299 မျှော်လင့်ခြင်း၊ ဝမ်းမြောက်ခြင်းနှင့်ယုံကြည်ခြင်း-- 00:06:05.323 --> 00:06:11.180 သတင်းတုများအား တုံ့ပြန်ကြရာတွင် အံ့အားသင့်မှုနဲ့ ရွံရှာမှုကို 00:06:11.204 --> 00:06:14.010 သိသိသာသာ ပိုပြီး ပြသခဲ့ကြပါတယ်။ 00:06:14.392 --> 00:06:18.181 သတင်းမှန် tweet တွေ တုံ့ပြန်ရာမှာ မျှော်လင့်မှု၊ 00:06:18.205 --> 00:06:19.752 ပျော်ရွှင်မှုနဲ့ ယုံကြည်မှုကို 00:06:19.776 --> 00:06:22.323 သိသာစွာ ပိုပြီး ပြသခဲ့ကြပါတယ်။ 00:06:22.347 --> 00:06:26.133 အံ့အားသင့်စရာက ကျုပ်တို့ရဲ့ ဆန်းသစ်တဲ့ ယူဆချက်ကို သက်သေထူပြနေတယ်။ 00:06:26.157 --> 00:06:30.766 အဲဒါဟာ အသစ်အဆန်း ဖြစ်နေပြီး အံ့အား သင့်စရာမို့လို့ ကျုပ်တို့ မျှဝေလိုကြပါတယ်။ 00:06:30.766 --> 00:06:33.617 အဲဒီအချိန်မှာပဲ အမေရိကန် ပြည်ထောင်စုမှာ ကွန်ဂရက်ရဲ့ 00:06:33.617 --> 00:06:37.077 လွှတ်တော်နှစ်ရပ်စလုံး ရှေ့မှောက်မှာ ကွန်၈ရက် ကြားနာမှု တစ်ခု ရှိနေခဲ့တယ်၊ 00:06:37.101 --> 00:06:40.839 လုပ်ကြံသတင်းများကို ထုတ်လွှင့်ရာတွင် bot တွေရဲ့ အခန်းကဏ္ဍကို စူးစမ်းနေခဲ့ကြတယ်။ 00:06:40.863 --> 00:06:42.591 ကျုပ်တို့ကလည်း အဲဒါကို ကြည့်ခဲ့တယ်-- 00:06:42.591 --> 00:06:45.839 များပြားလှတဲ့ နောက်ဆုံးပေါ် bot ဖေါ်ထုတ်ရေး အယ်လ်ဂိုရီသမ်ကို သုံးပြီး 00:06:45.863 --> 00:06:49.217 ကျုပ်တို့ရဲ့ ဒေတာထဲမှာ bot တွေကို ရှာဖွေ ဆွဲထုတ်ယူရန် ကြိုးစားခဲ့ကြတယ်။ 00:06:49.227 --> 00:06:52.420 အဲဒါနဲ့ ကျုပ်တို့က ၎င်းတို့ကို ထုတ်ယူ ခဲ့ကြတယ်၊ ပြန်ထည့်ပေးခဲ့ပြီး 00:06:52.420 --> 00:06:55.263 ကျုပ်တို့ရဲ့ တိုင်းတာမှုတွေ ဘယ်လို ဖြစ်လာသလဲ ဆန်းစစ်ခဲ့တယ်။ 00:06:55.263 --> 00:06:57.570 ကျုပ်တို့ တွေ့လိုက်ရတဲ့ အချက်က၊ လက်တွေ့မှာကျတော့၊ 00:06:57.570 --> 00:07:01.172 bot တွေဟာ သတင်းတုတွေကို အွန်လိုင်းမှာ ဖြန့်ချိမှုကို အရှိန်မြှင့်နေခဲ့ကြတယ်၊ 00:07:01.196 --> 00:07:04.581 ဒါပေမဲ့ ၎င်းတို့ဟာ သတင်းမှန်တွေကိုလည်း အလားတူတဲ့ နှုန်းမျိုးနီးပါးနဲ့ပဲ 00:07:04.581 --> 00:07:06.276 ပျံ့နှံ့ပေးနေခဲ့ကြတယ် ဆိုတာကိုပါ။ 00:07:06.300 --> 00:07:09.158 ဒီတော့ သတင်းမှန်နဲ့ သတင်းတုတွေ အွန်လိုင်းမှာ 00:07:09.182 --> 00:07:13.895 ပျံ့နှံ့ပုံမတူ ကွဲပြားမှုအတွက် bot တွေ ဆီမှာ တာဝန် မရှိခြင်းကို ဆိုလိုပါတယ်။ 00:07:13.919 --> 00:07:16.768 လက်တွေ့မှာ အဲဒီလို ပျံ့နှံ့မှုအတွက် ကျွန်ုပ်တို့ 00:07:16.792 --> 00:07:21.051 လူသားတွေ တာဝန်ရှိကြလို့ ၎င်းတို့ကို အပြစ်ဖို့လို့ မရနိုင်ပါ။ 00:07:22.472 --> 00:07:25.626 ကျွန်တော် အခုထိ ခင်ဗျားတို့ကို ပြောပြလာခဲ့တဲ့ အရာအားလုံးဟာ၊ 00:07:25.626 --> 00:07:27.584 ကံဆိုးချင်တော့၊ ကျုပ်တို့ အားလုံးအတွက် 00:07:27.608 --> 00:07:28.869 သတင်းကောင်းတွေပါ။ 00:07:30.670 --> 00:07:35.120 ဒီလိုပြောရတာက ဒါတွေဟာ ဒီထက်ကို များစွာမှ ပိုပြီး ဆိုးဝါးလာမှာမို့လို့ပါ။ 00:07:35.850 --> 00:07:39.532 အဲဒါကို ဆိုးဝါးအောင် လုပ်ပေးကြမှာက အထူးထောက်ပြရမယ့် နည်းပညာ နှစ်ခုပါ။ 00:07:40.207 --> 00:07:45.379 ကျုပ်တို့ဟာ မီဒီယာအတုရဲ့ ဧရာမလှိုင်းကြီး တက်လာမှာကို မြင်ကြရဖို့ ရှိနေတယ်။ 00:07:45.403 --> 00:07:51.434 လူသားရဲ့ မျက်လုံးအတွက် အားကျစရာကောင်းတဲ့ ဗီဒီယိုအတု၊ အသံအတုတွေပါ။ 00:07:51.458 --> 00:07:54.212 အဲဒါကို မောင်းနှင်ပေးမှာက နည်းပညာနှစ်ခုပါ။ 00:07:54.236 --> 00:07:57.649 ပထမ တစ်ခုကို “ထုတ်လုပ်ရေး ရန်ဘက် ကွန်ရက်များ”လို့ ခေါ်ပါတယ်။ 00:07:57.649 --> 00:08:00.656 စက်များကို သင်ကြားပေးရေး မော်ဒယ်ဖြစ်ပြီး ကွန်ရက်နှစ်ခု ပါပါတယ်- 00:08:00.680 --> 00:08:02.227 ခွဲခြားသတ်မှတ်ပေးသူ၊ 00:08:02.251 --> 00:08:06.381 တစ်ခုခုဟာ မှန်လား မှားလားကို ဆုံးဖြတ်ပေးရန် တာဝန်ရှိသူပါ၊ 00:08:06.381 --> 00:08:07.642 ပြီးတော့ ဂျင်နရေတာ ပါတယ်၊ 00:08:07.666 --> 00:08:10.816 မီဒီယာအတုကို ထုတ်လုပ်ပေးဖို့ တာဝန်ရှိသူပါ။ 00:08:10.840 --> 00:08:15.942 ဒီလိုနည်းဖြင့် ဂျင်နရေတာ အတုက ဗီဒီယိုနဲ့ အသံ အတုကို ထုတ်လုပ်ပေးတယ်၊ 00:08:15.966 --> 00:08:20.641 ခွဲခြားသတ်မှတ်သူကျတော့ "အဲဒါဟာ ဟုတ်မှန်လား ဒါမှမဟုတ် အတုလား" ပြောပြပေးရပါမယ်။ 00:08:20.665 --> 00:08:23.539 တကယ်တော့ ဂျင်နရေတာရဲ့ တာဝန်က 00:08:23.563 --> 00:08:27.998 ခွဲခြားသတ်မှတ်သူ အနေနဲ့ ဗီဒီယိုနဲ့အသံ အတုတွေကို တကယ် အမှန်လို 00:08:28.022 --> 00:08:31.609 ထင်မြင်လာစေရန် အစွမ်းကုန် 00:08:31.633 --> 00:08:33.363 ကြိုးပမ်းဖို့ ဖြစ်ပါတယ်။ 00:08:33.387 --> 00:08:35.760 hyperloop ကို သုံးတဲ့ စက်တစ်ခုကို စိတ်ကူးကြည့်ပါ၊ 00:08:35.784 --> 00:08:38.987 ကျုပ်တို့ကို အရူးလုပ်ရာတွင် ပိုပို တော်လာနေတဲ့ စက်ဖြစ်ပါလိမ့်မယ်။ 00:08:39.114 --> 00:08:41.614 ဒါကို ဒုတိယနည်းပညာနဲ့ပေါင်းပေးလိုက်ရင်၊ 00:08:41.638 --> 00:08:47.360 ဉာဏ်ရည်တုအား အများပြည်သူတို့ သုံးလာစေရန် အတွက် မရှိမဖြစ်လိုအပ်ချက်ပါ၊ 00:08:47.384 --> 00:08:49.573 မည်သူမဆိုဟာ 00:08:49.597 --> 00:08:52.427 ဉာဏ်ရည်အတု အကြောင်းကို ဘာမှ လေ့လာမသိသူတောင်မှ 00:08:52.451 --> 00:08:54.257 စက်တွေကို သင်ကြားခြင်းကို မသိတောင်၊ 00:08:54.257 --> 00:08:57.760 ဒီလို မီဒီယာအတု ထုတ်လုပ်ရေး အယ်လ်ဂိုရီသမ်ကို သုံးနိုင်မှာမို့လို့၊ 00:08:57.784 --> 00:09:02.331 ခုနက ဗွီဒီယိုတွေကို ဖန်တီးရေး အလုပ်ဟာ သိပ်ကို လွယ်ကူလာမှာပါ။ 00:09:02.355 --> 00:09:06.776 အိမ်ဖြူတော်ဟာ အတုဖြစ်တဲ့ လုပ်ကြံ ဗီဒီယိုတစ်ခုကို ထုတ်ဝေခဲ့ရာ 00:09:06.800 --> 00:09:10.598 သတင်းစာဆရာက ထိန်းသိမ်းခံတဦးနဲ့ ဆက်ဆံနေစဉ် ထိုသူက မိုက်ခရိုဖုန်းကို ယူလိုခဲ့တယ်။ 00:09:10.598 --> 00:09:13.610 သူတို့ဟာ အဲဒီဗီဒီယိုထဲကနေပြီး ဘောင်တွေကို ဖယ်ရှားပစ်ခြင်းဖြင့် 00:09:13.610 --> 00:09:16.737 ထိုသူရဲ့ လုပ်ရပ်ကို ပိုပြီး ယုတ္တိရှိအောင် လုပ်ခဲ့ကြတယ်။ 00:09:17.157 --> 00:09:20.542 ဗီဒီယိုရိုက်သူတွေနဲ့ သာမန်အမျိုးသားများနဲ့ အမျိုးသမီးများကို 00:09:20.566 --> 00:09:22.993 အခုက နည်းပညာအကြောင်းကို မေးမြန်းကြည့်တော့၊ 00:09:23.017 --> 00:09:26.845 သူတို့က "ဟုတ်တယ်၊ ကျုပ်တို့ ရုပ်ရှင်တွေထဲ မယ် ဒါကို တချိန်လုံးသုံးကြတယ်။" 00:09:26.869 --> 00:09:31.632 ကျုပ်တို့ရဲ့ ထိုးနှက်မှုတွေ ပိုပြီး ယုတ္တိ ရှိဖို့ ပိုးကြောက်စရာ ကောင်းဖို့ အတွက်ပါ။" 00:09:31.738 --> 00:09:33.945 သူတို့က ခုနက ဗီဒီယိုကို ဖွင့်ပြခဲ့ကြပြီး 00:09:33.945 --> 00:09:36.903 Jim Acosta ဆိုတဲ့ သတင်းထောက်အား အိမ်ဖြူတော်မှ ထုတ်ပေးထားခဲ့တဲ့ 00:09:36.903 --> 00:09:40.682 စာနယ်ဇင်းလက်မှတ်ကို ရုပ်သိမ်းဖို့ 00:09:40.706 --> 00:09:42.045 အသုံးပြုခဲ့ကြတယ်။ 00:09:42.069 --> 00:09:46.878 စာနယ်ဇင်းလက်မှတ် ပြန်ရဖို့အတွက် CNN ဟာ ရုံးတင်တရားစွဲခဲ့ရပါတယ်။ 00:09:48.538 --> 00:09:54.141 ဒီနေ့တွင် သိပ်ကို ခဲယဉ်းကြတဲ့ အဲဒီလို ပြဿနာတွေကို ကိုင်တွယ်နိုင်ရန် 00:09:54.165 --> 00:09:57.904 ကျုပ်တို့ လိုက်နာကြရမယ့် မတူတဲ့ နည်းလမ်း ငါးခုခန့် ရှိပါတယ်။ 00:09:57.904 --> 00:10:00.189 ၎င်းတို့ တစ်ခုချင်းစီဆီတွင် ဖြေရှင်းနည်းရှိပေမဲ့ 00:10:00.213 --> 00:10:03.212 ၎င်းတို့ထဲတွင် ကိုယ်ပိုင် စိန်ခေါ်မှု တွေလည်း ရှိကြပါတယ်။ 00:10:03.236 --> 00:10:05.244 ပထမတစ်ခုက တံဆိပ်တပ်ခြင်းဖြစ်တယ်။ 00:10:05.268 --> 00:10:06.649 အဲဒါကို ဒီလိုစဉ်းစားကြည့်ပါ - 00:10:06.649 --> 00:10:09.770 စားသုံးဖို့ အစားအစာတွေကို ဝယ်ဖို့ ကုန်စုံဆိုင်ကို သွားရင်၊ 00:10:09.770 --> 00:10:12.188 တံဆိပ်တွေ မျိုးစုံ တပ်ထားတာကို မြင်နိုင်ပါတယ်။ 00:10:12.212 --> 00:10:14.204 တစ်ခုခုထဲတွင် ကယ်လိုရီ ဘယ်လောက်ရှိလဲ၊ 00:10:14.228 --> 00:10:15.559 အဆီ ဘယ်လောက်ပါလဲ - 00:10:15.559 --> 00:10:18.192 သိနိုင်ပေမဲ့ ကျုပ်တို့က သတင်းအချက်အလက် တွေကိုသုံးတဲ့အခါ 00:10:18.192 --> 00:10:20.331 ဘာတံဆိပ်မှာ မရှိပါဘူး။ 00:10:20.355 --> 00:10:22.093 ဒီသတင်း အချက်အလက်တွေထဲမှာ ဘာတွေပါလဲ။ 00:10:22.093 --> 00:10:24.024 အရင်းအမြစ်ကိုကော ယုံကြည်လို့ ရနိုင်လား။ 00:10:24.024 --> 00:10:25.801 ဒီအချက်အလက်တွေကို ဘယ်ကနေ ရရှိခဲ့တာလဲ။ 00:10:25.801 --> 00:10:27.950 ကျုပ်တို့ သတင်းအချက်အလက်တွေကို သုံးစွဲကြရာတွင် 00:10:27.974 --> 00:10:30.077 အဲဒီလို ဘာကိုမျှ ကျုပ်တို့ မသိကြရပါ။ 00:10:30.101 --> 00:10:33.339 ဒါဟာ အလားအလာရှိတဲ့ နည်းလမ်းဖြစ်ပေမဲ့ စိန်ခေါ်မှုတွေလည်း ရှိပါတယ်။ 00:10:33.363 --> 00:10:39.814 ဥပမာ၊ လူ့အဖွဲ့အစည်း အနေနဲ့ ဘယ်ဟာက မှန်တယ်၊ ဘယ်ဟာက အတုပါ ဆိုတာ ဘယ်သူ ဆုံးဖြတ်မလဲ။ 00:10:40.387 --> 00:10:42.029 အစိုးရတွေက များလား။ 00:10:42.053 --> 00:10:43.203 Facebook များလား။ 00:10:43.401 --> 00:10:46.873 အချက်အလက်များကို စစ်ဆေးပေးတဲ့ သီးခြားအဖွဲ့အစည်း တစ်ခုလား။ 00:10:46.873 --> 00:10:50.243 ပြီးတော့ အဲဒီအချက်အလက်များကို စစ်ဆေး ပေးသူကိုကော ဘယ်သူက စစ်ဆေးပေးသလဲ။ 00:10:50.427 --> 00:10:53.511 နောက်ထပ် ဖြစ်နိုင်တဲ့ နည်းလမ်းက မက်လုံးပေးခြင်းပါပဲ။ 00:10:53.535 --> 00:10:56.169 အမေရိကန် သမ္မတရွေးကောက်ပွဲ အတွင်းမှာ 00:10:56.193 --> 00:10:59.883 Macedonia မှ လာတဲ့ တလွဲသတင်းများရဲ့ လှိုင်းဂယက် ရှိခဲ့တာ သိလာခဲ့ရပါတယ်။ 00:10:59.907 --> 00:11:02.244 ၎င်းဆီမှာ နိုင်ငံရေး ရည်ရွယ်ချက် မရှိခဲ့ပေမဲ့ 00:11:02.268 --> 00:11:04.728 စီးပွားရေး ရည်ရွယ်ချက် ရှိခဲ့ပါတယ်။ 00:11:04.752 --> 00:11:07.288 အဲဒီလို စီးပွားရေး ရည်ရွယ်ချက်ဟာ အတော်ကြာ ရှိနေခဲ့တာက 00:11:07.288 --> 00:11:10.472 သတင်းတုတွေဟာ သတင်းမှန်ထက်ကို ပိုပြီး ဝေးအောင်၊ ပိုမြန်ဆန်စွာ 00:11:10.472 --> 00:11:12.482 ခရီးရောက်နိုင်ခဲ့ကြတဲ့ အတွက် 00:11:12.506 --> 00:11:17.466 တချို့သူတို့ဟာ ဒီလို သတင်းအမျိုးအစားဆီကို အာရုံစိုက်နေသူများကို အခွင့်ကောင်းယူပြီး 00:11:17.490 --> 00:11:19.450 ကြော်ငြာရင်း ဒေါ်လာတွေ ရယူနိုင်ခဲ့လို့ပါ။ 00:11:19.474 --> 00:11:23.307 တကယ်လို့ ကျုပ်တို့က အဲဒီလို သတင်းမျိုး ဖြန့်မှုကို အရှိန်လျှော့ချနိုင်ကြမယ်ဆိုရင် 00:11:23.331 --> 00:11:26.058 ၎င်းရဲ့ စီးပွားရေးမက်လုံး တန်ဖိုး လျော့ကျသွားနိုင်လို့ 00:11:26.058 --> 00:11:28.942 ၎င်းကို ထိပ်ဆုံးနေရာမှာ ထည့်ကြော်ငြာ နိုင်မှာ မဟုတ်တော့ပါဘူး။ 00:11:28.966 --> 00:11:31.980 တတိယနည်း အဖြစ် စည်းကမ်းတွေဖြင့် ထိန်းချုပ်ဖို့ စဉ်းစားနိုင်တယ်။ 00:11:31.980 --> 00:11:33.715 ဒီနည်းကို စဉ်းစားသင့်တာ သေချာပါတယ်။ 00:11:33.715 --> 00:11:35.450 လောလောဆယ်မှာ အမေရိကန် ပြည်ထောင်စုမှာ 00:11:35.474 --> 00:11:40.202 Facebook နှင့်အခြားသူတွေကို စည်းကမ်းချ လိုက်နာစေရင် ဘယ်လိုဖြစ်လာမလဲ စူးစမ်းနေတယ်။ 00:11:40.202 --> 00:11:44.147 ကျုပ်တို့က နိုင်ငံရေး မိန့်ခွန်းတွေအတွက် စည်းကမ်းတွေ ချမှတ်ရေး စဉ်းစားသင့်ချိန်မှာ၊ 00:11:44.171 --> 00:11:46.833 ဒါဟာ နိုင်ငံရေး မိန့်ခွန်းဖြစ်ကြောင်း တံဆိပ်တပ်ပေးကြမယ်၊ 00:11:46.833 --> 00:11:50.546 နိုင်ငံခြားသားများ နိုင်ငံရေးမိန့်ခွန်းကို ငွေကြေး မထောက်ပံ့ဖြစ်တာ သေချာစေရမယ်။ 00:11:50.546 --> 00:11:53.093 ဆိုရင် အဲဒီထဲမှာလည်း ကိုယ်ပိုင် အန္တရာယ်တွေ ရှိပါတယ်။ 00:11:53.522 --> 00:11:58.400 ဥပမာ၊ မလေးရှားနိုင်ငံဟာ လုပ်ကြံသတင်းကို ဖြန့်ချိကြောင်း တွေ့ရှိလျှင် 00:11:58.424 --> 00:12:01.158 ထောင်ဒဏ် ခြောက်နှစ် ချမှတ်ရန် ဆုံးဖြတ်ခဲ့ပါတယ်။ 00:12:01.696 --> 00:12:03.775 ပြီးတော့ အာဏာရှင်အစိုးရတွေထဲမှာ ဆိုရင်၊ 00:12:03.799 --> 00:12:08.465 အဲဒီလို မူဝါဒတွေကို လူနည်းစုရဲ့ အာဘော်ကို ဖိနှိပ်ရန် သုံးနိုင်ပြီး 00:12:08.489 --> 00:12:11.997 ချုပ်ချယ်မှုကို ဆက်တိုးချဲ့နိုင်ပါတယ်။ 00:12:12.680 --> 00:12:16.223 စတုတ္ထဖြစ်နိုင်ခြေ ရွေးစရာက ပွင့်လင်းမြင်သာမှုဖြစ်တယ်။ 00:12:16.393 --> 00:12:20.337 Facebook ရဲ့ အယ်လ်ဂိုရီသမ် အလုပ်လုပ်ပုံကို ကျုပ်တို့ သိချင်ကြပါတယ်။ 00:12:20.337 --> 00:12:23.461 ကျုပ်တို့ မြင်တွေ့ကြရတဲ့ ရလဒ်မျိုး ပေါ်ထွက်လာဖို့အတွက် သူတို့ဟာ 00:12:23.485 --> 00:12:26.323 ဒေတာကို ဘယ်လို အယ်လ်ဂိုရီသမ်နဲ့ စီမံဆောင်ရွက်ပေးကြတာလဲ။ 00:12:26.347 --> 00:12:28.696 ကျုပ်တို့က သူတို့ကို ကန့်လန့်ကားကို ဖွင့်ပြလျက် 00:12:28.720 --> 00:12:31.864 Facebook ရဲ့ အတွင်းပိုင်းမှာ တကယ် လုပ်ကိုင်ကြပုံကို ပြသစေလိုပါတယ်။ 00:12:31.888 --> 00:12:35.851 ပြီးတော့ ကျုပ်တို့က လူမှုမီဒီယာက လူ့အဖွဲ့ အစည်းအပေါ် အကျိုးသက်ရောက်ပုံကို သိချင်ရင်၊ 00:12:35.851 --> 00:12:37.597 သိပ္ပံပညာရှင်တွေ၊ သုတေသီတွေနဲ့ 00:12:37.597 --> 00:12:41.014 ဒီလို အချက်အလက်တွေကို ရယူလေ့လာနိုင်ကြမယ့် အခြားသူတွေ လိုအပ်ကြပါလိမ့်မည်။ 00:12:41.038 --> 00:12:42.585 ဒါပေမဲ့ တစ်ချိန်တည်းမှာ 00:12:42.609 --> 00:12:45.610 ကျုပ်တို့က Facebook ကို အရာတွေအားလုံးကို သော့ချပိတ်ထားရန်၊ 00:12:45.610 --> 00:12:48.607 ဒေတာ အားလုံးကို လုံခြုံစွာ ထားပေးရန်ကိုလည်း တောင်းဆိုနေကြပါတယ်။ 00:12:48.631 --> 00:12:51.790 အဲဒီလိုနည်းဖြင့် Facebook နဲ့ အခြားလူမှုမီဒီယာ ပလက်ဖောင်းတွေဟာ 00:12:51.814 --> 00:12:54.416 ပွင့်လင်းမြင်သာရေး ဝိရောဓိကို ရင်ဆိုင်နေကြရပါတယ်။ 00:12:54.416 --> 00:12:58.404 ကျုပ်တို့က သူတို့ကို ပွင့်လင်း မြင်သာမှု ရှိကြဖို့ကို တောင်းဆိုနေတဲ့ တချိန်တည်းမှာ 00:12:58.404 --> 00:13:02.683 ပိုပြီး လုံခြုံစွာ လုပ်ကိုင်ရန်ကို တောင်းဆိုနေကြပါတယ်။ 00:13:02.683 --> 00:13:05.208 ဒီလို တောင်းဆိုချက်ဟာ လိုက်နာရန် သိပ်ကို ခဲယဉ်းပါတယ်၊ 00:13:05.208 --> 00:13:08.809 ဒါပေမဲ့ ကျုပ်တို့က လူမှုမီဒီယာ နည်းပညာ တွေရဲ့ ကတိပေးချက်တွေကို ရယူလိုကြပြီး 00:13:08.809 --> 00:13:11.236 ၎င်းတို့ထဲက အန္တရာယ်တွေကို ရှောင်ရှားလိုကြပါက 00:13:11.260 --> 00:13:12.902 သူတို့ဟာ အဲဒါကို လိုက်နာဖြစ်ဖို့ 00:13:12.926 --> 00:13:17.617 ကျုပ်တို့ နောက်ဆုံးစဉ်းစားနိုင်တာက အယ်လ် ဂိုရီသမ်များနဲ့ စက်များသင်ကြားပေးမှုပါပဲ။ 00:13:17.641 --> 00:13:22.528 သတင်းအတုတွေကို စစ်ထုတ်လျက် နားလည်ပြီး ပျံ့နှံ့ပုံကို သိရှိလို့ 00:13:22.528 --> 00:13:25.703 ၎င်းတို့ စီးဆင်းမှုကို လျှော့ချဖို့ ကြိုးစားမယ့် နည်းပညာ လိုပါတယ်။ 00:13:25.734 --> 00:13:28.721 လူသားတွေဟာ ဒီနည်းပညာရဲ့ အာဏာစက်ကွင်းထဲမှာ ရှိကိုရှိနေကြရပါမယ်၊ 00:13:28.745 --> 00:13:31.023 ဘာဖြစ်လို့လဲဆိုတော့ 00:13:31.047 --> 00:13:35.085 နည်းပညာရဲ့ ဖြေရှင်းမှု ဒါမှမဟုတ် ချဉ်းကပ် မှုတစ်ခုခုကို အားကိုးအသုံးပြုခြင်းဟာ 00:13:35.109 --> 00:13:39.156 လူ့ကျင့်ဝတ်ဆိုင်ရာနဲ့ ဒဿနိကဆိုင်ရာ အခြေခံကျတဲ့ မေးခွန်း ဖြစ်ပြီး၊ 00:13:39.180 --> 00:13:41.960 အမှန်တရားနဲ့အတုအပကို ဘယ်လို ကျုပ်တို့ ခွဲခြားကြမလဲ၊ 00:13:41.960 --> 00:13:45.654 အမှန်တရားနဲ့အတုအပကို ဆုံးဖြတ်ပေးနိုင်မယ့် အာဏာကို ဘယ်သူကို ကျုပ်တို့ ပေးကြမလဲ၊ 00:13:45.678 --> 00:13:48.138 ဘယ်ထင်မြင်ချက်က တရားဝင် ဟုတ်မှန်ကြလဲ၊ 00:13:48.162 --> 00:13:51.868 ဘယ်လို မိန့်ခွန်း အမျိုးအစားကို ခွင့်ပြု သင့်သလဲ စတဲ့ မေးခွန်းတွေ ပေါ်လာမှာပါ။ 00:13:51.892 --> 00:13:54.220 နည်းပညာဟာ အဲဒါတွေအတွက် ဖြေရှင်းနည်း မဟုတ်ပါ။ 00:13:54.244 --> 00:13:57.942 လူ့ကျင့်ဝတ်နှင့် ဒဿနိကကသာ အဲဒါတွေကို ဖြေရှင်းပေးနိုင်ပါတယ်။ 00:13:58.110 --> 00:14:01.948 လူသားရဲ့ ဆုံးဖြတ်ချက် ချမှတ်ရေးဆိုင်ရာ၊ 00:14:01.948 --> 00:14:05.053 လူသားတွေရဲ့ ပူးပေါင်းဆောင်ရွက်မှုနှင့် လက်တွဲလုပ်ကိုင်မှုဆိုင်ရာ 00:14:05.077 --> 00:14:08.751 သီအိုရီ အားလုံးတို့ဟာ အမှန်တရားကို အခြေခံကြရတာချည်း ပါပဲ။ 00:14:08.767 --> 00:14:11.223 ဒါပေမဲ့ သတင်းအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊ 00:14:11.223 --> 00:14:12.870 ဗီဒီယိုအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊ 00:14:12.894 --> 00:14:14.776 အသံအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊ 00:14:14.800 --> 00:14:18.724 ကျုပ်တို့ဟာ ဘယ်ဟာက အမှန်၊ ဘယ်ဟာက အတုပါလို့ ကျုပ်တို့ ပြောမရနိုင်တဲ့ 00:14:18.748 --> 00:14:22.637 အရှိတရား နိဂုံးချုပ်နိုင်တဲ့ ခြောက်ကမ်းပါး အနီးကို ချဉ်းကပ်လာနေကြပါတယ်။ 00:14:22.661 --> 00:14:25.700 အဲဒါဟာ တကယ့်ကိုပဲ အန္တရာယ်များလှတဲ့ အလားအလာပါပဲ။ 00:14:26.931 --> 00:14:30.879 ကျုပ်တို့ဟာ လုပ်ကြံအချက်အလက်တွေကို ဆန့်ကျင်လျက် 00:14:30.903 --> 00:14:33.009 အမှန်တရားကို တက်ကြွစွာ ခုခံဖို့ လိုအပ်ပါတယ်။ 00:14:33.009 --> 00:14:36.355 ကျုပ်တို့ရဲ့ နည်းပညာတွေနဲ့၊ ကျုပ်တို့ရဲ့ မူဝါဒတွေနဲ့၊ 00:14:36.379 --> 00:14:38.299 ပြီးတော့ အရေးအကြီးဆုံး ဖြစ်နိုင်တာက၊ 00:14:38.323 --> 00:14:41.537 ကျုပ်တို့ တစ်ဦးချင်းစီရဲ့ တာဝန်သိစိတ်များ၊ 00:14:41.561 --> 00:14:45.116 ဆုံးဖြတ်ချက်များ၊ အပြုအမူများနှင့် လုပ်ဆောင်ဖို့ လိုအပ်ပါမယ်။ 00:14:45.553 --> 00:14:46.990 ကျေးဇူးအများကြီးတင်ပါတယ်။ 00:14:47.014 --> 00:14:50.531 (လက်ခုပ်သံများ)