Return to Video

လုပ်ကြံသတင်းအချက်အလက်များရဲ့ ခေတ်မှာ ကျုပ်တို့ အမှန်တရားကို ဘယ်လို ကာကွယ်ပေးနိင်ကြမလဲ

  • 0:01 - 0:07
    ၂၀၁၃ ခုနှစ်၊ ဧပြီလ ၂၃ ရက်နေ့တွင်၊
  • 0:07 - 0:12
    Associated Press သတင်းဌာနက အောက်ပါ
    tweet ကို Twitter မှ ထုတ်လွှင့်ခဲ့တယ်။
  • 0:12 - 0:15
    "အထူးသတင်းကြေငြာချက်-
  • 0:15 - 0:17
    အိမ်ဖြူတော်မှာ ဗုံးနှစ်လုံး ပေါက်ကွဲခဲ့ရာ
  • 0:17 - 0:20
    ဘားရက် အိုဘားမား ဒဏ်ရာရရှိခဲ့တယ်။ "
  • 0:20 - 0:26
    အဲဒီ tweet ကို ငါးမိနစ်တောင် မရှိတဲ့အချိန်
    အတွင်းမှာ ၄၀၀၀ ပြန်ပြီး tweet ခဲ့ကြတယ်၊
  • 0:26 - 0:28
    နောက်ပိုင်းမှာ
    တောမီးလို ပျံ့နှံ့သွားခဲ့တယ်။
  • 0:29 - 0:33
    ဒါပေမဲ့ အဲဒီတွတ်ဟာ Associated Press မှ
    ထုတ်လွှင့်ခဲ့တဲ့ သတင်းအမှန် မဟုတ်ခဲ့ပါ။
  • 0:33 - 0:36
    တကယ်တမ်းမှာ လိမ်ညာသတင်း ဒါမှမဟုတ်
    လုပ်ကြံသတင်း ဖြစ်ခဲ့ပြီး
  • 0:36 - 0:39
    ဆီးရီးယားဟက်ကာများမှ
    ထုတ်လွှင့်ပေးလိုက်တာပါ။
  • 0:39 - 0:44
    သူတို့ဟာ Associated Press Twitter
    ဌာနထဲ ဖောက်ဝင်ပြီး လွှင့်နိုင်ခဲ့ကြတာ။
  • 0:44 - 0:48
    လူ့အဖွဲ့အစည်းကို အလန့်တကြား ဖြစ်စေရန် ရည်
    ရွယ်ခဲ့ပေမဲ့ နှောင့်ယှက်မှုကြီး ဖြစ်လာတယ်။
  • 0:48 - 0:52
    ဘာဖြစ်လို့လဲဆိုတော့ ရှယ်ယာဈေးကွက်မှာ
    အလိုအလျောက် ကုန်သွယ်ရေး စနစ်တွေက
  • 0:52 - 0:54
    tweet ထဲက သတင်းကို ချက်ချင်းထည့်တွက်လျက်
  • 0:54 - 0:58
    အမေရိကန် ပြည်ထောင်စုရဲ့ သမ္မတဟာ
    ဒဏ်ရာရခဲ့ သို့မဟုတ် သေဆုံးသွားပြီ ဆိုတဲ့
  • 0:58 - 1:01
    အလားအလာကို ထည့်တွက်လျက်
    ၎င်းတို့ရဲ့ ကုန်သွယ်မှုကို
  • 1:01 - 1:02
    ဆက်ပြုလုပ်ခဲ့ကြလို့ပါ။
  • 1:02 - 1:04
    အဲဒါကြောင့် အဲဒီ tweet စပေါ်လာတာနဲ့ကို
  • 1:04 - 1:08
    ချက်ချင်းဆိုသလို စတော့ရှယ်ယာစျေးကွက်ဟာ
    ခြေမွခံလိုက်ရတယ်၊
  • 1:08 - 1:13
    တစ်ရက်တည်း အတွင်းမှာ ပိုင်ဆိုင်မှုတန်ဖိုး
    ဒေါ်လာ ဘီလီယံ ၁၄၀ ဆုံးရှုံးခဲ့ရတယ်။
  • 1:13 - 1:18
    အမေရိကန်ပြည်ထောင်စုရဲ့
    အထူးရှေ့နေချုပ် Robert Mueller က
  • 1:18 - 1:21
    ရုရှားကုမ္ပဏီသုံးခုနဲ့
    ရုရှားလူမျိုး ၁၃ ဦးတို့အား
  • 1:21 - 1:24
    ၂၀၁၆ ခုနှစ် သမ္မတရွေးကောက်ပွဲ အတွင်းမှာ
  • 1:24 - 1:27
    အမေရိကန် ပြည်ထောင်စု ပြည်သူများကို
    လိမ်လည်ရန် ကြံစည်အားထုတ်ခဲ့ကြတယ်လို့
  • 1:27 - 1:31
    တရားဝင် စွပ်စွဲလျက် စွဲချက် တင်ခဲ့ပါတယ်။
  • 1:32 - 1:35
    အဲဒီစွဲချက်ထဲတွင် ဖေါ်ပြခဲ့လို့ သိလာရတာက
  • 1:35 - 1:39
    အင်တာနက်သုတေသနအေဂျင်စီ
    ဆိုတာရဲ့ ဇာတ်လမ်းဖြစ်ပါတယ်။
  • 1:39 - 1:42
    ၎င်းဟာ လူမှုမီဒီယာထဲက ကရင်မလင်ရဲ့
    ကိုယ်ဖျေိာက် စစ်တပ်နဲ့ တူပါတယ်။
  • 1:43 - 1:46
    သမ္မတ ရွေးကောက်ပွဲ တစ်ခုတည်း အတွင်းမှာကို
  • 1:46 - 1:48
    အင်တာနက်အေဂျင်စီရဲ့ အားထုတ်မှုက
  • 1:48 - 1:53
    United States ထဲက Facebook ကို သုံးကြတဲ့
    ပြည်သူ ၁၂၆ သန်းထိ ရောက်ရှိခဲ့ပါတယ်။
  • 1:53 - 1:56
    သူတို့ဟာ သီးခြားစီ ဖြစ်တဲ့ tweet
    သုံးသန်းကို ထုတ်ဝေခဲ့ပြီး
  • 1:56 - 2:00
    YouTube မှာ ၄၃ နာရီဖိုး
    အကြောင်းအရာများကို ထုတ်လွှင့်ခဲ့ကြတယ်။
  • 2:00 - 2:02
    အဲဒါတွေ အားလုံး လုပ်ကြံသတင်းတွေပါ--
  • 2:02 - 2:08
    အမေရိကန် သမ္မတရွေးကောက်ပွဲ ထဲတွင်
    သဘောထားကွဲလွဲစေရန် ရည်ရွယ်ချက်နဲ့ပါ။
  • 2:09 - 2:12
    Oxford တက္ကသိုလ်ရဲ့ မကြာသေးမီက
    သုတေသန တစ်ခုအရ
  • 2:12 - 2:15
    နောက်ဆုံး လုပ်ပြီးသွားခဲ့တဲ့ ဆွီဒင်
    ရွေးကောက်ပွဲတုန်းက
  • 2:15 - 2:19
    လူမှုမီဒီယာမှာ ပျံ့နှံ့နေခဲ့တဲ့ သတင်းအချက်
    အလက် သုံးပုံတစ်ပုံတို့ဟာ
  • 2:19 - 2:21
    ရွေးကောက်ပွဲဆိုင်ရာ ဖေါ်ပြရာတွင်
  • 2:21 - 2:24
    လုပ်ကြံမှု သို့မဟုတ် တလွဲဖေါ်ပြမှု
    ဖြစ်ခဲ့တယ်လို့ တွေ့ခဲ့တယ်။
  • 2:24 - 2:28
    ပြီးတော့၊ လူမှုမီဒီယာတွင် အဲဒီလို မဟုတ်
    မမှန် တမင်ကို ရေးသားဖေါ်ပြမှုက
  • 2:28 - 2:32
    "ဂျီနိုဆိုက် ဝါဒဖြန့်မှု" လို့ ခေါ်တဲ့
    အရာအတွက်ပါ သုံးနိုင်ပါသေးတယ်။
  • 2:32 - 2:35
    ဥပမာအဖြစ် မြန်မာနိုင်ငံထဲက
    ရိုဟင်ဂျာ ပြဿနာ၊
  • 2:35 - 2:38
    အိန္ဒိယတွင် လူတွေ အုပ်စုလိုက်
    သတ်ဖြတ်ခံရမှုများကို ဖေါ်ပြနိုင်ပါတယ်။
  • 2:38 - 2:40
    ကျွန်ုပ်တို့ဟာ သတင်းတုတွေကို လေ့လာတာ
  • 2:40 - 2:43
    အဲဒါ လူတွေအားလုံး မသိခင်တုန်းကတည်းကပါ။
  • 2:43 - 2:48
    အဲဒါနဲ့ ဒီနှစ်မတ်လထုတ် "Science" မှာ
    မျက်နှာဖုံး အကြောင်းအရာအဖြစ်
  • 2:48 - 2:50
    အွန်လိုင်းမှနေပြီး သတင်းအတုများကို
    ဖြန့်ဝေမှုဆိုင်ရာ
  • 2:50 - 2:54
    ကာလအကြာဆုံး သုတေသန စာတမ်းကို
    တင်နိုင်ခဲ့ကြပါတယ်။
  • 2:54 - 2:58
    ကျွန်ပ်တို့ဟာ Twitter ပေါ်တွင် ထုတ်ပြန်တဲ့
    မှန်ကန်ပြီး မဟုတ်မှန်တဲ့ ဖြစ်ရပ်များကို
  • 2:58 - 3:01
    ၎င်းကို စထူထောင်ခဲ့တဲ့ ၂၀၀၆ ခုနှစ်မှ
    ၂၀၁၇ နှစ်အထိ အချိန်ကာလအတွက်
  • 3:01 - 3:04
    မှန်မမှန် စိစစ်ခဲ့ကြပါတယ်။
  • 3:04 - 3:07
    အဲဒီလို အချက်အလက်များကို ကျွန်ုပ်တို့က
    လေ့လာကြရာတွင်၊
  • 3:07 - 3:11
    ကျွန်ုပ်တို့ဟာ သီးခြားလွတ်လပ်ကြတဲ့ အချက်
    အလက် ရှာဖွေရေး အဖွဲ့အစည်း ခြောက်ခုတို့မှ
  • 3:11 - 3:13
    စိစစ်လေ့လာခဲ့ကြတဲ့ အဖြစ်အပျက်များကို
    လေ့လာခဲ့ကြပါတယ်။
  • 3:13 - 3:16
    အဲဒီလိုနည်းဖြင့် ဘယ်အဖြစ်အပျက်
    တွေဟာ မှန်ကန်ခဲ့ကြတယ်၊
  • 3:16 - 3:19
    ဘယ်အဖြစ်အပျက်တွေ မမှန်ကန်ကြဘူး
    ဆိုတာ ကျွန်ုပ်တို့ သိလာရခဲ့တယ်။
  • 3:19 - 3:21
    ၎င်းတို့ရဲ့ ပျံ့နှံ့နိုင်စွမ်းကို
    တိုင်တာနိုင်ခဲ့တယ်၊
  • 3:21 - 3:22
    ပျံ့နှံ့မှုနှုန်း၊
  • 3:22 - 3:25
    နက်ရှိုင်းမှုနဲ့ ကျယ်ပြန့်မှုကို၊
    သတင်းအချက်အလက်တွေကို
  • 3:25 - 3:29
    ထိတွေ့ခံစားလိုက်ရတဲ့ ပြည်သူ အရေအတွက်
    စသဖြင့် လေ့လာနိုင်ခဲ့ကြတယ်။
  • 3:29 - 3:30
    အဲဒီစာတမ်းထဲတွင် ကျွန်ုပ်တို့ဟာ
  • 3:30 - 3:34
    သတင်းအမှန်တွေရဲ့ ပျံ့နှံ့မှုကို သတင်းအမှား
    ပျံ့နှံ့မှုနဲ့ နှိုင်းယှဉ်ခဲ့ကြပါသေးတယ်။
  • 3:34 - 3:36
    ကျွန်ုပ်တို့ တွေ့ခဲ့ရတာ ဒီလိုရှိပါတယ်။
  • 3:36 - 3:40
    ကျွန်ုပ်တို့ လေ့လာခဲ့သမျှ
    သတင်းအမျိုးအစားတိုင်းမှာ
  • 3:40 - 3:42
    သတင်းအတုတွေဟာ သတင်းမှန်နဲ့ စာရင်
    ပိုဝေးတဲ့အထိ၊
  • 3:42 - 3:45
    ပိုမြန်ဆန် နက်ရှိုင်းစွာ၊ ကျယ်ပြန့်စွာ
    ပျံ့နှံ့နိုင်ခဲ့တာကို တွေ့ခဲ့ရပြီး
  • 3:45 - 3:47
    တစ်ခါတစ်ရံတွင် ဆယ်ဆထိ
    ပိုအားကောင်းခဲ့ပါတယ်။
  • 3:48 - 3:51
    လက်တွေ့မှာ၊ နိုင်ငံရေး သတင်းအတုတွေဟာ
    အမြန်ဆုံး ပျံ့နှံ့ခဲ့ကြပါတယ်။
  • 3:51 - 3:55
    ၎င်းဟာ အခြား ဘယ်သတင်းတုတွေနဲ့ကို မတူပဲ
    ပိုမိုမြန်ဆန် နက်ရှိုင်းစွာနဲ့
  • 3:55 - 3:57
    ပိုပြီး ကျယ်ပြန့်စွာ
    ပျံ့နှံ့နိုင်ခဲ့တာ ဖြစ်ပါတယ်။
  • 3:57 - 3:59
    ကျွန်ုပ်တို့ အဲဒါကို တွေ့မြင်လိုက်ရတော့
  • 3:59 - 4:02
    စိုးရိမ်မိတဲ့ တချိန်တည်းမှာ
    စိတ်ဝင်စားလာခဲ့ကြတယ်။
  • 4:02 - 4:03
    ဘာ​ကြောင့်များလဲ။
  • 4:03 - 4:05
    သတင်းမှားတွေဟာ ဘာကြောင့်များ
    သတင်းမှန်တွေနဲ့စာရင်
  • 4:05 - 4:08
    ပိုမိုမြန်ဆန် နက်ရှိုင်းစွာနဲ့
    ကျယ်ပြန့်စွာ ပျံ့နှံ့နိုင်တာလဲ။
  • 4:08 - 4:11
    ကျွန်ုပ်တို့ဆီမှာ ပထမဦးဆုံး ပေါ်လာတဲ့
    ယူဆချက်က၊
  • 4:11 - 4:16
    "သတင်းတုတွေကို ဖြန့်ဝေသူတို့ထံမှာ နောက်
    လိုက်များလို့၊ သူတို့က လိုက်တဲ့လူများလို့၊
  • 4:16 - 4:18
    ဒါမှမဟုတ် ပိုမကြာခဏ tweet ကြလို့၊
  • 4:18 - 4:21
    ဒါမှမဟုတ် သူတို့ထဲမှာ 'စိစစ်ပြီး' သူတွေ
    များလို့၊ စိတ်ချယုံကြည်မှု ပိုများလို့၊
  • 4:21 - 4:24
    ဒါမှမဟုတ် သူတို့ရဲ့ Twitter သက်တမ်း
    ပိုကြာရှည်လို့" ထင်ခဲ့ကြတယ်။
  • 4:24 - 4:26
    အဲဒါနဲ့ အဲဒီတစ်ချက်ချင်းကို
    စစ်ဆေးခဲ့ကြတယ်။
  • 4:26 - 4:30
    ကျွန်ုပ်တို့ တွေ့လိုက်ရတဲ့အချက်က
    လုံးဝကို ပြောင်းပြန် ဖြစ်နေခဲ့တယ်။
  • 4:30 - 4:32
    သတင်းတု ဖြန့်ဝေကြသူတို့မှာ
    နောက်လိုက်တွေ ပိုနည်းနေတယ်၊
  • 4:32 - 4:35
    သူတို့ လိုက်ကြည့်သူ နည်းပြီး
    တက်ကြွမှု နည်းခဲ့တယ်၊
  • 4:35 - 4:36
    "စိစစ်ပြီးသူ" မကြာခဏ နည်းခဲ့တယ်။
  • 4:36 - 4:39
    ပြီးတော့ Twitter မှာ လုပ်သက်လည်း
    တိုတောင်းတဲ့ အချိန်ကာလပါ။
  • 4:39 - 4:40
    ဒါတောင်မှ၊
  • 4:40 - 4:45
    သတင်းတုဟာ သတင်းမှန်နဲ့ဆိုရင် ထိန်းချုပ်မှု
    မျိုးစုံနဲ့ အခြား အချက်အလက်များကြောင့်
  • 4:45 - 4:48
    ပြန်ပြီး tweet လုပ်ခံရဖို့ အလားအလာ
    ၇၀ ရာခိုင်နှုန်းပိုပါတယ်။
  • 4:48 - 4:51
    အဲဒါကြောင့် ကျွန်ုပ်တို့ဟာ
    ဒီပြင် ရှင်းလင်းချက်ကို ရှာခဲ့ရတယ်။
  • 4:51 - 4:55
    အဲဒါကို ကျွန်ုပ်တို့က "ဆန်းသစ်တဲ့
    ယူဆချက်"လို့ ခေါ်တွင်ကြပါတယ်။
  • 4:55 - 4:57
    ဥပမာ၊ ကျုပ်တို့က စာပေကို ဖတ်ရှုစဉ်၊
  • 4:57 - 5:01
    လူသားရဲ့ အာရုံဟာ ဆန်းသစ်မှုဆီကို
    ပတ်ဝန်းကျင်ထဲက အသစ်ဖြစ်တဲ့ အရာထံသို့
  • 5:01 - 5:03
    ဆွဲဆောင်ခံရတာ အားလုံးအသိပါ။
  • 5:03 - 5:05
    ကျုပ်တို့က လူမှုရေး စာပေကို
    ဖတ်ကြည့်ကြမယ် ဆိုရင်လည်း၊
  • 5:05 - 5:10
    ဆန်းသစ်တဲ့ အချက်အလက်တွေကို
    ကျုပ်တို့ မျှဝေချင်ကြတာ အားလုံးအသိပါ။
  • 5:10 - 5:14
    အဲဒီအချက်က ကျုပ်တို့ဟာ အတွင်းပိုင်း
    သတင်းကို သိထားသူဖြစ်သလို ထင်စေပြီး
  • 5:14 - 5:17
    ဒီလို သတင်းမျိုး ဖြန့်ဝေခြင်းဖြင့် ကျွန်
    တော်တို့ အဆင့်ပိုမြင့်လာမယ် ထင်ကြလို့ပါ။
  • 5:18 - 5:24
    အဲဒါနဲ့ ကျွန်ုပ်တို့ဟာ ဝင်လာတဲ့ tweet
    တစ်ခုရဲ့ ဆန်းသစ်မှုကို၊
  • 5:24 - 5:28
    ထိုသူက Twitter ပေါ်မှာ လွန်ခဲ့တဲ့ ရက် ၆၀
    အတွင်းမှာ မြင်တွေ့ခဲ့ရတဲ့
  • 5:28 - 5:31
    ဟာတွေနဲ့ နှိုင်းယှဉ်ပြီး
    တိုင်းတာခဲ့ကြပါတယ်။
  • 5:31 - 5:34
    ဒါပေမဲ့ ဒါဟာ မလုံလောက်သေးဘူးလို့
    ကျုပ်တို့ မိမိဘာသာမိမိ စဉ်းစားမိကြတယ်။
  • 5:34 - 5:38
    "သတင်းတုဟာ အချက်အလက် သီအိုရီအရ
    ဆန်းသစ်တယ်လို့ ထင်ရပေမဲ့၊
  • 5:38 - 5:42
    လူတွေကျတော့ ၎င်းတို့ကို ပိုဆန်းသစ်တယ်လို့
    ထင်မှတ်ချင်မှ ထင်မှတ်ကြမယ်။"
  • 5:42 - 5:46
    အဲဒါနဲ့ သတင်းတုများအား
    လူတွေ ခံယူကြပုံကို နားလည်ရန်၊
  • 5:46 - 5:49
    ကျွန်ုပ်တို့ဟာ သတင်းတုနဲ့ သတင်းမှန်များအား
  • 5:50 - 5:53
    လူတွေ တုံ့ပြန်ကြပုံထဲက အချက်အလက်
    ရေးသားချက်တွကို စစ်ကြည့်ခဲ့ကြတယ်။
  • 5:53 - 5:55
    ကျွန်ုပ်တို့ တွေ့ရှိလိုက်ရတဲ့ အချက်က
  • 5:55 - 5:59
    ခံစားချက်အား တိုင်ထွာရေး
    နည်းလမ်း တသီကြီးရှိကြတဲ့ အထဲမှာ၊
  • 5:59 - 6:03
    အံ့အားသင့်မှု၊ ရွံရှာမှု၊
    ကြောက်မှု၊ ဝမ်းနည်းမှု၊
  • 6:03 - 6:05
    မျှော်လင့်ခြင်း၊
    ဝမ်းမြောက်ခြင်းနှင့်ယုံကြည်ခြင်း--
  • 6:05 - 6:11
    သတင်းတုများအား တုံ့ပြန်ကြရာတွင်
    အံ့အားသင့်မှုနဲ့ ရွံရှာမှုကို
  • 6:11 - 6:14
    သိသိသာသာ ပိုပြီး ပြသခဲ့ကြပါတယ်။
  • 6:14 - 6:18
    သတင်းမှန် tweet တွေ
    တုံ့ပြန်ရာမှာ မျှော်လင့်မှု၊
  • 6:18 - 6:20
    ပျော်ရွှင်မှုနဲ့ ယုံကြည်မှုကို
  • 6:20 - 6:22
    သိသာစွာ ပိုပြီး ပြသခဲ့ကြပါတယ်။
  • 6:22 - 6:26
    အံ့အားသင့်စရာက ကျုပ်တို့ရဲ့ ဆန်းသစ်တဲ့
    ယူဆချက်ကို သက်သေထူပြနေတယ်။
  • 6:26 - 6:31
    အဲဒါဟာ အသစ်အဆန်း ဖြစ်နေပြီး အံ့အား
    သင့်စရာမို့လို့ ကျုပ်တို့ မျှဝေလိုကြပါတယ်။
  • 6:31 - 6:34
    အဲဒီအချိန်မှာပဲ အမေရိကန် ပြည်ထောင်စုမှာ
    ကွန်ဂရက်ရဲ့
  • 6:34 - 6:37
    လွှတ်တော်နှစ်ရပ်စလုံး ရှေ့မှောက်မှာ
    ကွန်၈ရက် ကြားနာမှု တစ်ခု ရှိနေခဲ့တယ်၊
  • 6:37 - 6:41
    လုပ်ကြံသတင်းများကို ထုတ်လွှင့်ရာတွင်
    bot တွေရဲ့ အခန်းကဏ္ဍကို စူးစမ်းနေခဲ့ကြတယ်။
  • 6:41 - 6:43
    ကျုပ်တို့ကလည်း
    အဲဒါကို ကြည့်ခဲ့တယ်--
  • 6:43 - 6:46
    များပြားလှတဲ့ နောက်ဆုံးပေါ်
    bot ဖေါ်ထုတ်ရေး အယ်လ်ဂိုရီသမ်ကို သုံးပြီး
  • 6:46 - 6:49
    ကျုပ်တို့ရဲ့ ဒေတာထဲမှာ bot တွေကို ရှာဖွေ
    ဆွဲထုတ်ယူရန် ကြိုးစားခဲ့ကြတယ်။
  • 6:49 - 6:52
    အဲဒါနဲ့ ကျုပ်တို့က ၎င်းတို့ကို ထုတ်ယူ
    ခဲ့ကြတယ်၊ ပြန်ထည့်ပေးခဲ့ပြီး
  • 6:52 - 6:55
    ကျုပ်တို့ရဲ့ တိုင်းတာမှုတွေ ဘယ်လို
    ဖြစ်လာသလဲ ဆန်းစစ်ခဲ့တယ်။
  • 6:55 - 6:58
    ကျုပ်တို့ တွေ့လိုက်ရတဲ့ အချက်က၊
    လက်တွေ့မှာကျတော့၊
  • 6:58 - 7:01
    bot တွေဟာ သတင်းတုတွေကို အွန်လိုင်းမှာ
    ဖြန့်ချိမှုကို အရှိန်မြှင့်နေခဲ့ကြတယ်၊
  • 7:01 - 7:05
    ဒါပေမဲ့ ၎င်းတို့ဟာ သတင်းမှန်တွေကိုလည်း
    အလားတူတဲ့ နှုန်းမျိုးနီးပါးနဲ့ပဲ
  • 7:05 - 7:06
    ပျံ့နှံ့ပေးနေခဲ့ကြတယ် ဆိုတာကိုပါ။
  • 7:06 - 7:09
    ဒီတော့ သတင်းမှန်နဲ့ သတင်းတုတွေ
    အွန်လိုင်းမှာ
  • 7:09 - 7:14
    ပျံ့နှံ့ပုံမတူ ကွဲပြားမှုအတွက် bot တွေ
    ဆီမှာ တာဝန် မရှိခြင်းကို ဆိုလိုပါတယ်။
  • 7:14 - 7:17
    လက်တွေ့မှာ အဲဒီလို
    ပျံ့နှံ့မှုအတွက် ကျွန်ုပ်တို့
  • 7:17 - 7:21
    လူသားတွေ တာဝန်ရှိကြလို့
    ၎င်းတို့ကို အပြစ်ဖို့လို့ မရနိုင်ပါ။
  • 7:22 - 7:26
    ကျွန်တော် အခုထိ ခင်ဗျားတို့ကို
    ပြောပြလာခဲ့တဲ့ အရာအားလုံးဟာ၊
  • 7:26 - 7:28
    ကံဆိုးချင်တော့၊ ကျုပ်တို့ အားလုံးအတွက်
  • 7:28 - 7:29
    သတင်းကောင်းတွေပါ။
  • 7:31 - 7:35
    ဒီလိုပြောရတာက ဒါတွေဟာ ဒီထက်ကို
    များစွာမှ ပိုပြီး ဆိုးဝါးလာမှာမို့လို့ပါ။
  • 7:36 - 7:40
    အဲဒါကို ဆိုးဝါးအောင် လုပ်ပေးကြမှာက
    အထူးထောက်ပြရမယ့် နည်းပညာ နှစ်ခုပါ။
  • 7:40 - 7:45
    ကျုပ်တို့ဟာ မီဒီယာအတုရဲ့ ဧရာမလှိုင်းကြီး
    တက်လာမှာကို မြင်ကြရဖို့ ရှိနေတယ်။
  • 7:45 - 7:51
    လူသားရဲ့ မျက်လုံးအတွက် အားကျစရာကောင်းတဲ့
    ဗီဒီယိုအတု၊ အသံအတုတွေပါ။
  • 7:51 - 7:54
    အဲဒါကို မောင်းနှင်ပေးမှာက နည်းပညာနှစ်ခုပါ။
  • 7:54 - 7:58
    ပထမ တစ်ခုကို “ထုတ်လုပ်ရေး ရန်ဘက်
    ကွန်ရက်များ”လို့ ခေါ်ပါတယ်။
  • 7:58 - 8:01
    စက်များကို သင်ကြားပေးရေး မော်ဒယ်ဖြစ်ပြီး
    ကွန်ရက်နှစ်ခု ပါပါတယ်-
  • 8:01 - 8:02
    ခွဲခြားသတ်မှတ်ပေးသူ၊
  • 8:02 - 8:06
    တစ်ခုခုဟာ မှန်လား မှားလားကို
    ဆုံးဖြတ်ပေးရန် တာဝန်ရှိသူပါ၊
  • 8:06 - 8:08
    ပြီးတော့ ဂျင်နရေတာ ပါတယ်၊
  • 8:08 - 8:11
    မီဒီယာအတုကို ထုတ်လုပ်ပေးဖို့ တာဝန်ရှိသူပါ။
  • 8:11 - 8:16
    ဒီလိုနည်းဖြင့် ဂျင်နရေတာ အတုက ဗီဒီယိုနဲ့
    အသံ အတုကို ထုတ်လုပ်ပေးတယ်၊
  • 8:16 - 8:21
    ခွဲခြားသတ်မှတ်သူကျတော့ "အဲဒါဟာ ဟုတ်မှန်လား
    ဒါမှမဟုတ် အတုလား" ပြောပြပေးရပါမယ်။
  • 8:21 - 8:24
    တကယ်တော့ ဂျင်နရေတာရဲ့ တာဝန်က
  • 8:24 - 8:28
    ခွဲခြားသတ်မှတ်သူ အနေနဲ့ ဗီဒီယိုနဲ့အသံ
    အတုတွေကို တကယ် အမှန်လို
  • 8:28 - 8:32
    ထင်မြင်လာစေရန် အစွမ်းကုန်
  • 8:32 - 8:33
    ကြိုးပမ်းဖို့ ဖြစ်ပါတယ်။
  • 8:33 - 8:36
    hyperloop ကို သုံးတဲ့ စက်တစ်ခုကို
    စိတ်ကူးကြည့်ပါ၊
  • 8:36 - 8:39
    ကျုပ်တို့ကို အရူးလုပ်ရာတွင် ပိုပို
    တော်လာနေတဲ့ စက်ဖြစ်ပါလိမ့်မယ်။
  • 8:39 - 8:42
    ဒါကို ဒုတိယနည်းပညာနဲ့ပေါင်းပေးလိုက်ရင်၊
  • 8:42 - 8:47
    ဉာဏ်ရည်တုအား အများပြည်သူတို့ သုံးလာစေရန်
    အတွက် မရှိမဖြစ်လိုအပ်ချက်ပါ၊
  • 8:47 - 8:50
    မည်သူမဆိုဟာ
  • 8:50 - 8:52
    ဉာဏ်ရည်အတု အကြောင်းကို
    ဘာမှ လေ့လာမသိသူတောင်မှ
  • 8:52 - 8:54
    စက်တွေကို သင်ကြားခြင်းကို မသိတောင်၊
  • 8:54 - 8:58
    ဒီလို မီဒီယာအတု ထုတ်လုပ်ရေး
    အယ်လ်ဂိုရီသမ်ကို သုံးနိုင်မှာမို့လို့၊
  • 8:58 - 9:02
    ခုနက ဗွီဒီယိုတွေကို ဖန်တီးရေး အလုပ်ဟာ
    သိပ်ကို လွယ်ကူလာမှာပါ။
  • 9:02 - 9:07
    အိမ်ဖြူတော်ဟာ အတုဖြစ်တဲ့
    လုပ်ကြံ ဗီဒီယိုတစ်ခုကို ထုတ်ဝေခဲ့ရာ
  • 9:07 - 9:11
    သတင်းစာဆရာက ထိန်းသိမ်းခံတဦးနဲ့ ဆက်ဆံနေစဉ်
    ထိုသူက မိုက်ခရိုဖုန်းကို ယူလိုခဲ့တယ်။
  • 9:11 - 9:14
    သူတို့ဟာ အဲဒီဗီဒီယိုထဲကနေပြီး
    ဘောင်တွေကို ဖယ်ရှားပစ်ခြင်းဖြင့်
  • 9:14 - 9:17
    ထိုသူရဲ့ လုပ်ရပ်ကို
    ပိုပြီး ယုတ္တိရှိအောင် လုပ်ခဲ့ကြတယ်။
  • 9:17 - 9:21
    ဗီဒီယိုရိုက်သူတွေနဲ့ သာမန်အမျိုးသားများနဲ့
    အမျိုးသမီးများကို
  • 9:21 - 9:23
    အခုက နည်းပညာအကြောင်းကို မေးမြန်းကြည့်တော့၊
  • 9:23 - 9:27
    သူတို့က "ဟုတ်တယ်၊ ကျုပ်တို့ ရုပ်ရှင်တွေထဲ
    မယ် ဒါကို တချိန်လုံးသုံးကြတယ်။"
  • 9:27 - 9:32
    ကျုပ်တို့ရဲ့ ထိုးနှက်မှုတွေ ပိုပြီး ယုတ္တိ
    ရှိဖို့ ပိုးကြောက်စရာ ကောင်းဖို့ အတွက်ပါ။"
  • 9:32 - 9:34
    သူတို့က ခုနက ဗီဒီယိုကို ဖွင့်ပြခဲ့ကြပြီး
  • 9:34 - 9:37
    Jim Acosta ဆိုတဲ့ သတင်းထောက်အား
    အိမ်ဖြူတော်မှ ထုတ်ပေးထားခဲ့တဲ့
  • 9:37 - 9:41
    စာနယ်ဇင်းလက်မှတ်ကို ရုပ်သိမ်းဖို့
  • 9:41 - 9:42
    အသုံးပြုခဲ့ကြတယ်။
  • 9:42 - 9:47
    စာနယ်ဇင်းလက်မှတ် ပြန်ရဖို့အတွက် CNN ဟာ
    ရုံးတင်တရားစွဲခဲ့ရပါတယ်။
  • 9:49 - 9:54
    ဒီနေ့တွင် သိပ်ကို ခဲယဉ်းကြတဲ့ အဲဒီလို
    ပြဿနာတွေကို ကိုင်တွယ်နိုင်ရန်
  • 9:54 - 9:58
    ကျုပ်တို့ လိုက်နာကြရမယ့် မတူတဲ့ နည်းလမ်း
    ငါးခုခန့် ရှိပါတယ်။
  • 9:58 - 10:00
    ၎င်းတို့ တစ်ခုချင်းစီဆီတွင်
    ဖြေရှင်းနည်းရှိပေမဲ့
  • 10:00 - 10:03
    ၎င်းတို့ထဲတွင် ကိုယ်ပိုင် စိန်ခေါ်မှု
    တွေလည်း ရှိကြပါတယ်။
  • 10:03 - 10:05
    ပထမတစ်ခုက တံဆိပ်တပ်ခြင်းဖြစ်တယ်။
  • 10:05 - 10:07
    အဲဒါကို ဒီလိုစဉ်းစားကြည့်ပါ -
  • 10:07 - 10:10
    စားသုံးဖို့ အစားအစာတွေကို ဝယ်ဖို့
    ကုန်စုံဆိုင်ကို သွားရင်၊
  • 10:10 - 10:12
    တံဆိပ်တွေ မျိုးစုံ
    တပ်ထားတာကို မြင်နိုင်ပါတယ်။
  • 10:12 - 10:14
    တစ်ခုခုထဲတွင် ကယ်လိုရီ ဘယ်လောက်ရှိလဲ၊
  • 10:14 - 10:16
    အဆီ ဘယ်လောက်ပါလဲ -
  • 10:16 - 10:18
    သိနိုင်ပေမဲ့ ကျုပ်တို့က သတင်းအချက်အလက်
    တွေကိုသုံးတဲ့အခါ
  • 10:18 - 10:20
    ဘာတံဆိပ်မှာ မရှိပါဘူး။
  • 10:20 - 10:22
    ဒီသတင်း အချက်အလက်တွေထဲမှာ ဘာတွေပါလဲ။
  • 10:22 - 10:24
    အရင်းအမြစ်ကိုကော ယုံကြည်လို့ ရနိုင်လား။
  • 10:24 - 10:26
    ဒီအချက်အလက်တွေကို ဘယ်ကနေ ရရှိခဲ့တာလဲ။
  • 10:26 - 10:28
    ကျုပ်တို့ သတင်းအချက်အလက်တွေကို
    သုံးစွဲကြရာတွင်
  • 10:28 - 10:30
    အဲဒီလို ဘာကိုမျှ ကျုပ်တို့ မသိကြရပါ။
  • 10:30 - 10:33
    ဒါဟာ အလားအလာရှိတဲ့ နည်းလမ်းဖြစ်ပေမဲ့
    စိန်ခေါ်မှုတွေလည်း ရှိပါတယ်။
  • 10:33 - 10:40
    ဥပမာ၊ လူ့အဖွဲ့အစည်း အနေနဲ့ ဘယ်ဟာက မှန်တယ်၊
    ဘယ်ဟာက အတုပါ ဆိုတာ ဘယ်သူ ဆုံးဖြတ်မလဲ။
  • 10:40 - 10:42
    အစိုးရတွေက များလား။
  • 10:42 - 10:43
    Facebook များလား။
  • 10:43 - 10:47
    အချက်အလက်များကို စစ်ဆေးပေးတဲ့
    သီးခြားအဖွဲ့အစည်း တစ်ခုလား။
  • 10:47 - 10:50
    ပြီးတော့ အဲဒီအချက်အလက်များကို စစ်ဆေး
    ပေးသူကိုကော ဘယ်သူက စစ်ဆေးပေးသလဲ။
  • 10:50 - 10:54
    နောက်ထပ် ဖြစ်နိုင်တဲ့ နည်းလမ်းက
    မက်လုံးပေးခြင်းပါပဲ။
  • 10:54 - 10:56
    အမေရိကန် သမ္မတရွေးကောက်ပွဲ အတွင်းမှာ
  • 10:56 - 11:00
    Macedonia မှ လာတဲ့ တလွဲသတင်းများရဲ့
    လှိုင်းဂယက် ရှိခဲ့တာ သိလာခဲ့ရပါတယ်။
  • 11:00 - 11:02
    ၎င်းဆီမှာ နိုင်ငံရေး
    ရည်ရွယ်ချက် မရှိခဲ့ပေမဲ့
  • 11:02 - 11:05
    စီးပွားရေး ရည်ရွယ်ချက် ရှိခဲ့ပါတယ်။
  • 11:05 - 11:07
    အဲဒီလို စီးပွားရေး ရည်ရွယ်ချက်ဟာ
    အတော်ကြာ ရှိနေခဲ့တာက
  • 11:07 - 11:10
    သတင်းတုတွေဟာ သတင်းမှန်ထက်ကို
    ပိုပြီး ဝေးအောင်၊ ပိုမြန်ဆန်စွာ
  • 11:10 - 11:12
    ခရီးရောက်နိုင်ခဲ့ကြတဲ့ အတွက်
  • 11:13 - 11:17
    တချို့သူတို့ဟာ ဒီလို သတင်းအမျိုးအစားဆီကို
    အာရုံစိုက်နေသူများကို အခွင့်ကောင်းယူပြီး
  • 11:17 - 11:19
    ကြော်ငြာရင်း ဒေါ်လာတွေ ရယူနိုင်ခဲ့လို့ပါ။
  • 11:19 - 11:23
    တကယ်လို့ ကျုပ်တို့က အဲဒီလို သတင်းမျိုး
    ဖြန့်မှုကို အရှိန်လျှော့ချနိုင်ကြမယ်ဆိုရင်
  • 11:23 - 11:26
    ၎င်းရဲ့ စီးပွားရေးမက်လုံး တန်ဖိုး
    လျော့ကျသွားနိုင်လို့
  • 11:26 - 11:29
    ၎င်းကို ထိပ်ဆုံးနေရာမှာ ထည့်ကြော်ငြာ
    နိုင်မှာ မဟုတ်တော့ပါဘူး။
  • 11:29 - 11:32
    တတိယနည်း အဖြစ် စည်းကမ်းတွေဖြင့်
    ထိန်းချုပ်ဖို့ စဉ်းစားနိုင်တယ်။
  • 11:32 - 11:34
    ဒီနည်းကို စဉ်းစားသင့်တာ သေချာပါတယ်။
  • 11:34 - 11:35
    လောလောဆယ်မှာ အမေရိကန် ပြည်ထောင်စုမှာ
  • 11:35 - 11:40
    Facebook နှင့်အခြားသူတွေကို စည်းကမ်းချ
    လိုက်နာစေရင် ဘယ်လိုဖြစ်လာမလဲ စူးစမ်းနေတယ်။
  • 11:40 - 11:44
    ကျုပ်တို့က နိုင်ငံရေး မိန့်ခွန်းတွေအတွက်
    စည်းကမ်းတွေ ချမှတ်ရေး စဉ်းစားသင့်ချိန်မှာ၊
  • 11:44 - 11:47
    ဒါဟာ နိုင်ငံရေး မိန့်ခွန်းဖြစ်ကြောင်း
    တံဆိပ်တပ်ပေးကြမယ်၊
  • 11:47 - 11:51
    နိုင်ငံခြားသားများ နိုင်ငံရေးမိန့်ခွန်းကို
    ငွေကြေး မထောက်ပံ့ဖြစ်တာ သေချာစေရမယ်။
  • 11:51 - 11:53
    ဆိုရင် အဲဒီထဲမှာလည်း ကိုယ်ပိုင်
    အန္တရာယ်တွေ ရှိပါတယ်။
  • 11:54 - 11:58
    ဥပမာ၊ မလေးရှားနိုင်ငံဟာ လုပ်ကြံသတင်းကို
    ဖြန့်ချိကြောင်း တွေ့ရှိလျှင်
  • 11:58 - 12:01
    ထောင်ဒဏ် ခြောက်နှစ်
    ချမှတ်ရန် ဆုံးဖြတ်ခဲ့ပါတယ်။
  • 12:02 - 12:04
    ပြီးတော့ အာဏာရှင်အစိုးရတွေထဲမှာ ဆိုရင်၊
  • 12:04 - 12:08
    အဲဒီလို မူဝါဒတွေကို လူနည်းစုရဲ့
    အာဘော်ကို ဖိနှိပ်ရန် သုံးနိုင်ပြီး
  • 12:08 - 12:12
    ချုပ်ချယ်မှုကို ဆက်တိုးချဲ့နိုင်ပါတယ်။
  • 12:13 - 12:16
    စတုတ္ထဖြစ်နိုင်ခြေ ရွေးစရာက
    ပွင့်လင်းမြင်သာမှုဖြစ်တယ်။
  • 12:16 - 12:20
    Facebook ရဲ့ အယ်လ်ဂိုရီသမ် အလုပ်လုပ်ပုံကို
    ကျုပ်တို့ သိချင်ကြပါတယ်။
  • 12:20 - 12:23
    ကျုပ်တို့ မြင်တွေ့ကြရတဲ့ ရလဒ်မျိုး
    ပေါ်ထွက်လာဖို့အတွက် သူတို့ဟာ
  • 12:23 - 12:26
    ဒေတာကို ဘယ်လို အယ်လ်ဂိုရီသမ်နဲ့
    စီမံဆောင်ရွက်ပေးကြတာလဲ။
  • 12:26 - 12:29
    ကျုပ်တို့က သူတို့ကို
    ကန့်လန့်ကားကို ဖွင့်ပြလျက်
  • 12:29 - 12:32
    Facebook ရဲ့ အတွင်းပိုင်းမှာ တကယ်
    လုပ်ကိုင်ကြပုံကို ပြသစေလိုပါတယ်။
  • 12:32 - 12:36
    ပြီးတော့ ကျုပ်တို့က လူမှုမီဒီယာက လူ့အဖွဲ့
    အစည်းအပေါ် အကျိုးသက်ရောက်ပုံကို သိချင်ရင်၊
  • 12:36 - 12:38
    သိပ္ပံပညာရှင်တွေ၊ သုတေသီတွေနဲ့
  • 12:38 - 12:41
    ဒီလို အချက်အလက်တွေကို ရယူလေ့လာနိုင်ကြမယ့်
    အခြားသူတွေ လိုအပ်ကြပါလိမ့်မည်။
  • 12:41 - 12:43
    ဒါပေမဲ့ တစ်ချိန်တည်းမှာ
  • 12:43 - 12:46
    ကျုပ်တို့က Facebook ကို အရာတွေအားလုံးကို
    သော့ချပိတ်ထားရန်၊
  • 12:46 - 12:49
    ဒေတာ အားလုံးကို လုံခြုံစွာ
    ထားပေးရန်ကိုလည်း တောင်းဆိုနေကြပါတယ်။
  • 12:49 - 12:52
    အဲဒီလိုနည်းဖြင့် Facebook နဲ့
    အခြားလူမှုမီဒီယာ ပလက်ဖောင်းတွေဟာ
  • 12:52 - 12:54
    ပွင့်လင်းမြင်သာရေး ဝိရောဓိကို
    ရင်ဆိုင်နေကြရပါတယ်။
  • 12:54 - 12:58
    ကျုပ်တို့က သူတို့ကို ပွင့်လင်း မြင်သာမှု
    ရှိကြဖို့ကို တောင်းဆိုနေတဲ့ တချိန်တည်းမှာ
  • 12:58 - 13:03
    ပိုပြီး လုံခြုံစွာ လုပ်ကိုင်ရန်ကို
    တောင်းဆိုနေကြပါတယ်။
  • 13:03 - 13:05
    ဒီလို တောင်းဆိုချက်ဟာ လိုက်နာရန်
    သိပ်ကို ခဲယဉ်းပါတယ်၊
  • 13:05 - 13:09
    ဒါပေမဲ့ ကျုပ်တို့က လူမှုမီဒီယာ နည်းပညာ
    တွေရဲ့ ကတိပေးချက်တွေကို ရယူလိုကြပြီး
  • 13:09 - 13:11
    ၎င်းတို့ထဲက အန္တရာယ်တွေကို
    ရှောင်ရှားလိုကြပါက
  • 13:11 - 13:13
    သူတို့ဟာ အဲဒါကို လိုက်နာဖြစ်ဖို့
  • 13:13 - 13:18
    ကျုပ်တို့ နောက်ဆုံးစဉ်းစားနိုင်တာက အယ်လ်
    ဂိုရီသမ်များနဲ့ စက်များသင်ကြားပေးမှုပါပဲ။
  • 13:18 - 13:23
    သတင်းအတုတွေကို စစ်ထုတ်လျက် နားလည်ပြီး
    ပျံ့နှံ့ပုံကို သိရှိလို့
  • 13:23 - 13:26
    ၎င်းတို့ စီးဆင်းမှုကို လျှော့ချဖို့
    ကြိုးစားမယ့် နည်းပညာ လိုပါတယ်။
  • 13:26 - 13:29
    လူသားတွေဟာ ဒီနည်းပညာရဲ့
    အာဏာစက်ကွင်းထဲမှာ ရှိကိုရှိနေကြရပါမယ်၊
  • 13:29 - 13:31
    ဘာဖြစ်လို့လဲဆိုတော့
  • 13:31 - 13:35
    နည်းပညာရဲ့ ဖြေရှင်းမှု ဒါမှမဟုတ် ချဉ်းကပ်
    မှုတစ်ခုခုကို အားကိုးအသုံးပြုခြင်းဟာ
  • 13:35 - 13:39
    လူ့ကျင့်ဝတ်ဆိုင်ရာနဲ့ ဒဿနိကဆိုင်ရာ
    အခြေခံကျတဲ့ မေးခွန်း ဖြစ်ပြီး၊
  • 13:39 - 13:42
    အမှန်တရားနဲ့အတုအပကို
    ဘယ်လို ကျုပ်တို့ ခွဲခြားကြမလဲ၊
  • 13:42 - 13:46
    အမှန်တရားနဲ့အတုအပကို ဆုံးဖြတ်ပေးနိုင်မယ့်
    အာဏာကို ဘယ်သူကို ကျုပ်တို့ ပေးကြမလဲ၊
  • 13:46 - 13:48
    ဘယ်ထင်မြင်ချက်က တရားဝင် ဟုတ်မှန်ကြလဲ၊
  • 13:48 - 13:52
    ဘယ်လို မိန့်ခွန်း အမျိုးအစားကို ခွင့်ပြု
    သင့်သလဲ စတဲ့ မေးခွန်းတွေ ပေါ်လာမှာပါ။
  • 13:52 - 13:54
    နည်းပညာဟာ အဲဒါတွေအတွက်
    ဖြေရှင်းနည်း မဟုတ်ပါ။
  • 13:54 - 13:58
    လူ့ကျင့်ဝတ်နှင့် ဒဿနိကကသာ
    အဲဒါတွေကို ဖြေရှင်းပေးနိုင်ပါတယ်။
  • 13:58 - 14:02
    လူသားရဲ့ ဆုံးဖြတ်ချက် ချမှတ်ရေးဆိုင်ရာ၊
  • 14:02 - 14:05
    လူသားတွေရဲ့ ပူးပေါင်းဆောင်ရွက်မှုနှင့်
    လက်တွဲလုပ်ကိုင်မှုဆိုင်ရာ
  • 14:05 - 14:09
    သီအိုရီ အားလုံးတို့ဟာ အမှန်တရားကို
    အခြေခံကြရတာချည်း ပါပဲ။
  • 14:09 - 14:11
    ဒါပေမဲ့ သတင်းအတုတွေ
    တိုးတိုးလာတာနဲ့အမျှ၊
  • 14:11 - 14:13
    ဗီဒီယိုအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊
  • 14:13 - 14:15
    အသံအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊
  • 14:15 - 14:19
    ကျုပ်တို့ဟာ ဘယ်ဟာက အမှန်၊ ဘယ်ဟာက အတုပါလို့
    ကျုပ်တို့ ပြောမရနိုင်တဲ့
  • 14:19 - 14:23
    အရှိတရား နိဂုံးချုပ်နိုင်တဲ့ ခြောက်ကမ်းပါး
    အနီးကို ချဉ်းကပ်လာနေကြပါတယ်။
  • 14:23 - 14:26
    အဲဒါဟာ တကယ့်ကိုပဲ အန္တရာယ်များလှတဲ့
    အလားအလာပါပဲ။
  • 14:27 - 14:31
    ကျုပ်တို့ဟာ လုပ်ကြံအချက်အလက်တွေကို
    ဆန့်ကျင်လျက်
  • 14:31 - 14:33
    အမှန်တရားကို တက်ကြွစွာ
    ခုခံဖို့ လိုအပ်ပါတယ်။
  • 14:33 - 14:36
    ကျုပ်တို့ရဲ့ နည်းပညာတွေနဲ့၊
    ကျုပ်တို့ရဲ့ မူဝါဒတွေနဲ့၊
  • 14:36 - 14:38
    ပြီးတော့ အရေးအကြီးဆုံး ဖြစ်နိုင်တာက၊
  • 14:38 - 14:42
    ကျုပ်တို့ တစ်ဦးချင်းစီရဲ့ တာဝန်သိစိတ်များ၊
  • 14:42 - 14:45
    ဆုံးဖြတ်ချက်များ၊ အပြုအမူများနှင့်
    လုပ်ဆောင်ဖို့ လိုအပ်ပါမယ်။
  • 14:46 - 14:47
    ကျေးဇူးအများကြီးတင်ပါတယ်။
  • 14:47 - 14:51
    (လက်ခုပ်သံများ)
Title:
လုပ်ကြံသတင်းအချက်အလက်များရဲ့ ခေတ်မှာ ကျုပ်တို့ အမှန်တရားကို ဘယ်လို ကာကွယ်ပေးနိင်ကြမလဲ
Speaker:
Sinan Aral
Description:

သတင်းအတုတွေဟာ ရွေးကောက်ပွဲတွေကို ချယ်လှယ်နိုင်ကြပြီး စီးပွားရေးကို ထိုးနှက်လျက် နေ့စဉ်ဘဝကို နှောင့်ယှက်နိုင်ကြပါတယ်။ ဒေတာဆိုင်ရာ သိပ္ပံပညာရှင် Sinan Aral က သတင်းတုတွေ ဘာဖြစ်လို့ အရမ်းကို လျင်မြန်စွာ ပျံ့နှံ့တတ်တာကို နားလည်အောင် ရှင်းပြထားပြီး သတင်းတုများဆိုင်ရာ အကြီးမားဆုံး လေ့လာမှု တစ်ခုကို ကိုးကားဖေါ်ပြပေးရင်း ကျုပ်တို့အတွက် အမှန်တရားနဲ့ သတင်းတုတွေရဲ့ ပင့်ကူမျှင် အကြားမှာ ဘယ်လို လှုပ်ရှားနေထိုင်သင့်ကြောင်း မဟာဗျူဟာ ငါးရပ်ကို ချမှတ်ပြသပေးထားပါတယ်။

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Burmese subtitles

Revisions