လုပ်ကြံသတင်းအချက်အလက်များရဲ့ ခေတ်မှာ ကျုပ်တို့ အမှန်တရားကို ဘယ်လို ကာကွယ်ပေးနိင်ကြမလဲ
-
0:01 - 0:07၂၀၁၃ ခုနှစ်၊ ဧပြီလ ၂၃ ရက်နေ့တွင်၊
-
0:07 - 0:12Associated Press သတင်းဌာနက အောက်ပါ
tweet ကို Twitter မှ ထုတ်လွှင့်ခဲ့တယ်။ -
0:12 - 0:15"အထူးသတင်းကြေငြာချက်-
-
0:15 - 0:17အိမ်ဖြူတော်မှာ ဗုံးနှစ်လုံး ပေါက်ကွဲခဲ့ရာ
-
0:17 - 0:20ဘားရက် အိုဘားမား ဒဏ်ရာရရှိခဲ့တယ်။ "
-
0:20 - 0:26အဲဒီ tweet ကို ငါးမိနစ်တောင် မရှိတဲ့အချိန်
အတွင်းမှာ ၄၀၀၀ ပြန်ပြီး tweet ခဲ့ကြတယ်၊ -
0:26 - 0:28နောက်ပိုင်းမှာ
တောမီးလို ပျံ့နှံ့သွားခဲ့တယ်။ -
0:29 - 0:33ဒါပေမဲ့ အဲဒီတွတ်ဟာ Associated Press မှ
ထုတ်လွှင့်ခဲ့တဲ့ သတင်းအမှန် မဟုတ်ခဲ့ပါ။ -
0:33 - 0:36တကယ်တမ်းမှာ လိမ်ညာသတင်း ဒါမှမဟုတ်
လုပ်ကြံသတင်း ဖြစ်ခဲ့ပြီး -
0:36 - 0:39ဆီးရီးယားဟက်ကာများမှ
ထုတ်လွှင့်ပေးလိုက်တာပါ။ -
0:39 - 0:44သူတို့ဟာ Associated Press Twitter
ဌာနထဲ ဖောက်ဝင်ပြီး လွှင့်နိုင်ခဲ့ကြတာ။ -
0:44 - 0:48လူ့အဖွဲ့အစည်းကို အလန့်တကြား ဖြစ်စေရန် ရည်
ရွယ်ခဲ့ပေမဲ့ နှောင့်ယှက်မှုကြီး ဖြစ်လာတယ်။ -
0:48 - 0:52ဘာဖြစ်လို့လဲဆိုတော့ ရှယ်ယာဈေးကွက်မှာ
အလိုအလျောက် ကုန်သွယ်ရေး စနစ်တွေက -
0:52 - 0:54tweet ထဲက သတင်းကို ချက်ချင်းထည့်တွက်လျက်
-
0:54 - 0:58အမေရိကန် ပြည်ထောင်စုရဲ့ သမ္မတဟာ
ဒဏ်ရာရခဲ့ သို့မဟုတ် သေဆုံးသွားပြီ ဆိုတဲ့ -
0:58 - 1:01အလားအလာကို ထည့်တွက်လျက်
၎င်းတို့ရဲ့ ကုန်သွယ်မှုကို -
1:01 - 1:02ဆက်ပြုလုပ်ခဲ့ကြလို့ပါ။
-
1:02 - 1:04အဲဒါကြောင့် အဲဒီ tweet စပေါ်လာတာနဲ့ကို
-
1:04 - 1:08ချက်ချင်းဆိုသလို စတော့ရှယ်ယာစျေးကွက်ဟာ
ခြေမွခံလိုက်ရတယ်၊ -
1:08 - 1:13တစ်ရက်တည်း အတွင်းမှာ ပိုင်ဆိုင်မှုတန်ဖိုး
ဒေါ်လာ ဘီလီယံ ၁၄၀ ဆုံးရှုံးခဲ့ရတယ်။ -
1:13 - 1:18အမေရိကန်ပြည်ထောင်စုရဲ့
အထူးရှေ့နေချုပ် Robert Mueller က -
1:18 - 1:21ရုရှားကုမ္ပဏီသုံးခုနဲ့
ရုရှားလူမျိုး ၁၃ ဦးတို့အား -
1:21 - 1:24၂၀၁၆ ခုနှစ် သမ္မတရွေးကောက်ပွဲ အတွင်းမှာ
-
1:24 - 1:27အမေရိကန် ပြည်ထောင်စု ပြည်သူများကို
လိမ်လည်ရန် ကြံစည်အားထုတ်ခဲ့ကြတယ်လို့ -
1:27 - 1:31တရားဝင် စွပ်စွဲလျက် စွဲချက် တင်ခဲ့ပါတယ်။
-
1:32 - 1:35အဲဒီစွဲချက်ထဲတွင် ဖေါ်ပြခဲ့လို့ သိလာရတာက
-
1:35 - 1:39အင်တာနက်သုတေသနအေဂျင်စီ
ဆိုတာရဲ့ ဇာတ်လမ်းဖြစ်ပါတယ်။ -
1:39 - 1:42၎င်းဟာ လူမှုမီဒီယာထဲက ကရင်မလင်ရဲ့
ကိုယ်ဖျေိာက် စစ်တပ်နဲ့ တူပါတယ်။ -
1:43 - 1:46သမ္မတ ရွေးကောက်ပွဲ တစ်ခုတည်း အတွင်းမှာကို
-
1:46 - 1:48အင်တာနက်အေဂျင်စီရဲ့ အားထုတ်မှုက
-
1:48 - 1:53United States ထဲက Facebook ကို သုံးကြတဲ့
ပြည်သူ ၁၂၆ သန်းထိ ရောက်ရှိခဲ့ပါတယ်။ -
1:53 - 1:56သူတို့ဟာ သီးခြားစီ ဖြစ်တဲ့ tweet
သုံးသန်းကို ထုတ်ဝေခဲ့ပြီး -
1:56 - 2:00YouTube မှာ ၄၃ နာရီဖိုး
အကြောင်းအရာများကို ထုတ်လွှင့်ခဲ့ကြတယ်။ -
2:00 - 2:02အဲဒါတွေ အားလုံး လုပ်ကြံသတင်းတွေပါ--
-
2:02 - 2:08အမေရိကန် သမ္မတရွေးကောက်ပွဲ ထဲတွင်
သဘောထားကွဲလွဲစေရန် ရည်ရွယ်ချက်နဲ့ပါ။ -
2:09 - 2:12Oxford တက္ကသိုလ်ရဲ့ မကြာသေးမီက
သုတေသန တစ်ခုအရ -
2:12 - 2:15နောက်ဆုံး လုပ်ပြီးသွားခဲ့တဲ့ ဆွီဒင်
ရွေးကောက်ပွဲတုန်းက -
2:15 - 2:19လူမှုမီဒီယာမှာ ပျံ့နှံ့နေခဲ့တဲ့ သတင်းအချက်
အလက် သုံးပုံတစ်ပုံတို့ဟာ -
2:19 - 2:21ရွေးကောက်ပွဲဆိုင်ရာ ဖေါ်ပြရာတွင်
-
2:21 - 2:24လုပ်ကြံမှု သို့မဟုတ် တလွဲဖေါ်ပြမှု
ဖြစ်ခဲ့တယ်လို့ တွေ့ခဲ့တယ်။ -
2:24 - 2:28ပြီးတော့၊ လူမှုမီဒီယာတွင် အဲဒီလို မဟုတ်
မမှန် တမင်ကို ရေးသားဖေါ်ပြမှုက -
2:28 - 2:32"ဂျီနိုဆိုက် ဝါဒဖြန့်မှု" လို့ ခေါ်တဲ့
အရာအတွက်ပါ သုံးနိုင်ပါသေးတယ်။ -
2:32 - 2:35ဥပမာအဖြစ် မြန်မာနိုင်ငံထဲက
ရိုဟင်ဂျာ ပြဿနာ၊ -
2:35 - 2:38အိန္ဒိယတွင် လူတွေ အုပ်စုလိုက်
သတ်ဖြတ်ခံရမှုများကို ဖေါ်ပြနိုင်ပါတယ်။ -
2:38 - 2:40ကျွန်ုပ်တို့ဟာ သတင်းတုတွေကို လေ့လာတာ
-
2:40 - 2:43အဲဒါ လူတွေအားလုံး မသိခင်တုန်းကတည်းကပါ။
-
2:43 - 2:48အဲဒါနဲ့ ဒီနှစ်မတ်လထုတ် "Science" မှာ
မျက်နှာဖုံး အကြောင်းအရာအဖြစ် -
2:48 - 2:50အွန်လိုင်းမှနေပြီး သတင်းအတုများကို
ဖြန့်ဝေမှုဆိုင်ရာ -
2:50 - 2:54ကာလအကြာဆုံး သုတေသန စာတမ်းကို
တင်နိုင်ခဲ့ကြပါတယ်။ -
2:54 - 2:58ကျွန်ပ်တို့ဟာ Twitter ပေါ်တွင် ထုတ်ပြန်တဲ့
မှန်ကန်ပြီး မဟုတ်မှန်တဲ့ ဖြစ်ရပ်များကို -
2:58 - 3:01၎င်းကို စထူထောင်ခဲ့တဲ့ ၂၀၀၆ ခုနှစ်မှ
၂၀၁၇ နှစ်အထိ အချိန်ကာလအတွက် -
3:01 - 3:04မှန်မမှန် စိစစ်ခဲ့ကြပါတယ်။
-
3:04 - 3:07အဲဒီလို အချက်အလက်များကို ကျွန်ုပ်တို့က
လေ့လာကြရာတွင်၊ -
3:07 - 3:11ကျွန်ုပ်တို့ဟာ သီးခြားလွတ်လပ်ကြတဲ့ အချက်
အလက် ရှာဖွေရေး အဖွဲ့အစည်း ခြောက်ခုတို့မှ -
3:11 - 3:13စိစစ်လေ့လာခဲ့ကြတဲ့ အဖြစ်အပျက်များကို
လေ့လာခဲ့ကြပါတယ်။ -
3:13 - 3:16အဲဒီလိုနည်းဖြင့် ဘယ်အဖြစ်အပျက်
တွေဟာ မှန်ကန်ခဲ့ကြတယ်၊ -
3:16 - 3:19ဘယ်အဖြစ်အပျက်တွေ မမှန်ကန်ကြဘူး
ဆိုတာ ကျွန်ုပ်တို့ သိလာရခဲ့တယ်။ -
3:19 - 3:21၎င်းတို့ရဲ့ ပျံ့နှံ့နိုင်စွမ်းကို
တိုင်တာနိုင်ခဲ့တယ်၊ -
3:21 - 3:22ပျံ့နှံ့မှုနှုန်း၊
-
3:22 - 3:25နက်ရှိုင်းမှုနဲ့ ကျယ်ပြန့်မှုကို၊
သတင်းအချက်အလက်တွေကို -
3:25 - 3:29ထိတွေ့ခံစားလိုက်ရတဲ့ ပြည်သူ အရေအတွက်
စသဖြင့် လေ့လာနိုင်ခဲ့ကြတယ်။ -
3:29 - 3:30အဲဒီစာတမ်းထဲတွင် ကျွန်ုပ်တို့ဟာ
-
3:30 - 3:34သတင်းအမှန်တွေရဲ့ ပျံ့နှံ့မှုကို သတင်းအမှား
ပျံ့နှံ့မှုနဲ့ နှိုင်းယှဉ်ခဲ့ကြပါသေးတယ်။ -
3:34 - 3:36ကျွန်ုပ်တို့ တွေ့ခဲ့ရတာ ဒီလိုရှိပါတယ်။
-
3:36 - 3:40ကျွန်ုပ်တို့ လေ့လာခဲ့သမျှ
သတင်းအမျိုးအစားတိုင်းမှာ -
3:40 - 3:42သတင်းအတုတွေဟာ သတင်းမှန်နဲ့ စာရင်
ပိုဝေးတဲ့အထိ၊ -
3:42 - 3:45ပိုမြန်ဆန် နက်ရှိုင်းစွာ၊ ကျယ်ပြန့်စွာ
ပျံ့နှံ့နိုင်ခဲ့တာကို တွေ့ခဲ့ရပြီး -
3:45 - 3:47တစ်ခါတစ်ရံတွင် ဆယ်ဆထိ
ပိုအားကောင်းခဲ့ပါတယ်။ -
3:48 - 3:51လက်တွေ့မှာ၊ နိုင်ငံရေး သတင်းအတုတွေဟာ
အမြန်ဆုံး ပျံ့နှံ့ခဲ့ကြပါတယ်။ -
3:51 - 3:55၎င်းဟာ အခြား ဘယ်သတင်းတုတွေနဲ့ကို မတူပဲ
ပိုမိုမြန်ဆန် နက်ရှိုင်းစွာနဲ့ -
3:55 - 3:57ပိုပြီး ကျယ်ပြန့်စွာ
ပျံ့နှံ့နိုင်ခဲ့တာ ဖြစ်ပါတယ်။ -
3:57 - 3:59ကျွန်ုပ်တို့ အဲဒါကို တွေ့မြင်လိုက်ရတော့
-
3:59 - 4:02စိုးရိမ်မိတဲ့ တချိန်တည်းမှာ
စိတ်ဝင်စားလာခဲ့ကြတယ်။ -
4:02 - 4:03ဘာကြောင့်များလဲ။
-
4:03 - 4:05သတင်းမှားတွေဟာ ဘာကြောင့်များ
သတင်းမှန်တွေနဲ့စာရင် -
4:05 - 4:08ပိုမိုမြန်ဆန် နက်ရှိုင်းစွာနဲ့
ကျယ်ပြန့်စွာ ပျံ့နှံ့နိုင်တာလဲ။ -
4:08 - 4:11ကျွန်ုပ်တို့ဆီမှာ ပထမဦးဆုံး ပေါ်လာတဲ့
ယူဆချက်က၊ -
4:11 - 4:16"သတင်းတုတွေကို ဖြန့်ဝေသူတို့ထံမှာ နောက်
လိုက်များလို့၊ သူတို့က လိုက်တဲ့လူများလို့၊ -
4:16 - 4:18ဒါမှမဟုတ် ပိုမကြာခဏ tweet ကြလို့၊
-
4:18 - 4:21ဒါမှမဟုတ် သူတို့ထဲမှာ 'စိစစ်ပြီး' သူတွေ
များလို့၊ စိတ်ချယုံကြည်မှု ပိုများလို့၊ -
4:21 - 4:24ဒါမှမဟုတ် သူတို့ရဲ့ Twitter သက်တမ်း
ပိုကြာရှည်လို့" ထင်ခဲ့ကြတယ်။ -
4:24 - 4:26အဲဒါနဲ့ အဲဒီတစ်ချက်ချင်းကို
စစ်ဆေးခဲ့ကြတယ်။ -
4:26 - 4:30ကျွန်ုပ်တို့ တွေ့လိုက်ရတဲ့အချက်က
လုံးဝကို ပြောင်းပြန် ဖြစ်နေခဲ့တယ်။ -
4:30 - 4:32သတင်းတု ဖြန့်ဝေကြသူတို့မှာ
နောက်လိုက်တွေ ပိုနည်းနေတယ်၊ -
4:32 - 4:35သူတို့ လိုက်ကြည့်သူ နည်းပြီး
တက်ကြွမှု နည်းခဲ့တယ်၊ -
4:35 - 4:36"စိစစ်ပြီးသူ" မကြာခဏ နည်းခဲ့တယ်။
-
4:36 - 4:39ပြီးတော့ Twitter မှာ လုပ်သက်လည်း
တိုတောင်းတဲ့ အချိန်ကာလပါ။ -
4:39 - 4:40ဒါတောင်မှ၊
-
4:40 - 4:45သတင်းတုဟာ သတင်းမှန်နဲ့ဆိုရင် ထိန်းချုပ်မှု
မျိုးစုံနဲ့ အခြား အချက်အလက်များကြောင့် -
4:45 - 4:48ပြန်ပြီး tweet လုပ်ခံရဖို့ အလားအလာ
၇၀ ရာခိုင်နှုန်းပိုပါတယ်။ -
4:48 - 4:51အဲဒါကြောင့် ကျွန်ုပ်တို့ဟာ
ဒီပြင် ရှင်းလင်းချက်ကို ရှာခဲ့ရတယ်။ -
4:51 - 4:55အဲဒါကို ကျွန်ုပ်တို့က "ဆန်းသစ်တဲ့
ယူဆချက်"လို့ ခေါ်တွင်ကြပါတယ်။ -
4:55 - 4:57ဥပမာ၊ ကျုပ်တို့က စာပေကို ဖတ်ရှုစဉ်၊
-
4:57 - 5:01လူသားရဲ့ အာရုံဟာ ဆန်းသစ်မှုဆီကို
ပတ်ဝန်းကျင်ထဲက အသစ်ဖြစ်တဲ့ အရာထံသို့ -
5:01 - 5:03ဆွဲဆောင်ခံရတာ အားလုံးအသိပါ။
-
5:03 - 5:05ကျုပ်တို့က လူမှုရေး စာပေကို
ဖတ်ကြည့်ကြမယ် ဆိုရင်လည်း၊ -
5:05 - 5:10ဆန်းသစ်တဲ့ အချက်အလက်တွေကို
ကျုပ်တို့ မျှဝေချင်ကြတာ အားလုံးအသိပါ။ -
5:10 - 5:14အဲဒီအချက်က ကျုပ်တို့ဟာ အတွင်းပိုင်း
သတင်းကို သိထားသူဖြစ်သလို ထင်စေပြီး -
5:14 - 5:17ဒီလို သတင်းမျိုး ဖြန့်ဝေခြင်းဖြင့် ကျွန်
တော်တို့ အဆင့်ပိုမြင့်လာမယ် ထင်ကြလို့ပါ။ -
5:18 - 5:24အဲဒါနဲ့ ကျွန်ုပ်တို့ဟာ ဝင်လာတဲ့ tweet
တစ်ခုရဲ့ ဆန်းသစ်မှုကို၊ -
5:24 - 5:28ထိုသူက Twitter ပေါ်မှာ လွန်ခဲ့တဲ့ ရက် ၆၀
အတွင်းမှာ မြင်တွေ့ခဲ့ရတဲ့ -
5:28 - 5:31ဟာတွေနဲ့ နှိုင်းယှဉ်ပြီး
တိုင်းတာခဲ့ကြပါတယ်။ -
5:31 - 5:34ဒါပေမဲ့ ဒါဟာ မလုံလောက်သေးဘူးလို့
ကျုပ်တို့ မိမိဘာသာမိမိ စဉ်းစားမိကြတယ်။ -
5:34 - 5:38"သတင်းတုဟာ အချက်အလက် သီအိုရီအရ
ဆန်းသစ်တယ်လို့ ထင်ရပေမဲ့၊ -
5:38 - 5:42လူတွေကျတော့ ၎င်းတို့ကို ပိုဆန်းသစ်တယ်လို့
ထင်မှတ်ချင်မှ ထင်မှတ်ကြမယ်။" -
5:42 - 5:46အဲဒါနဲ့ သတင်းတုများအား
လူတွေ ခံယူကြပုံကို နားလည်ရန်၊ -
5:46 - 5:49ကျွန်ုပ်တို့ဟာ သတင်းတုနဲ့ သတင်းမှန်များအား
-
5:50 - 5:53လူတွေ တုံ့ပြန်ကြပုံထဲက အချက်အလက်
ရေးသားချက်တွကို စစ်ကြည့်ခဲ့ကြတယ်။ -
5:53 - 5:55ကျွန်ုပ်တို့ တွေ့ရှိလိုက်ရတဲ့ အချက်က
-
5:55 - 5:59ခံစားချက်အား တိုင်ထွာရေး
နည်းလမ်း တသီကြီးရှိကြတဲ့ အထဲမှာ၊ -
5:59 - 6:03အံ့အားသင့်မှု၊ ရွံရှာမှု၊
ကြောက်မှု၊ ဝမ်းနည်းမှု၊ -
6:03 - 6:05မျှော်လင့်ခြင်း၊
ဝမ်းမြောက်ခြင်းနှင့်ယုံကြည်ခြင်း-- -
6:05 - 6:11သတင်းတုများအား တုံ့ပြန်ကြရာတွင်
အံ့အားသင့်မှုနဲ့ ရွံရှာမှုကို -
6:11 - 6:14သိသိသာသာ ပိုပြီး ပြသခဲ့ကြပါတယ်။
-
6:14 - 6:18သတင်းမှန် tweet တွေ
တုံ့ပြန်ရာမှာ မျှော်လင့်မှု၊ -
6:18 - 6:20ပျော်ရွှင်မှုနဲ့ ယုံကြည်မှုကို
-
6:20 - 6:22သိသာစွာ ပိုပြီး ပြသခဲ့ကြပါတယ်။
-
6:22 - 6:26အံ့အားသင့်စရာက ကျုပ်တို့ရဲ့ ဆန်းသစ်တဲ့
ယူဆချက်ကို သက်သေထူပြနေတယ်။ -
6:26 - 6:31အဲဒါဟာ အသစ်အဆန်း ဖြစ်နေပြီး အံ့အား
သင့်စရာမို့လို့ ကျုပ်တို့ မျှဝေလိုကြပါတယ်။ -
6:31 - 6:34အဲဒီအချိန်မှာပဲ အမေရိကန် ပြည်ထောင်စုမှာ
ကွန်ဂရက်ရဲ့ -
6:34 - 6:37လွှတ်တော်နှစ်ရပ်စလုံး ရှေ့မှောက်မှာ
ကွန်၈ရက် ကြားနာမှု တစ်ခု ရှိနေခဲ့တယ်၊ -
6:37 - 6:41လုပ်ကြံသတင်းများကို ထုတ်လွှင့်ရာတွင်
bot တွေရဲ့ အခန်းကဏ္ဍကို စူးစမ်းနေခဲ့ကြတယ်။ -
6:41 - 6:43ကျုပ်တို့ကလည်း
အဲဒါကို ကြည့်ခဲ့တယ်-- -
6:43 - 6:46များပြားလှတဲ့ နောက်ဆုံးပေါ်
bot ဖေါ်ထုတ်ရေး အယ်လ်ဂိုရီသမ်ကို သုံးပြီး -
6:46 - 6:49ကျုပ်တို့ရဲ့ ဒေတာထဲမှာ bot တွေကို ရှာဖွေ
ဆွဲထုတ်ယူရန် ကြိုးစားခဲ့ကြတယ်။ -
6:49 - 6:52အဲဒါနဲ့ ကျုပ်တို့က ၎င်းတို့ကို ထုတ်ယူ
ခဲ့ကြတယ်၊ ပြန်ထည့်ပေးခဲ့ပြီး -
6:52 - 6:55ကျုပ်တို့ရဲ့ တိုင်းတာမှုတွေ ဘယ်လို
ဖြစ်လာသလဲ ဆန်းစစ်ခဲ့တယ်။ -
6:55 - 6:58ကျုပ်တို့ တွေ့လိုက်ရတဲ့ အချက်က၊
လက်တွေ့မှာကျတော့၊ -
6:58 - 7:01bot တွေဟာ သတင်းတုတွေကို အွန်လိုင်းမှာ
ဖြန့်ချိမှုကို အရှိန်မြှင့်နေခဲ့ကြတယ်၊ -
7:01 - 7:05ဒါပေမဲ့ ၎င်းတို့ဟာ သတင်းမှန်တွေကိုလည်း
အလားတူတဲ့ နှုန်းမျိုးနီးပါးနဲ့ပဲ -
7:05 - 7:06ပျံ့နှံ့ပေးနေခဲ့ကြတယ် ဆိုတာကိုပါ။
-
7:06 - 7:09ဒီတော့ သတင်းမှန်နဲ့ သတင်းတုတွေ
အွန်လိုင်းမှာ -
7:09 - 7:14ပျံ့နှံ့ပုံမတူ ကွဲပြားမှုအတွက် bot တွေ
ဆီမှာ တာဝန် မရှိခြင်းကို ဆိုလိုပါတယ်။ -
7:14 - 7:17လက်တွေ့မှာ အဲဒီလို
ပျံ့နှံ့မှုအတွက် ကျွန်ုပ်တို့ -
7:17 - 7:21လူသားတွေ တာဝန်ရှိကြလို့
၎င်းတို့ကို အပြစ်ဖို့လို့ မရနိုင်ပါ။ -
7:22 - 7:26ကျွန်တော် အခုထိ ခင်ဗျားတို့ကို
ပြောပြလာခဲ့တဲ့ အရာအားလုံးဟာ၊ -
7:26 - 7:28ကံဆိုးချင်တော့၊ ကျုပ်တို့ အားလုံးအတွက်
-
7:28 - 7:29သတင်းကောင်းတွေပါ။
-
7:31 - 7:35ဒီလိုပြောရတာက ဒါတွေဟာ ဒီထက်ကို
များစွာမှ ပိုပြီး ဆိုးဝါးလာမှာမို့လို့ပါ။ -
7:36 - 7:40အဲဒါကို ဆိုးဝါးအောင် လုပ်ပေးကြမှာက
အထူးထောက်ပြရမယ့် နည်းပညာ နှစ်ခုပါ။ -
7:40 - 7:45ကျုပ်တို့ဟာ မီဒီယာအတုရဲ့ ဧရာမလှိုင်းကြီး
တက်လာမှာကို မြင်ကြရဖို့ ရှိနေတယ်။ -
7:45 - 7:51လူသားရဲ့ မျက်လုံးအတွက် အားကျစရာကောင်းတဲ့
ဗီဒီယိုအတု၊ အသံအတုတွေပါ။ -
7:51 - 7:54အဲဒါကို မောင်းနှင်ပေးမှာက နည်းပညာနှစ်ခုပါ။
-
7:54 - 7:58ပထမ တစ်ခုကို “ထုတ်လုပ်ရေး ရန်ဘက်
ကွန်ရက်များ”လို့ ခေါ်ပါတယ်။ -
7:58 - 8:01စက်များကို သင်ကြားပေးရေး မော်ဒယ်ဖြစ်ပြီး
ကွန်ရက်နှစ်ခု ပါပါတယ်- -
8:01 - 8:02ခွဲခြားသတ်မှတ်ပေးသူ၊
-
8:02 - 8:06တစ်ခုခုဟာ မှန်လား မှားလားကို
ဆုံးဖြတ်ပေးရန် တာဝန်ရှိသူပါ၊ -
8:06 - 8:08ပြီးတော့ ဂျင်နရေတာ ပါတယ်၊
-
8:08 - 8:11မီဒီယာအတုကို ထုတ်လုပ်ပေးဖို့ တာဝန်ရှိသူပါ။
-
8:11 - 8:16ဒီလိုနည်းဖြင့် ဂျင်နရေတာ အတုက ဗီဒီယိုနဲ့
အသံ အတုကို ထုတ်လုပ်ပေးတယ်၊ -
8:16 - 8:21ခွဲခြားသတ်မှတ်သူကျတော့ "အဲဒါဟာ ဟုတ်မှန်လား
ဒါမှမဟုတ် အတုလား" ပြောပြပေးရပါမယ်။ -
8:21 - 8:24တကယ်တော့ ဂျင်နရေတာရဲ့ တာဝန်က
-
8:24 - 8:28ခွဲခြားသတ်မှတ်သူ အနေနဲ့ ဗီဒီယိုနဲ့အသံ
အတုတွေကို တကယ် အမှန်လို -
8:28 - 8:32ထင်မြင်လာစေရန် အစွမ်းကုန်
-
8:32 - 8:33ကြိုးပမ်းဖို့ ဖြစ်ပါတယ်။
-
8:33 - 8:36hyperloop ကို သုံးတဲ့ စက်တစ်ခုကို
စိတ်ကူးကြည့်ပါ၊ -
8:36 - 8:39ကျုပ်တို့ကို အရူးလုပ်ရာတွင် ပိုပို
တော်လာနေတဲ့ စက်ဖြစ်ပါလိမ့်မယ်။ -
8:39 - 8:42ဒါကို ဒုတိယနည်းပညာနဲ့ပေါင်းပေးလိုက်ရင်၊
-
8:42 - 8:47ဉာဏ်ရည်တုအား အများပြည်သူတို့ သုံးလာစေရန်
အတွက် မရှိမဖြစ်လိုအပ်ချက်ပါ၊ -
8:47 - 8:50မည်သူမဆိုဟာ
-
8:50 - 8:52ဉာဏ်ရည်အတု အကြောင်းကို
ဘာမှ လေ့လာမသိသူတောင်မှ -
8:52 - 8:54စက်တွေကို သင်ကြားခြင်းကို မသိတောင်၊
-
8:54 - 8:58ဒီလို မီဒီယာအတု ထုတ်လုပ်ရေး
အယ်လ်ဂိုရီသမ်ကို သုံးနိုင်မှာမို့လို့၊ -
8:58 - 9:02ခုနက ဗွီဒီယိုတွေကို ဖန်တီးရေး အလုပ်ဟာ
သိပ်ကို လွယ်ကူလာမှာပါ။ -
9:02 - 9:07အိမ်ဖြူတော်ဟာ အတုဖြစ်တဲ့
လုပ်ကြံ ဗီဒီယိုတစ်ခုကို ထုတ်ဝေခဲ့ရာ -
9:07 - 9:11သတင်းစာဆရာက ထိန်းသိမ်းခံတဦးနဲ့ ဆက်ဆံနေစဉ်
ထိုသူက မိုက်ခရိုဖုန်းကို ယူလိုခဲ့တယ်။ -
9:11 - 9:14သူတို့ဟာ အဲဒီဗီဒီယိုထဲကနေပြီး
ဘောင်တွေကို ဖယ်ရှားပစ်ခြင်းဖြင့် -
9:14 - 9:17ထိုသူရဲ့ လုပ်ရပ်ကို
ပိုပြီး ယုတ္တိရှိအောင် လုပ်ခဲ့ကြတယ်။ -
9:17 - 9:21ဗီဒီယိုရိုက်သူတွေနဲ့ သာမန်အမျိုးသားများနဲ့
အမျိုးသမီးများကို -
9:21 - 9:23အခုက နည်းပညာအကြောင်းကို မေးမြန်းကြည့်တော့၊
-
9:23 - 9:27သူတို့က "ဟုတ်တယ်၊ ကျုပ်တို့ ရုပ်ရှင်တွေထဲ
မယ် ဒါကို တချိန်လုံးသုံးကြတယ်။" -
9:27 - 9:32ကျုပ်တို့ရဲ့ ထိုးနှက်မှုတွေ ပိုပြီး ယုတ္တိ
ရှိဖို့ ပိုးကြောက်စရာ ကောင်းဖို့ အတွက်ပါ။" -
9:32 - 9:34သူတို့က ခုနက ဗီဒီယိုကို ဖွင့်ပြခဲ့ကြပြီး
-
9:34 - 9:37Jim Acosta ဆိုတဲ့ သတင်းထောက်အား
အိမ်ဖြူတော်မှ ထုတ်ပေးထားခဲ့တဲ့ -
9:37 - 9:41စာနယ်ဇင်းလက်မှတ်ကို ရုပ်သိမ်းဖို့
-
9:41 - 9:42အသုံးပြုခဲ့ကြတယ်။
-
9:42 - 9:47စာနယ်ဇင်းလက်မှတ် ပြန်ရဖို့အတွက် CNN ဟာ
ရုံးတင်တရားစွဲခဲ့ရပါတယ်။ -
9:49 - 9:54ဒီနေ့တွင် သိပ်ကို ခဲယဉ်းကြတဲ့ အဲဒီလို
ပြဿနာတွေကို ကိုင်တွယ်နိုင်ရန် -
9:54 - 9:58ကျုပ်တို့ လိုက်နာကြရမယ့် မတူတဲ့ နည်းလမ်း
ငါးခုခန့် ရှိပါတယ်။ -
9:58 - 10:00၎င်းတို့ တစ်ခုချင်းစီဆီတွင်
ဖြေရှင်းနည်းရှိပေမဲ့ -
10:00 - 10:03၎င်းတို့ထဲတွင် ကိုယ်ပိုင် စိန်ခေါ်မှု
တွေလည်း ရှိကြပါတယ်။ -
10:03 - 10:05ပထမတစ်ခုက တံဆိပ်တပ်ခြင်းဖြစ်တယ်။
-
10:05 - 10:07အဲဒါကို ဒီလိုစဉ်းစားကြည့်ပါ -
-
10:07 - 10:10စားသုံးဖို့ အစားအစာတွေကို ဝယ်ဖို့
ကုန်စုံဆိုင်ကို သွားရင်၊ -
10:10 - 10:12တံဆိပ်တွေ မျိုးစုံ
တပ်ထားတာကို မြင်နိုင်ပါတယ်။ -
10:12 - 10:14တစ်ခုခုထဲတွင် ကယ်လိုရီ ဘယ်လောက်ရှိလဲ၊
-
10:14 - 10:16အဆီ ဘယ်လောက်ပါလဲ -
-
10:16 - 10:18သိနိုင်ပေမဲ့ ကျုပ်တို့က သတင်းအချက်အလက်
တွေကိုသုံးတဲ့အခါ -
10:18 - 10:20ဘာတံဆိပ်မှာ မရှိပါဘူး။
-
10:20 - 10:22ဒီသတင်း အချက်အလက်တွေထဲမှာ ဘာတွေပါလဲ။
-
10:22 - 10:24အရင်းအမြစ်ကိုကော ယုံကြည်လို့ ရနိုင်လား။
-
10:24 - 10:26ဒီအချက်အလက်တွေကို ဘယ်ကနေ ရရှိခဲ့တာလဲ။
-
10:26 - 10:28ကျုပ်တို့ သတင်းအချက်အလက်တွေကို
သုံးစွဲကြရာတွင် -
10:28 - 10:30အဲဒီလို ဘာကိုမျှ ကျုပ်တို့ မသိကြရပါ။
-
10:30 - 10:33ဒါဟာ အလားအလာရှိတဲ့ နည်းလမ်းဖြစ်ပေမဲ့
စိန်ခေါ်မှုတွေလည်း ရှိပါတယ်။ -
10:33 - 10:40ဥပမာ၊ လူ့အဖွဲ့အစည်း အနေနဲ့ ဘယ်ဟာက မှန်တယ်၊
ဘယ်ဟာက အတုပါ ဆိုတာ ဘယ်သူ ဆုံးဖြတ်မလဲ။ -
10:40 - 10:42အစိုးရတွေက များလား။
-
10:42 - 10:43Facebook များလား။
-
10:43 - 10:47အချက်အလက်များကို စစ်ဆေးပေးတဲ့
သီးခြားအဖွဲ့အစည်း တစ်ခုလား။ -
10:47 - 10:50ပြီးတော့ အဲဒီအချက်အလက်များကို စစ်ဆေး
ပေးသူကိုကော ဘယ်သူက စစ်ဆေးပေးသလဲ။ -
10:50 - 10:54နောက်ထပ် ဖြစ်နိုင်တဲ့ နည်းလမ်းက
မက်လုံးပေးခြင်းပါပဲ။ -
10:54 - 10:56အမေရိကန် သမ္မတရွေးကောက်ပွဲ အတွင်းမှာ
-
10:56 - 11:00Macedonia မှ လာတဲ့ တလွဲသတင်းများရဲ့
လှိုင်းဂယက် ရှိခဲ့တာ သိလာခဲ့ရပါတယ်။ -
11:00 - 11:02၎င်းဆီမှာ နိုင်ငံရေး
ရည်ရွယ်ချက် မရှိခဲ့ပေမဲ့ -
11:02 - 11:05စီးပွားရေး ရည်ရွယ်ချက် ရှိခဲ့ပါတယ်။
-
11:05 - 11:07အဲဒီလို စီးပွားရေး ရည်ရွယ်ချက်ဟာ
အတော်ကြာ ရှိနေခဲ့တာက -
11:07 - 11:10သတင်းတုတွေဟာ သတင်းမှန်ထက်ကို
ပိုပြီး ဝေးအောင်၊ ပိုမြန်ဆန်စွာ -
11:10 - 11:12ခရီးရောက်နိုင်ခဲ့ကြတဲ့ အတွက်
-
11:13 - 11:17တချို့သူတို့ဟာ ဒီလို သတင်းအမျိုးအစားဆီကို
အာရုံစိုက်နေသူများကို အခွင့်ကောင်းယူပြီး -
11:17 - 11:19ကြော်ငြာရင်း ဒေါ်လာတွေ ရယူနိုင်ခဲ့လို့ပါ။
-
11:19 - 11:23တကယ်လို့ ကျုပ်တို့က အဲဒီလို သတင်းမျိုး
ဖြန့်မှုကို အရှိန်လျှော့ချနိုင်ကြမယ်ဆိုရင် -
11:23 - 11:26၎င်းရဲ့ စီးပွားရေးမက်လုံး တန်ဖိုး
လျော့ကျသွားနိုင်လို့ -
11:26 - 11:29၎င်းကို ထိပ်ဆုံးနေရာမှာ ထည့်ကြော်ငြာ
နိုင်မှာ မဟုတ်တော့ပါဘူး။ -
11:29 - 11:32တတိယနည်း အဖြစ် စည်းကမ်းတွေဖြင့်
ထိန်းချုပ်ဖို့ စဉ်းစားနိုင်တယ်။ -
11:32 - 11:34ဒီနည်းကို စဉ်းစားသင့်တာ သေချာပါတယ်။
-
11:34 - 11:35လောလောဆယ်မှာ အမေရိကန် ပြည်ထောင်စုမှာ
-
11:35 - 11:40Facebook နှင့်အခြားသူတွေကို စည်းကမ်းချ
လိုက်နာစေရင် ဘယ်လိုဖြစ်လာမလဲ စူးစမ်းနေတယ်။ -
11:40 - 11:44ကျုပ်တို့က နိုင်ငံရေး မိန့်ခွန်းတွေအတွက်
စည်းကမ်းတွေ ချမှတ်ရေး စဉ်းစားသင့်ချိန်မှာ၊ -
11:44 - 11:47ဒါဟာ နိုင်ငံရေး မိန့်ခွန်းဖြစ်ကြောင်း
တံဆိပ်တပ်ပေးကြမယ်၊ -
11:47 - 11:51နိုင်ငံခြားသားများ နိုင်ငံရေးမိန့်ခွန်းကို
ငွေကြေး မထောက်ပံ့ဖြစ်တာ သေချာစေရမယ်။ -
11:51 - 11:53ဆိုရင် အဲဒီထဲမှာလည်း ကိုယ်ပိုင်
အန္တရာယ်တွေ ရှိပါတယ်။ -
11:54 - 11:58ဥပမာ၊ မလေးရှားနိုင်ငံဟာ လုပ်ကြံသတင်းကို
ဖြန့်ချိကြောင်း တွေ့ရှိလျှင် -
11:58 - 12:01ထောင်ဒဏ် ခြောက်နှစ်
ချမှတ်ရန် ဆုံးဖြတ်ခဲ့ပါတယ်။ -
12:02 - 12:04ပြီးတော့ အာဏာရှင်အစိုးရတွေထဲမှာ ဆိုရင်၊
-
12:04 - 12:08အဲဒီလို မူဝါဒတွေကို လူနည်းစုရဲ့
အာဘော်ကို ဖိနှိပ်ရန် သုံးနိုင်ပြီး -
12:08 - 12:12ချုပ်ချယ်မှုကို ဆက်တိုးချဲ့နိုင်ပါတယ်။
-
12:13 - 12:16စတုတ္ထဖြစ်နိုင်ခြေ ရွေးစရာက
ပွင့်လင်းမြင်သာမှုဖြစ်တယ်။ -
12:16 - 12:20Facebook ရဲ့ အယ်လ်ဂိုရီသမ် အလုပ်လုပ်ပုံကို
ကျုပ်တို့ သိချင်ကြပါတယ်။ -
12:20 - 12:23ကျုပ်တို့ မြင်တွေ့ကြရတဲ့ ရလဒ်မျိုး
ပေါ်ထွက်လာဖို့အတွက် သူတို့ဟာ -
12:23 - 12:26ဒေတာကို ဘယ်လို အယ်လ်ဂိုရီသမ်နဲ့
စီမံဆောင်ရွက်ပေးကြတာလဲ။ -
12:26 - 12:29ကျုပ်တို့က သူတို့ကို
ကန့်လန့်ကားကို ဖွင့်ပြလျက် -
12:29 - 12:32Facebook ရဲ့ အတွင်းပိုင်းမှာ တကယ်
လုပ်ကိုင်ကြပုံကို ပြသစေလိုပါတယ်။ -
12:32 - 12:36ပြီးတော့ ကျုပ်တို့က လူမှုမီဒီယာက လူ့အဖွဲ့
အစည်းအပေါ် အကျိုးသက်ရောက်ပုံကို သိချင်ရင်၊ -
12:36 - 12:38သိပ္ပံပညာရှင်တွေ၊ သုတေသီတွေနဲ့
-
12:38 - 12:41ဒီလို အချက်အလက်တွေကို ရယူလေ့လာနိုင်ကြမယ့်
အခြားသူတွေ လိုအပ်ကြပါလိမ့်မည်။ -
12:41 - 12:43ဒါပေမဲ့ တစ်ချိန်တည်းမှာ
-
12:43 - 12:46ကျုပ်တို့က Facebook ကို အရာတွေအားလုံးကို
သော့ချပိတ်ထားရန်၊ -
12:46 - 12:49ဒေတာ အားလုံးကို လုံခြုံစွာ
ထားပေးရန်ကိုလည်း တောင်းဆိုနေကြပါတယ်။ -
12:49 - 12:52အဲဒီလိုနည်းဖြင့် Facebook နဲ့
အခြားလူမှုမီဒီယာ ပလက်ဖောင်းတွေဟာ -
12:52 - 12:54ပွင့်လင်းမြင်သာရေး ဝိရောဓိကို
ရင်ဆိုင်နေကြရပါတယ်။ -
12:54 - 12:58ကျုပ်တို့က သူတို့ကို ပွင့်လင်း မြင်သာမှု
ရှိကြဖို့ကို တောင်းဆိုနေတဲ့ တချိန်တည်းမှာ -
12:58 - 13:03ပိုပြီး လုံခြုံစွာ လုပ်ကိုင်ရန်ကို
တောင်းဆိုနေကြပါတယ်။ -
13:03 - 13:05ဒီလို တောင်းဆိုချက်ဟာ လိုက်နာရန်
သိပ်ကို ခဲယဉ်းပါတယ်၊ -
13:05 - 13:09ဒါပေမဲ့ ကျုပ်တို့က လူမှုမီဒီယာ နည်းပညာ
တွေရဲ့ ကတိပေးချက်တွေကို ရယူလိုကြပြီး -
13:09 - 13:11၎င်းတို့ထဲက အန္တရာယ်တွေကို
ရှောင်ရှားလိုကြပါက -
13:11 - 13:13သူတို့ဟာ အဲဒါကို လိုက်နာဖြစ်ဖို့
-
13:13 - 13:18ကျုပ်တို့ နောက်ဆုံးစဉ်းစားနိုင်တာက အယ်လ်
ဂိုရီသမ်များနဲ့ စက်များသင်ကြားပေးမှုပါပဲ။ -
13:18 - 13:23သတင်းအတုတွေကို စစ်ထုတ်လျက် နားလည်ပြီး
ပျံ့နှံ့ပုံကို သိရှိလို့ -
13:23 - 13:26၎င်းတို့ စီးဆင်းမှုကို လျှော့ချဖို့
ကြိုးစားမယ့် နည်းပညာ လိုပါတယ်။ -
13:26 - 13:29လူသားတွေဟာ ဒီနည်းပညာရဲ့
အာဏာစက်ကွင်းထဲမှာ ရှိကိုရှိနေကြရပါမယ်၊ -
13:29 - 13:31ဘာဖြစ်လို့လဲဆိုတော့
-
13:31 - 13:35နည်းပညာရဲ့ ဖြေရှင်းမှု ဒါမှမဟုတ် ချဉ်းကပ်
မှုတစ်ခုခုကို အားကိုးအသုံးပြုခြင်းဟာ -
13:35 - 13:39လူ့ကျင့်ဝတ်ဆိုင်ရာနဲ့ ဒဿနိကဆိုင်ရာ
အခြေခံကျတဲ့ မေးခွန်း ဖြစ်ပြီး၊ -
13:39 - 13:42အမှန်တရားနဲ့အတုအပကို
ဘယ်လို ကျုပ်တို့ ခွဲခြားကြမလဲ၊ -
13:42 - 13:46အမှန်တရားနဲ့အတုအပကို ဆုံးဖြတ်ပေးနိုင်မယ့်
အာဏာကို ဘယ်သူကို ကျုပ်တို့ ပေးကြမလဲ၊ -
13:46 - 13:48ဘယ်ထင်မြင်ချက်က တရားဝင် ဟုတ်မှန်ကြလဲ၊
-
13:48 - 13:52ဘယ်လို မိန့်ခွန်း အမျိုးအစားကို ခွင့်ပြု
သင့်သလဲ စတဲ့ မေးခွန်းတွေ ပေါ်လာမှာပါ။ -
13:52 - 13:54နည်းပညာဟာ အဲဒါတွေအတွက်
ဖြေရှင်းနည်း မဟုတ်ပါ။ -
13:54 - 13:58လူ့ကျင့်ဝတ်နှင့် ဒဿနိကကသာ
အဲဒါတွေကို ဖြေရှင်းပေးနိုင်ပါတယ်။ -
13:58 - 14:02လူသားရဲ့ ဆုံးဖြတ်ချက် ချမှတ်ရေးဆိုင်ရာ၊
-
14:02 - 14:05လူသားတွေရဲ့ ပူးပေါင်းဆောင်ရွက်မှုနှင့်
လက်တွဲလုပ်ကိုင်မှုဆိုင်ရာ -
14:05 - 14:09သီအိုရီ အားလုံးတို့ဟာ အမှန်တရားကို
အခြေခံကြရတာချည်း ပါပဲ။ -
14:09 - 14:11ဒါပေမဲ့ သတင်းအတုတွေ
တိုးတိုးလာတာနဲ့အမျှ၊ -
14:11 - 14:13ဗီဒီယိုအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊
-
14:13 - 14:15အသံအတုတွေ တိုးတိုးလာတာနဲ့အမျှ၊
-
14:15 - 14:19ကျုပ်တို့ဟာ ဘယ်ဟာက အမှန်၊ ဘယ်ဟာက အတုပါလို့
ကျုပ်တို့ ပြောမရနိုင်တဲ့ -
14:19 - 14:23အရှိတရား နိဂုံးချုပ်နိုင်တဲ့ ခြောက်ကမ်းပါး
အနီးကို ချဉ်းကပ်လာနေကြပါတယ်။ -
14:23 - 14:26အဲဒါဟာ တကယ့်ကိုပဲ အန္တရာယ်များလှတဲ့
အလားအလာပါပဲ။ -
14:27 - 14:31ကျုပ်တို့ဟာ လုပ်ကြံအချက်အလက်တွေကို
ဆန့်ကျင်လျက် -
14:31 - 14:33အမှန်တရားကို တက်ကြွစွာ
ခုခံဖို့ လိုအပ်ပါတယ်။ -
14:33 - 14:36ကျုပ်တို့ရဲ့ နည်းပညာတွေနဲ့၊
ကျုပ်တို့ရဲ့ မူဝါဒတွေနဲ့၊ -
14:36 - 14:38ပြီးတော့ အရေးအကြီးဆုံး ဖြစ်နိုင်တာက၊
-
14:38 - 14:42ကျုပ်တို့ တစ်ဦးချင်းစီရဲ့ တာဝန်သိစိတ်များ၊
-
14:42 - 14:45ဆုံးဖြတ်ချက်များ၊ အပြုအမူများနှင့်
လုပ်ဆောင်ဖို့ လိုအပ်ပါမယ်။ -
14:46 - 14:47ကျေးဇူးအများကြီးတင်ပါတယ်။
-
14:47 - 14:51(လက်ခုပ်သံများ)
- Title:
- လုပ်ကြံသတင်းအချက်အလက်များရဲ့ ခေတ်မှာ ကျုပ်တို့ အမှန်တရားကို ဘယ်လို ကာကွယ်ပေးနိင်ကြမလဲ
- Speaker:
- Sinan Aral
- Description:
-
သတင်းအတုတွေဟာ ရွေးကောက်ပွဲတွေကို ချယ်လှယ်နိုင်ကြပြီး စီးပွားရေးကို ထိုးနှက်လျက် နေ့စဉ်ဘဝကို နှောင့်ယှက်နိုင်ကြပါတယ်။ ဒေတာဆိုင်ရာ သိပ္ပံပညာရှင် Sinan Aral က သတင်းတုတွေ ဘာဖြစ်လို့ အရမ်းကို လျင်မြန်စွာ ပျံ့နှံ့တတ်တာကို နားလည်အောင် ရှင်းပြထားပြီး သတင်းတုများဆိုင်ရာ အကြီးမားဆုံး လေ့လာမှု တစ်ခုကို ကိုးကားဖေါ်ပြပေးရင်း ကျုပ်တို့အတွက် အမှန်တရားနဲ့ သတင်းတုတွေရဲ့ ပင့်ကူမျှင် အကြားမှာ ဘယ်လို လှုပ်ရှားနေထိုင်သင့်ကြောင်း မဟာဗျူဟာ ငါးရပ်ကို ချမှတ်ပြသပေးထားပါတယ်။
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
![]() |
Myo Aung approved Burmese subtitles for How we can protect truth in the age of misinformation | |
![]() |
Myo Aung edited Burmese subtitles for How we can protect truth in the age of misinformation | |
![]() |
Sanda Aung accepted Burmese subtitles for How we can protect truth in the age of misinformation | |
![]() |
Sanda Aung edited Burmese subtitles for How we can protect truth in the age of misinformation | |
![]() |
Myo Aung edited Burmese subtitles for How we can protect truth in the age of misinformation | |
![]() |
Myo Aung edited Burmese subtitles for How we can protect truth in the age of misinformation | |
![]() |
Myo Aung edited Burmese subtitles for How we can protect truth in the age of misinformation |