< Return to Video

ကလေးများအတွက် YouTube အိပ်မက်ဆိုး -- ယခုခေတ် အင်တာနက်နဲ့ပတ်သက်ပြီး မှားယွင်းနေတာတွေ။

  • 0:01 - 0:02
    ကျနော့ နာမည် James ပါ
  • 0:02 - 0:04
    စာရေးဆရာ၊ အနုပညာရှင် တစ်ယောက်ပါ
  • 0:04 - 0:06
    နည်းပညာနဲ့ ပက်သက်တဲ့
    ဖန်တီးမှုတွေ ပြုလုပ်တယ်
  • 0:06 - 0:10
    ကမ္ဘာ့ မြို့ကြီးတွေရဲ့ လမ်းတွေပေါ်မှာ
  • 0:10 - 0:12
    စစ်တပ်သုံး drone ပုံတွေဆွဲတာမျိုးပေါ့
  • 0:12 - 0:15
    ရည်ရွယ်ချက်က လူတွေ နည်းပညာနဲ့ ပက်သက်ပြီး
  • 0:15 - 0:19
    မထင်မှတ်ထားတာတွေကို သတိပြုမိလာအောင်ပါ
  • 0:19 - 0:23
    ရာသီဥတု ခန့်မှန်းချက်တွေကိုသုံးပြီး
    ရွေးကောက်ပွဲရလဒ်တွေကို ခန့်မှန်းတဲ့
  • 0:23 - 0:25
    neural network တွေလည်းပြုလုပ်တယ်
  • 0:25 - 0:26
    ဘာလို့လဲဆိုတော့
  • 0:26 - 0:30
    ဒီထူးဆန်းတဲ့ နည်းပညာတွေကို သုံးပြီး
    ဘာတွေဖြစ်လာနိုင်ခြေရှိတာ သိချင်လို့ပါ။
  • 0:31 - 0:34
    ပြီးခဲ့တဲ့နှစ်က ကိုယ်ပိုင်
    မောင်းသူမဲ့ကားဆောက်ခဲ့တယ်
  • 0:34 - 0:36
    ဒါပေမဲ့ နည်းပညာအပေါ်
    တကယ့့််ကို မယုံကြည်တာကြောင့်
  • 0:36 - 0:38
    ဒီကားအတွက်
    လှည့်ကွက်တစ်ခု ဆင်ခဲ့တယ်
  • 0:39 - 0:40
    (ရယ်သံများ)
  • 0:40 - 0:44
    ဒါတွေအကို ကျနော် လုပ်တာကတော့
    ထိန်းချုပ်လုပ်မရတဲ့ စိတ်ဝင်စားမှုကြောင့်ပါ
  • 0:44 - 0:47
    ကျနော့အထင် နည်းညာအကြောင်း
    ကျနော်တို့ ဆွေးနွေးတဲ့အခါ
  • 0:47 - 0:49
    ကျနော်တို့ ကိုယ်တိုင်အကြောင်းအပြင်
  • 0:49 - 0:52
    ကမ္ဘာကြီးပေါ် နားလည်ပုံကိုပါ
    ဆွေးနွေးနေလို့ပါ။
  • 0:52 - 0:54
    ဒီမှာ ကျနော်က နည်းပညာနဲ့
    ပက်သက်ပြီးပြောချင်ပါတယ်
  • 0:56 - 0:58
    ဒါက "လက်ဆောင် ဥ" (surprise egg) ဗီဒီယို ပါ
  • 0:58 - 1:02
    ဒီ ဗီဒီယို မှာ ဥပုံစံ ချောကလက်လုံးတွေကို
    ဖွင့်ဖောက်ပြနေတာပါ
  • 1:02 - 1:04
    အထဲက ဖွက်ထားတဲ့ အရုပ်လေးတွေ
    ထွက်လာတာပေါ့
  • 1:04 - 1:07
    ဒါပဲ။ ဒီ (၇)မိနစ် video မှာပြနေတာ ဒါပဲ။
  • 1:07 - 1:10
    ဒါနဲ့ ပက်သက်ပြီး ကျနော်သိစေချင်တာ (၂)ချက်က
  • 1:11 - 1:15
    ပထမ အချက်၊ ဒီ video က ကြည့်ရှုသူ
    အရေအတွက် သန်း(၃၀) ရှိပါတယ်
  • 1:15 - 1:16
    (ရယ်သံများ)
  • 1:16 - 1:18
    နောက်တစ်ချက်က
  • 1:18 - 1:21
    ဒီ video တွေပြတဲ့ ချန်နယ် (channel) က
    ပရိသတ် (subscriber) (၆.၃)သန်း ရှိပါတယ်
  • 1:21 - 1:24
    စုစုပေါင်း ကြည့်ရှုသူပေါင်း
    (၈)ဘီလီယံ ရှိပါတယ်။
  • 1:24 - 1:27
    ဒီလို ဗီဒီယို ပေါင်းများစွာ ရှိနေပါတယ်
  • 1:28 - 1:32
    လူပေါင်း သန်း(၃၀)က လူတစ်ယောက် ချောကလက်
    လုံးတွေ ထိုင်ဖောက်နေတာကို ကြည့်နေကြတာ
  • 1:32 - 1:37
    ဒါက တော်တော်ကြောင်တောင်တောင်ဆိုါပေမဲ့
    YouTube မှာ "surprise eggs"လို့ ရှာကြည့်ပါ
  • 1:37 - 1:40
    ဒီလို video ပေါင်း (၁၀)သန်းလောက်
    ထွက်လာလိမ့်မယ်
  • 1:40 - 1:42
    (၁၀)သန်းဆိုတာ နည်းပါဦးမယ်
  • 1:42 - 1:44
    ဒါထက် အများကြီး ပိုရှိနေဦးမှာ
  • 1:44 - 1:46
    ရှာပြီးရင်း ရှာနေ၊ မဆုံးနိုင်ဘူး
  • 1:46 - 1:48
    ဒီလို video မျိုးတွေ သန်းချီ ရှိနေတာပါ။
  • 1:48 - 1:52
    ချောကလက် ဥတွေ
    ပုံစံအမျိုးမျိုး၊ တံဆိပ်အမျိုးမျိုး
  • 1:52 - 1:56
    နေ့စဉ်နေ့တိုင်း ဒီလို video အသစ်အသစ်တွေ
    တင်နေကြတာပါ
  • 1:56 - 1:59
    တော်တော် နားမလည်နိုင်စရာပဲနော်
  • 1:59 - 2:03
    တကယ်တမ်းက ဒီ ဗီဒီယို တွေကို ကြည့်နေကြတာ
    လူကြီးတွေ မဟုတ်ပါဘူး
  • 2:03 - 2:06
    ကလေး ငယ်ငယ်လေးတွေပါ
  • 2:06 - 2:08
    ဒီဗီဒီယိုတွေက ကလေးငယ်လေးတွေ အတွက်
    စွဲလမ်းစရာပါ
  • 2:08 - 2:10
    အကြိမ်ကြိမ် ကြည့်နေကြတာ အကြောင်းရှိပါတယ်
  • 2:10 - 2:12
    အထဲက အရုပ်ထွက်လာတာ ကြည့်ရတဲ့
    စွဲလမ်းမှု (dopamine) က
  • 2:12 - 2:14
    ဒီကလေးတွေကို ဆွဲဆောင်ပါတယ်
  • 2:14 - 2:19
    ကလေးလေးတွေက ဒီ video တွေကို
    ထပ်ခါတလဲလဲ ကြည့်ကြပါတယ်
  • 2:19 - 2:21
    နာရီပေါင်းများစွာ ထပ်ခါတလဲလဲ
  • 2:21 - 2:24
    သူတို့လေးတွေဆီက ကြည့်နေတာကို
    ဖယ်လိုက်လို့ကတော့
  • 2:24 - 2:26
    အော်ပြီ ဟစ်ပြီ ဆူညံပြီ
  • 2:26 - 2:27
    ကျနော် ပြောတာကို မယုံရင်
  • 2:27 - 2:29
    အခု ပရိသတ်ထဲမှာတင်
    ခေါင်းညိတ်နေတဲ့လူတွေ တွေ့နေရပြီ
  • 2:29 - 2:33
    မယုံရင် ကလေးရှိတဲ့ တစ်ယောက်ယောက်ကို
    ဒီ surprise egg videos ကို
  • 2:33 - 2:35
    သိသလားလို့မေးကြည့်ပါ။
  • 2:35 - 2:37
    ဆိုတော့ ဒီမှာ ကျနော်စပြောပြီ
  • 2:37 - 2:41
    ၂၀၁၈ မှာ လူတစ်ချို့ (သို့) အတော်များများဟာ
  • 2:41 - 2:45
    ဒီ app ကို လူတွေ ဆက်ဆက်ကြည့်စေဖို့
    အလားတူ နည်းလမ်းတွေ သုံးတဲ့Facebook,
  • 2:45 - 2:47
    Instagram တို့လိုမျိုးတွေကို သုံးနေကြတယ်။
  • 2:47 - 2:51
    အခုဆို YouTube ပေါ်မှာ ကလေးငယ်လေးတွေကို
    အသုံးချပြီး
  • 2:51 - 2:53
    ကြော်ငြာခ ယူဖို့ ကြိုးစားနေကြ တာပဲ
  • 2:54 - 2:56
    အနညး်ဆုံး သူတို့ ရည်ရွယ်ချက်က
    ဒီလောက်ပဲ
  • 2:56 - 2:58
    ဒီအတွက်ပဲ သူတို့လုပ်တာလို့ မျှော်လင့်တယ်။
  • 2:58 - 3:04
    ဘာလို့ဆို YouTube ကြော်ငြာခရဖို့ ဒီထက်ပို
    လွယ်တဲ့ နည်းလမ်းတွေ ရှိပါတယ်။
  • 3:04 - 3:06
    လုပ်ကြံဖန်တီးထားတာ
    သူများဟာကို ခိုးချတာတွေပေါ့
  • 3:06 - 3:09
    နာမည်ကြီး ကလေး ကာတွန်းကားတွေကို
    ရှာကြည့်လိုက်ပါ
  • 3:09 - 3:10
    "့်Peppa Pig" (သို့) "Paw Patrol"
  • 3:10 - 3:14
    ရှာကြည့်ရင် အင်တာနက်ပေါ်မှာ
    ဒီကာတွန်းတွေ သန်းနဲ့ချီပြီးတွေ့ရပါမယ်
  • 3:14 - 3:17
    ဒါပေမဲ့ တော်တော်များများက မူရင်းပိုင်ရှင်
    ကိုယ်တိုင် တင်ထားတာ မဟုတ်ဘူး
  • 3:17 - 3:20
    ဒီလိုပဲ လူအမျိုးအမျိုးက နည်းမျိုးစုံနဲ့
    တင်နေကြတာပါ
  • 3:20 - 3:22
    ဘယ်သူဘယ်ဝါ တင်တယ်ဆိုတာလည်း
    အတိအကျသိဖို့ ခက်ပါတယ်
  • 3:22 - 3:24
    ဘာရည်ရွယ်ချက်နဲ့ တင်တာ
    မသိနိုင်ပါဘူး
  • 3:24 - 3:26
    ဒါမျိုး ပြဿနာက ရင်းနှီးနေတယ်လို့ ထင်လား
  • 3:26 - 3:28
    ဒါမျိုး ဖြစ်စဉ်က
  • 3:28 - 3:31
    ကျနော်တို့ ဒစ်ဂျစ်တယ် လောကမှာ
    အမြဲ ကြုံနေရတာပါ
  • 3:31 - 3:34
    ဒီအချက်အလက်တွေ ဘယ်က စပြီး
    ပျံ့လာသလဲ သိဖို့ အင်မတန် ခက်ခဲပါတယ်
  • 3:34 - 3:36
    ဒါဟာကလေးတွေ အတွက် သတင်းမှားတွေပါ
  • 3:36 - 3:38
    သူတို့တွေ ငယ်စဉ်ထဲက ဘယ်ကမှန်းမသိတဲ့
  • 3:38 - 3:41
    အင်တာနက်မှာ ထိပ်ဆုံးက ပေါ်တဲ့
    link ကို နှိပ်ဖို့
  • 3:41 - 3:43
    ကျနော်တို့ကဟာ အကျင့်လုပ်သလို ဖြစ်နေတာပါ
  • 3:43 - 3:45
    သိပ်ကောင်းတဲ့ အတွေးတော့ မဟုတ်ဘူး
  • 3:46 - 3:49
    နောက်တစ်ချက် YouTube မှာ
    ကလေးတွေ ကို လွှမ်းမိုးတဲ့ အရာက
  • 3:49 - 3:51
    Finger Family Song သီချင်းပါ။
  • 3:51 - 3:53
    ခုပဲ ပရိသတ်ထဲက ညည်းသံ ကြားလိုက်တယ်။
  • 3:53 - 3:55
    ဒါက Finger Family Song ပါ
  • 3:55 - 3:57
    ဒါက ရှာလို့တွေ့တဲ့ အရင်ဆုံးပေါ်တဲ့ ဟာပဲ
  • 3:57 - 4:00
    ဒါက ၂၀၀၇ တုန်းက တစ်ခု
    ကြည့်ရှုသူ ၂၀၀,၀၀၀ ပဲရှိတယ်
  • 4:00 - 4:02
    တစ်ခြားဟာတွေနဲ့ ယှဉ်ရင် အရမ်းနည်းသေးတယ်
  • 4:02 - 4:04
    သူ့ သံစဉ်က သိပ်ကို နားထဲစွဲတယ်
  • 4:04 - 4:06
    ကျနော် ဖွင့်မပြတော့ပါဘူး
  • 4:06 - 4:08
    ခင်ဗျားတို့ ဦးနှောက်ထဲ စွဲသွားမှာ စိုးလို့
  • 4:08 - 4:11
    ကျနော့်ဆီမှာတော့ တော်တော့်ကို စွဲနေပြီ။
  • 4:11 - 4:12
    ခင်ဗျားတို့ကို မခံစားစေချင်ပါဘူး။
  • 4:12 - 4:14
    surprise eggs လိုပဲ
  • 4:14 - 4:16
    ကလေးငယ်တွေ ဦးနှောက်ထဲ စွဲနေတယ်
  • 4:16 - 4:18
    သူတို့တွေ ဒါတွေကို စွဲလမ်းနေတယ်။
  • 4:18 - 4:20
    နှစ်အနည်းငယ် အတွင်းမှာပဲ
    ဒီ finger family video တွေ
  • 4:20 - 4:21
    နေရာ အနှံ့မှာ ပျံ့လာတယ်
  • 4:21 - 4:24
    လူသိများတဲ့ ကလေးကာွန်း အစားအသောက်ပုံစံနဲ့
  • 4:24 - 4:26
    ဘာသာစကား အမျိုးမျိုးနဲ့တောင်
    ထွက်လိုက်သေးတယ်။
  • 4:26 - 4:28
    တစ်ချို့လဲ ပြောရရင် animation
    ဖြစ်ရင်ပြီးရော
  • 4:28 - 4:31
    တွေ့ရာ မြင်ရာ အစုံလျှောက်ထည့်တယ်
  • 4:31 - 4:36
    ဒီ ဗီဒီယိုတွေလည်း သန်းနဲ့ချီပြီး ရှိနေတယ်
  • 4:36 - 4:40
    အင်တာနက်ပေါ်မှာ ပုံစံ အမျိုးမျိုးနဲ့
    ရှာလို့တွေ့နိုင်တယ်
  • 4:40 - 4:42
    ဒါတွေကို ခင်ဗျားတို့ ရှာကြည့် လေလေ
  • 4:42 - 4:46
    ပိုပိုပြီး ကြောင်တော်တောင်
    ရူးနှမ်းနှမ်း ခံစားရလေပဲ
  • 4:46 - 4:49
    ဒါတွေကြောင့် ကျနော် သိပ်ကို
    စိတ်ဝင်စားသွားတာပဲ
  • 4:49 - 4:53
    ကျွန်တော့ဝန်းကျင်မှာ တင်ပြဖို့ထင်ရတာကို
    ဘယ်လို တညိဆောက်ခဲ့တယ်ဆိုတာက
  • 4:53 - 4:57
    သိပ်ကို ထူးဆန်းပြီး နားလည်ရခက်ပါတယ်။
  • 4:57 - 5:00
    ဒါတွေ ဘယ်လို ဖြစ်လာသလဲဆိုတာ
    သိဖို့ မဖြစ်နိုင်တာကြောင့်ပါ။
  • 5:00 - 5:01
    ဥပမာ ဘယ်သူတွေက ဖန်တီးနေလဲ
  • 5:01 - 5:04
    တစ်ချို့ဟာတွေက ကျွမ်းကျင်တဲ့
    animator တွေက ဖန်တီးထားတာ
  • 5:05 - 5:07
    တစ်ချို့က software တစ်ခုခုနဲ့
    ဒီလိုပဲ လျှောက်လုပ်ထားကြတာ
  • 5:07 - 5:12
    တစ်ချို့ကတော့ ကလေးငယ်တွေ ဖျော်ဖြေရေးကို
    အဓိက ဦးတည်တဲ့ လူတွေပေါ့
  • 5:12 - 5:13
    နောက်ပြီး တစ်ချို့ကတော့
  • 5:13 - 5:16
    ကလေးတွေ လုံးဝမပက်သက်သင့်တဲ့
    လူတွေ ဖန်တီးထားတာပါ
  • 5:16 - 5:18
    (ရယ်သံများ)
  • 5:19 - 5:24
    ထပ်ပြီးပြောချင်တာကတော့ ဒါတွေကို ဘယ်သူတွေ
    ဖန်တီးနေလဲ ဆိုတာကို သိဖို့ မဖြစ်နိုင်တာပါ။
  • 5:24 - 5:25
    ဥပမာ အလိုလို ဖန်တီးတာလား
  • 5:25 - 5:27
    လူတွေပဲလား၊ ဟာသ သက်သက်လုပ်ကြတာလား။
  • 5:28 - 5:30
    ကျနော်တို့ ဒါကို မခွဲခြားနိုင်ဘူးဆိုရင်
  • 5:30 - 5:31
    ဘယ်လိုလုပ်ကြမလဲ
  • 5:32 - 5:36
    ထပ်ပြောရရင် ဒီဖြစ်စဉ်က မရင်းနှီးနေဘူးလား
  • 5:38 - 5:41
    ဆိုတော့ ဒီဗီဒီယို တွေကနေ
    ကြည့်ရှုသူဦးရေတိုးဖို့
  • 5:41 - 5:42
    ကြည့်တာ တိုးရင် ပိုက်ဆံရတာပေါ့
  • 5:42 - 5:47
    ကြည့်တာ တိုးဖို့ ဗီဒီယိုခေါင်းစဉ်တွေကို
    နာမည်ကြီးနေတာတွေ ပေးကြတယ်
  • 5:47 - 5:49
    ဆိုတော့ "surprise eggs" လိုမျိုး
  • 5:49 - 5:51
    ပြီးတော့ "Paw Patrol", "Easter egg" လို
  • 5:51 - 5:52
    တစ်ခြား နာမည်ကြီးနေတာတွေပေါ့
  • 5:52 - 5:55
    နာမည်ကြီး စကားလုံးတွေကို
    သူတို့ ဗီဒီယိုခေါင်းစဉ်နေနဲ့ ယူပြီး
  • 5:55 - 5:58
    ဒီလို အဓိပ္ပါယ် မရှိတဲ့ ဘာသာစကား
    အရောတွေဖန်တီးလိုက်တာပဲ
  • 5:58 - 6:01
    ကြည့်တာ တိုးဖို့ကလွဲပြီး
    ဘာအဓိပ္ပါယ်မှ မရှိတာတွေ
  • 6:01 - 6:04
    တကယ်တမ်းကသူတို့ video တွေကို ကြည့်နေတာ
    ကလေးလေးတွေလေ
  • 6:04 - 6:06
    ဒီကလေးလေးတွေ ဘာသိမှာတုန်း။
  • 6:06 - 6:09
    တကယ့်တကယ် ကြည့်သူတွေများနေတာ
    software ကြောင့်ပဲ
  • 6:09 - 6:11
    ကွန်ပြူတာ နဲ့ တွက်တာပါ
  • 6:11 - 6:12
    ဘယ် ဗီဒီယိုတွေက တစ်ခြား ဗီဒီယိုတွေနဲ့
  • 6:12 - 6:15
    တူသလဲသိဖို့ YouTube က သုံးထားတဲ့
    software ကြောင့်ပဲ
  • 6:15 - 6:17
    လူသိများအောင်၊ ကြည့်သင့်တဲ့
    စာရင်းထဲပါဖို့ပါ။
  • 6:17 - 6:21
    ဒီ software တွေကြောင့် ဒီလို အဓိပ္ပါယ်မရှိ
    တဲ့ခေါင်းစဉ်နဲ့ အကြောင်းအရာတွေ
  • 6:21 - 6:23
    ဖြစ်ကုန်တော့တာပေါ့။
  • 6:24 - 6:26
    ဒီမှာ ကျနော်တို့ သိသင့်တာက
  • 6:26 - 6:30
    ဒီ algorithm တွေနဲ့ system ထဲမှာ လူတွေက
    နေရာယူထားတယ်ဆိုတာပဲ
  • 6:30 - 6:33
    ထူးထူးဆန်းဆန်း နာမည်ကြီး
    နေတဲ့ ခေါင်းစဉ်တွေကို
  • 6:33 - 6:36
    အလွဲသုံးစား လုပ်ပြီးတော့
  • 6:36 - 6:41
    သန်းပေါင်းများစွာ ကလေးတွေ အတွက်
    အဓိပ္ပါယ်မရှိတာတွေ
  • 6:41 - 6:44
    ကြုံသလို ဖန်တီးနေကြတဲ့
    အခြေအနေမဲ့ လူတွေပေါ့
  • 6:45 - 6:48
    ဒီလိုစနစ် ထဲမှာ
    လူတွေ နေရာယူထားကြပါတယ်
  • 6:48 - 6:52
    ပြီးတော့ ဒီလို algorithm နဲ့တွက်ချက်ထားတဲ့
    ယဉ်ကျေးမှုအကြောင်း အသိခက်တာရှိတယ်
  • 6:52 - 6:53
    အကြောင်းက သင်ဟာ လူဆိုတာတောင်
  • 6:53 - 6:55
    ရှင်ကျန်ဖို့အတွက်ကိုပဲ
    စက်တစ်ခုလို့ ပြုမူရင်း
  • 6:55 - 6:57
    အပြီးသတ်ဖို့ခိုတယ်လေ။
  • 6:57 - 6:59
    စခရင်ရဲ့ အခြားဘက်မှာလည်း
  • 6:59 - 7:02
    ကလေးလေးတွေဟာ
    စွဲစွဲလမ်းလမ်း ကြည့်နေကြတာပါ
  • 7:02 - 7:06
    ဒီစနစ်တွေကပဲ ကလေးတွေ ရဲ့ စိတ်ဝင်စားမှုကို
    ရယူနေကြတာပါ
  • 7:07 - 7:10
    ဒီကလေးငယ် တော်တော်များများဟာ
    website သုံးဖို့ ငယ်လွန်းပါတယ်
  • 7:10 - 7:13
    သူတို့လေးတွေက screen ပေါ်မှာ
    ဒီလိုပဲ လျှောက်နှိပ်ကြတာပါ
  • 7:13 - 7:14
    ဒီတော့ autoplay ရှိပါတယ်
  • 7:14 - 7:18
    ဗီဒီယို တွေဟာ ထပ်ခါထပ်ခါ
    မဆုံးနိုင်အောင် ပြနေတာပါ
  • 7:18 - 7:20
    မရပ်မနား နာရီပေါင်းများစွာပေါ့
  • 7:20 - 7:23
    ဒီ အလိုaလျာက်စနစ် ကလဲ ဆန်းပါတယ်
  • 7:23 - 7:26
    ကြည့်နေရင်း ထူးထူးဆန်းဆန်းတွေ
    ပေါ်ပေါ်လာတယ်
  • 7:26 - 7:28
    ဒါက ဒါဇင်ချီတဲ့အဆင့်တွေအတွင်းမှာ ပြသပုံပါ
  • 7:28 - 7:31
    ချစ်စရာ ရထားလေး video ကြည့်နေရင်းကနေ
  • 7:31 - 7:34
    မဖွယ်မရာလုပ်နေတဲ့ Mickey Mouse ဆီ
    ရောက်သွား နိုင်တယ်
  • 7:35 - 7:37
    စိတ်မရှိပါနဲ့ဗျာ
  • 7:37 - 7:39
    ဒီထက်ပိုဆိုးတာတွေ ရှိပါတယ်
  • 7:39 - 7:40
    ဘာကြောင့်ဖြစ်လဲ ဆိုရင်
  • 7:40 - 7:43
    အချက်ပြစကားလုံး အမျိုးမျိုး
  • 7:43 - 7:45
    အာရုံစိုက်စရာ အမျိုးမျိုး
  • 7:45 - 7:48
    ခုခေတ်လူတွေရဲ့ အခြေအနေမဲ့
    အကြောင်းအရာ အမျိုးမျိုး
  • 7:48 - 7:51
    ဒါတွေအားလုံး တစ်နေရာတည်း ပေါင်းစည်းလာတာပါ။
  • 7:52 - 7:56
    အခုလို အဓိပ္ပါယ်မဲ့ အကြောင်းအရာတွေ
    ဖြစ်တည်လာတာပါပဲ
  • 7:56 - 7:59
    finger family video ကိုပုံစံအမျိုးမျိုးနဲ့
  • 7:59 - 8:01
    superhero ပုံစံလိုမျိုးတွေ ပြင်တာမျိုးပေါ့
  • 8:01 - 8:04
    ပြီးတော့ အဓိပ္ပါယ် မရှိတဲ့ ဟာသတွေလုပ်တယ်
  • 8:04 - 8:08
    ဒါနဲ့ပဲ အခုလို ကြောင်တောင်တောင်
    လုပ်ကွက်တွေ ပေါ်လာတော့တာပေါ့
  • 8:08 - 8:10
    ကလေးငယ်မိဘတွေကို
    စိတ်ပျက်စေတဲ့ အရာတွေပေါ့
  • 8:10 - 8:13
    အကြမ်းဖက်သရုပ်တွေ
    လိင်ပိုင်းဆိုင်ရာ သရုပ်တွေပေါ့
  • 8:13 - 8:16
    ကလေးငယ်တွေရဲ့ ကာတွန်းတွေးထဲမှာ
    ပြစ်မှုကျူးလွန်တာတွေ
  • 8:16 - 8:18
    သတ်ဖြတ်ကြတာတွေ
  • 8:18 - 8:21
    ကလေးငယ်တွေ ကြောက်လန့်စေမယ့်
    အဓိပ္ပါယ်မဲ့ လုပ်ရပ်တွေပါလာတာပါ။
  • 8:21 - 8:25
    ဒီ software တွေက
    အခုလို လွှမ်းမိုးမှုတွေကို ဖြစ်စေတာက
  • 8:25 - 8:28
    ကလေးတွေအတွက် အိပ်မက်ဆိုးတွေ
    ဖန်တီးပေးနေတာပဲ
  • 8:28 - 8:31
    ဒီအရာတွေက ကလေးငယ်လေးတွေအတွက်
    တကယ် ဆိုးကျိုးတွေပေးပါတယ်။
  • 8:31 - 8:34
    စိတ်ဒဏ်ရာရသွားတဲ့ ကလေးငယ်တွေအကြောင်း
    မိဘတွေဆီက ကြားနေရပါတယ်
  • 8:34 - 8:35
    အမှောင်ကြောက်တတ်လာတာ
  • 8:35 - 8:38
    သူတို့တွေ အကြိုက်ဆုံး ကာတွန်း
    ဇာတ်ကောင်တွေကို ကြောက်လာတာမျိုးပေါ့
  • 8:39 - 8:42
    ကျနော့်ဆီက မှတ်သွားစေချင်တာက
    သင့်မှာ ကလေးငယ်တွေရှိရင်
  • 8:42 - 8:44
    သူတို့ကို YouTube ပေးမသုံးပါနဲ့
  • 8:45 - 8:49
    (လက်ခုပ်သံများ)
  • 8:51 - 8:54
    နောက်တစ်ခုက ဒါကိုကျနော်ဘာကြောင့်
    တွေးနေရလဲဆိုတော့
  • 8:54 - 8:58
    ကျနော်တို့ နည်းပညာတွေ ဘာလို့ ဒီအခြေအနေ
    ရောက်လာရလဲဆိုတာအသေအချာ နားမလည်ကြဘူး
  • 8:59 - 9:02
    ကျနော်တို့ ဒီနည်းပညာတွေရဲ့
    လွှမ်းမိုးမှုတွေ ခံနေရတယ်
  • 9:02 - 9:05
    ပြီးတော့ ကျနော်တို့ မလိုချင်တဲ့
    အကျိုးဆက်တွေ ဖြစ်လာတာပါပဲ
  • 9:05 - 9:08
    ဒါပေမဲ့လည်း ဒီပုံစံအတိုင်းပဲ
    တစ်ကမ္ဘာလုံးကို တည်ဆောက်နေကြတယ်
  • 9:08 - 9:10
    ကျနော်တို့ဟာ ဒီအချက်အလက်တွေကိုယူနေတယ်
  • 9:10 - 9:11
    မကောင်းတဲ့ အချက် အများအပြား
  • 9:11 - 9:14
    အကျိုးအကြောင်း မခိုင်လုံတဲ့
    အချက်အလက်တွေ
  • 9:14 - 9:17
    သမိုင်းတစ်လျောက် အဆိုးရွားဆုံး
    စိတ်ကူး လှုံ့ဆော်မှုတွေ
  • 9:17 - 9:19
    ဒါကို ဧရာမ အချက်အလက်
    အတွဲတွေထဲမှာ သိမ်းနေကာ
  • 9:19 - 9:21
    အလိုအလျောက် ပျံ့နေတယ်
  • 9:21 - 9:24
    ပြီးတော့ ဒီအဓိပ္ပါယ် မရှိတဲ့ အရာတွေက
    အခြား အသုံးဝင်တဲ့ အရာတွေ
  • 9:24 - 9:26
    ဘဏ်စာရင်းတွေ
  • 9:26 - 9:29
    အာမခံ အချက်အလက်တွေ
    ဥပဒေဆိုင်ရာ အချက်အလက်တွေ
  • 9:29 - 9:30
    အကုန် ရောထွေးသွားစေပါတယ်
  • 9:30 - 9:33
    ဒီအချက်အလက်တွေနဲ့ပဲ ကျနော်တို့က
    ဒီနေ့ ကမ္ဘာကြီးကို
  • 9:33 - 9:34
    တည်ဆောက်နေကြတာပါ။
  • 9:34 - 9:36
    ဘာက ပိုဆိုးတာ ကျနော် မတွေးတတ်ဘူး၊၊
  • 9:36 - 9:39
    လူသား ကောင်းကျိူးမပြုတဲ့ စနစ်
    တွေကိုကျနော်တို့ ကိုယ်တိုင်
  • 9:39 - 9:42
    ရည်ရွယ်ပြီး
    တည်ဆောက်ခဲ့ကြလား
  • 9:42 - 9:45
    (သို့) ဘာဆိုးကျိုးတွေ ဖန်တီးမိလဲ
  • 9:45 - 9:47
    သတိမပြုမိပဲ မတော်တဆ ဖန်တီးခဲ့မိတာလား၊
  • 9:47 - 9:50
    ကိုယ်တိုင် ဖန်တီးထားတဲ့ စနစ်တွေကို
    အပြည့်အဝ နားမလည်ခဲ့ကြလို့ပါ။
  • 9:50 - 9:54
    ပြီး ဒါတွေကို အသုံးပြုသင့်တဲ့ နည်းလမ်းတွေ
    အပြည့်အဝ နားမလည်ခဲ့ကြလို့ပါ။
  • 9:55 - 9:58
    ဒီဆိုးကျိုးတွေ ဖြစ်ဖို့ လှုံ့ဆော်နေတဲ့
    အချက်အနည်းငယ် ပြောချင်ပါတယ်
  • 9:58 - 9:59
    အထူးသဖြင့် YouTube မှာပါ
  • 9:59 - 10:01
    ပထမဆုံးက ကြော်ငြာပေါ့
  • 10:01 - 10:04
    တစ်ခြား ဘာလုပ်အားမှ မပါပဲ
  • 10:04 - 10:07
    ကြည့်သူအရေအတွက်နဲ့
    ကြော်ငြာခ ပေးတဲ့စနစ်ပေါ့
  • 10:07 - 10:11
    ဒါတွေကို ဖန်တီးနေတဲ့ လူတွေစိတ်ဝင်စား
    တာက ဒီအကြောင်းအရာကို ဖွံ့ဖြိုးဖို့၊
  • 10:11 - 10:15
    ဒီစွမ်းအားကို ဗဟိုပြုချုပ်ကိုင်ဖို့တဲ့
    ဒီအရာတွေကို ခွဲခြားဖို့ပါ။
  • 10:15 - 10:18
    ကျွန်တော့အထင် ဒီလိုအရာတွေကို
    ကြော်ငြာသုံးခြင်းနဲ့ပတ်သက်ပြီး
  • 10:18 - 10:19
    ဘယ်လိုပဲ မြင်မြင်ပါ
  • 10:19 - 10:22
    သဲထဲ လူးနေတဲ့ ခါးတောင်းကျိုက်ထားတဲ့
    လူကြီးတစ်ယောက်ကို မြင်ပြီ်း
  • 10:22 - 10:25
    သူတို့နားမလည်တဲ့ အယ်ဂိုရစ်သမ်က
    ဒါအတွက် သူတို့ကို ပိုက်ဆံပေးမယ်
  • 10:25 - 10:27
    မျှော်လင့်တာက
  • 10:27 - 10:29
    လူအဖွဲ့အစည်းနဲ့ ယဉ်ကျေးမှုအပေါ်
  • 10:29 - 10:31
    အခြေခံသင့်ကာ ဒီနည်းနဲ့ ဒါကို
    ငွေကြေးထောက်ပံ့နေတယ်
  • 10:31 - 10:33
    ဆိုတဲ့အရာ မဖြစ်လောက်ဘူး
    ဆိုတာ ညွှန်ပြပါတယ်
  • 10:34 - 10:37
    နောက် အဓိကအချက်တစ်ခုက
  • 10:37 - 10:39
    အလိုအလျောက်ပျံ့နှံ့ နေတဲ့ အချက်ပါ
  • 10:39 - 10:42
    ဒီနည်းပညာတွေ အသုံးပြုပြီး ဖြန့်လိုက်တဲ့အခါ
  • 10:42 - 10:43
    အင်တာနက်ပေါ် တင်တာနဲ့
  • 10:43 - 10:47
    အတားအဆီးမရှိ ပျံ့နှံ့သွာ;ပါပြီ။ သူတို့က
    "ငါတို့ မဟုတ်ဘူ၊ နည်းပညာ လုပ်တာ"
  • 10:47 - 10:49
    "ငါတို့ မပါဘူး" ဆိုတာမျိုးပေါ့။
  • 10:49 - 10:51
    ဒါလုံးဝ မကောင်းပါဘူး
  • 10:51 - 10:53
    ဘာလို့ဆို ဒါတွေက algorithm
    ထိန်းချုပ်မှုတွေတင် မဟုတ်ပါဘူး
  • 10:53 - 10:56
    algorithm အရပါ အတင်းအကျပ်လုပ်တယ်။
  • 10:56 - 10:59
    YouTube ကဒီပြဿနာကို စပြီး
    အရေးယူတုန်းက ပြောခဲ့တာက
  • 10:59 - 11:01
    သူတို့ (YouTube) ဒါနဲ့ပက်သက်ပြီး
    အဖြေရှာမယ်
  • 11:01 - 11:04
    ဒါထက်ပိုကောင်းတဲ့
    စက်သင်ကြားရေး algorithm တွေ
  • 11:04 - 11:05
    တည်ဆောက် ဖြေရှင်းမယ်ပေါ့။
  • 11:05 - 11:09
    ကျွမ်းကျင် ပညာရှင်တွေက သင့်ကို ပြောကြမှာက
    ကဲ၊ စက်သင်ကြားရေး ဆိုတာက
  • 11:09 - 11:10
    အခြေခံအားဖြင့် အလုပ်လုပ်ပုံကို တကယ်ပဲ
  • 11:10 - 11:13
    ကျွန်တော်တို့ နားမလည်တဲ့
    software လို့ခေါ်တဲ့ အရာတဲ့။
  • 11:13 - 11:17
    ကျွန်တော်ထင်တာတော့ ဒါကြီးက
    တော်လောက်ပါပြီ။
  • 11:17 - 11:20
    ဒါကို AI ဆီမှာထားပြီး ဆုံးဖြတ်ခိုင်းတာ
    တော့ မဖြစ်သင့်ဘူး
  • 11:20 - 11:22
    သင့်တော်၊မတော်ဆိုတာကတော့
  • 11:22 - 11:23
    ဘာဖြစ်တာ ကျွန်တော်တို့သိလို့ပါ
  • 11:23 - 11:25
    AI တွေကတော့ ဆင်ဆာတွေဖြတ်ပစ်မှာပဲ
  • 11:25 - 11:26
    တစ်ခုခု ထူးဆန်းတာနဲ့ ဖြတ်မှာပဲ။
  • 11:27 - 11:29
    တရားဝင် မိန့်ခွန်းတွေကို
    ဆင်ဆာ ဖြတ်မှာပဲ
  • 11:29 - 11:31
    ဒီဟောပြောချက်တွေမှာ ခွင့်ပြုတာက
  • 11:31 - 11:34
    ဒီ ကွန်ပြူတာစနစ်တွေကိုပဲ အားမကိုးသင့်ဘူး၊
  • 11:34 - 11:37
    ဒီပြဿနာကို ကျနော်တို့ အားလုံး
    အဖြေရှာ ဆွေးနွေးသင့်ပါတယ်တဲ့။
  • 11:37 - 11:38
    ဒါပေမဲ့ နောက်နည်းလမ်ကလည်း
  • 11:38 - 11:41
    သိပ်တော့ အဆင်မပြေလှဘူးဆိုတာ
    သတိရစေလိုပါတယ်။
  • 11:41 - 11:42
    တစ်လောကပဲ YouTube က ကြေငြာခဲ့တယ်
  • 11:42 - 11:45
    ကလေးတွေအတွက် app အသစ်ထုတ်ပေးမယ်
  • 11:45 - 11:48
    ဗီဒီယို တွေ စီစစ်ဖို့အတွက်
    လူအင်အားပဲ သုံးမယ်
  • 11:48 - 11:52
    Facebook က Zuckerberg လည်းပဲ
    ကွန်ဂရက် မှာအလားတူ ပြောခဲ့တာပဲ၊
  • 11:52 - 11:55
    စီစစ်ရေး အတွက် ဘာတွေလုပ်မှာလည်း
    ဖိအားပေး သူတို့ကို မေးတဲ့အခါ
  • 11:55 - 11:57
    လူအင်အားသုံးမယ် လို့ပဲ ဖြေခဲ့တယ်
  • 11:57 - 11:58
    ဒါဘာကို ပြလဲဆိုရင်
  • 11:58 - 12:01
    ကလေးငယ်လေးတွေကို ဒီဗီဒီယိုတွေကို
    အရင်ကြည့်ခိုင်းမယ့်အစား
  • 12:01 - 12:04
    မရေရာတဲ့ ကန်ထရိုက် လစာနည်း
    အလုပ်သမားတွေကို အရင်ခိုင်းရမှာ
  • 12:04 - 12:06
    ဒါကနေသင့်တင့်တဲ့ စိတ်ကျန်းမာရေး
  • 12:06 - 12:07
    အထောက်အပံ့ကို မထိခိုက်စေပဲလေ
  • 12:07 - 12:08
    (ရယ်သံများ)
  • 12:08 - 12:11
    ဒီထက်ကောင်းတာ တစ်ခုခု
    လုပ်နိုင်မယ်တော့ ထင်ပါတယ်။
  • 12:11 - 12:13
    (လက်ခုပ်သံများ)
  • 12:14 - 12:19
    ဒီနည်းလမ်း နှစ်ခုကို ယူဆောင်
    လာတဲ့ စိတ်ကူးက
  • 12:19 - 12:20
    အေဂျင်စီလို့ ကျနော်ထင်တယ်။
  • 12:20 - 12:23
    ဆိုပါစို့၊ အေဂျင်စီ ဆိုတာကို ကျနော်တို့
    ဘယ်လောက်နားလည်သလဲ
  • 12:23 - 12:28
    ကျနော်တို့ရဲ့ စိတ်ဝင်အစားဆုံးတွေနဲ့
    ပက်သက်ပြီး ဘယ်လို လုပ်ဆောင်ရမလဲ။
  • 12:28 - 12:30
    ကျနော်တို့ နားမလည်တဲ့ ဒီစနစ်တွေထဲမှာ
  • 12:30 - 12:33
    ဆောင်ရွက်ဖို့က သိပ်ဖြစ်နိုင်တဲ့
    ကိစ္စတော့ မဟုတ်ဘူး။
  • 12:33 - 12:36
    လုပ်ပိုင်ခွင့် မမျှတမှုဟာ
    အကြမ်းဖက်မှုကို ဖြစ်စေပါတယ်။
  • 12:36 - 12:38
    ဒီစနစ် တွေကို ကြည့်မယ်ဆိုရင်
  • 12:38 - 12:40
    အရာတစ်ခုတည်းမှာကိုနားလည်မှု ညီမျှခြင်း
    မရှိတာမြင်ရတယ်။
  • 12:41 - 12:44
    ဒီစနစ်တွေ ပိုစတင်ကောင်းမွန်လာဖို့
    ကျနော်တို့ လုပ်နိုင်တဲ့ တစ်ခုဆိုရင်
  • 12:44 - 12:47
    ဒါတွေကို လူတွေအသုံးပြုဖို့
    ပိုရှင်းလင်းပီသအောင် လုပ်ဖို့ပါ
  • 12:47 - 12:49
    ဆိုတော့ ကျနော်တို့အားလုံး
    အခုဘာပြဿနာလဲဆိုတာ
  • 12:49 - 12:51
    ယေဘူယျ နားလည်နိုင်အောင်ပေါ့။
  • 12:52 - 12:55
    တကယ်တမ်း ဒီစနစ် ပြဿနာကလဲ
    မျှော်လင့်ရတာက
  • 12:55 - 12:59
    ကျနော်ပြောခဲ့သလို YouTube ကြောင့်ပဲလည်း
    မဟုတ်ပြန်ပါဘူး။
  • 12:59 - 13:00
    အားလုံး ပါဝင်နေပါတယ်။
  • 13:00 - 13:03
    ဒီအေဂျင်စီရဲ့တာဝန်ယူမှု တာဝန်ခံမှု
    ပြဿနာတွေ
  • 13:03 - 13:05
    ရှုပ်ထွေးမှု ပွင့်လင်းမြင်သာမှု ပြဿနာတွေ
  • 13:05 - 13:08
    အကြမ်းဖက် သရုပ်နဲ့ မတရားမှု သရုပ်တွေရဲ့
    အရင်းအမြစ် ကတော့
  • 13:08 - 13:11
    လူနည်းစုရဲ့ လုပ်ပိုင်ခွင့်
    ချုပ်ကိုင်ထားမှုပါပဲ။
  • 13:11 - 13:13
    ဒီထက် အများကြီး ပိုကြီးတဲ့ ပြဿနာတွေပါ။
  • 13:14 - 13:18
    ဒါတွေက YouTube ပြဿနာ တင်မဟုတ်ပဲ၊
    နည်းပညာ ပြဿနာမဟုတ်ပဲ၊
  • 13:18 - 13:19
    အသစ်တွေတောင် မဟုတ်ဘူး။
  • 13:19 - 13:21
    ဒါတွေကြုံနေရတာ ကြာပါပြီ။
  • 13:21 - 13:25
    ဒါပေမဲ့ လူတွေတည်ဆောက်ခဲ့တဲ့
    ကမ္ဘာလုံးဆိုင်ရာစနစ်၊ အင်တာနက်က
  • 13:25 - 13:28
    ဒါတွေက ဆန်းကြယ်တဲ့ နည်းလမ်းနဲ့ပြသနေပြီး
  • 13:28 - 13:30
    ငြင်းစရာမရှိအောင် လုပ်ပေးပါတယ်။
  • 13:30 - 13:33
    မကြာခဏ ပုန်းကွယ်နေတဲ့
    ကွန်တော်တို့ရဲ့ အထူးခြားဆုံး
  • 13:33 - 13:37
    ဆန္ဒတွေနဲ့ အစွဲအားလုံးကို
    သာဓကဆောင်ဖို့နဲ့ဆက်ရှိနေဖို့
  • 13:37 - 13:41
    နှစ်ခုစလုံးအတွက်နည်းပညာဟာ အံ့ဩဖို့
    ကောင်းတဲ့ အစွမ်းရှိပါတယ်
  • 13:41 - 13:43
    ဒါတွေကို ကမ္ဘာမှာထဲကို ကုဒ်သွင်းပေးတယ်
  • 13:43 - 13:46
    ဒါ့အပြင် ကျနော်တို့ မြင်နိုင်အောင်
    ရေးချပေးသေးတယိ
  • 13:46 - 13:50
    ဒါတွေ မတည်ရှိဘူးလို့ ကျနော်တို့
    ဟန်မဆောင်နိုင်တော့အောင်ပေါ့။
  • 13:50 - 13:54
    နည်းပညာတွေက ပြဿနာတွေအားလုံးအတွက်
    အဖြေလို့ တွေးနေတာတွေ ရပ်သင့်ပြီ၊
  • 13:54 - 13:58
    ကျနော်တို့ ပြဿနာတွေ ကိုယ်တိုင်အဖြေရှာဖို့
    အထောက်အကူအနေနဲ့ ပဲ သုံးသင့်တယ်
  • 13:58 - 14:00
    ဒါတွေအကြောင်း မှန်မှန်ကန်ကန် တွေးတောပြီး
  • 14:00 - 14:02
    စတင် ကိုင်တွယ် နိုင်အောင်ပါ။
  • 14:02 - 14:03
    ကျေးဇူးအများကြီးတင်ပါတယ်။
  • 14:03 - 14:08
    (လက်ခုပ်သံများ)
  • 14:10 - 14:11
    ကျေးဇူးတင်ပါတယ်။
  • 14:11 - 14:14
    (လက်ခုပ်သံများ)
  • 14:17 - 14:20
    Helen Walters: James ရေ ကြွရောက်
    ဟောပြောပေးလို့ ကျေးဇူးတင်ပါတယ်။
  • 14:20 - 14:21
    သိပ်ကို စိတ်ဝင်စားစရာပါ။
  • 14:21 - 14:25
    စက်ရုပ်တွေကြီးစိုးတဲ့ သိပ္ပံခေတ်လွန်
    ရုပ်ရှင်တွေကို ကြည့်လိုက်ရင်
  • 14:25 - 14:28
    အခုပြောနေတာတွေထက်
    နည်းနည်း ပိုစွဲမက်ဖွယ်ကောင်းတယ်လေ။
  • 14:28 - 14:32
    ဒါပေမဲ့ တွေးမိတာက ဒီရုပ်ရှင်တွေမှာ
    ဖြစ်မလာအောင် တားဆီးချင်တာရှိလား။
  • 14:32 - 14:35
    ဒီအရာကို တားဆီးဖို့
    ကြိုးစားနေကြတာ ရှိလား။
  • 14:35 - 14:39
    ဒီခုခံမှုရဲ့ အပြုသဘောဆောင်တဲ့ လက္ခဏာ
    တိုးတက်တဲ့လက္ခဏာတွေ ရှင်မြင်လား။
  • 14:41 - 14:43
    James Bridle:တိုက်ရိုက် ခုခံမှု
    အကြောင်းမသိဘူး
  • 14:43 - 14:45
    ဘာလို့ဆို ဒါဟာရေရှည်သွားရမှာ။
  • 14:45 - 14:48
    ကျနော်တို့ ဒါက ယဉ်ကျေးမှုထဲမှာ
    အတော် အမြစ်တွယ်နေပြီ
  • 14:48 - 14:50
    ကျနော့်မိတ်ဆွေ Eleanor Saitta ကအမြဲပြောတယ်
  • 14:50 - 14:54
    ဘယ်လိုနည်းပညာပြဿနာ ကြီးကြီးသေးသေး မဆို
  • 14:54 - 14:56
    ပထမတော့ နိုင်ငံရေးပြဿနာတွေပါတဲ့။
  • 14:56 - 14:59
    ဆိုတော့ ဒီပြဿနာတွေကို စပြီး
    အဖြေရှာဖို့ဆိုရင်
  • 14:59 - 15:02
    ပုိကောင်းတဲ့ နည်းပညာ တည်ဆောက်ပြီး
    ကိုင်တွယ်နေရုံနဲ့ မပြီးသေးပဲ
  • 15:02 - 15:05
    ဒီနည်းပညာတွေ ထုတ်လုပ်နေတဲ့
    လူ့အဖွဲ့အစည်းကိုပါပြောင်းလဲမှ ဖြစ်မယ်။
  • 15:05 - 15:08
    ဆိုတော့ကာ ကျနော်တို့
    အများကြီး ကြိုးစားရဦးမယ်။
  • 15:09 - 15:10
    ကျနော်ပြောခဲ့သလိုပဲ
    ရှင်းလင်း ပြောဆိုခြင်း
  • 15:11 - 15:13
    ရိုးသားစွာ ဆွေးနွေခြင်းကနေ
    ဒီပြဿနာတွေကို ထုတ်ဖော်ရမယ်။
  • 15:13 - 15:16
    အနည်းဆုံး ဒီဖြစ်စဉ်ကို အရင်စတင်နိုင်ပါတယ်
  • 15:16 - 15:19
    HW: ရှင်ပြောခဲ့တဲ့ ဒစ်ဂျစ်တယ် အသိပညာနဲ့
    ပက်သက်ပြီး ရှင်းလင်းမြင်သာဖို့က
  • 15:19 - 15:21
    ကျွန်မ စိတ်ကူးကြည့်ဖို့ခက်တာက
  • 15:21 - 15:25
    ဒစ်ဂျစ်တယ် အသိပညာတွေ တာဝန်ကို
    သုံးသူတွေကိုယ်တိုင် ယူဖို့လိုတယ်ဆိုတာပါ။
  • 15:25 - 15:29
    အနာဂတ်မှာ ပညာရေးမှာ
    ဘယ်သူက တာဝန်ရှိတယ်လို့ ထင်လဲ။
  • 15:29 - 15:33
    JB: ထပ်ပြောရရင်၊ ဒီလိုသိဖို့က ကျနော်တို့
    အားလုံးမှှှာ တာဝန်ရှိပါတယ်။
  • 15:33 - 15:36
    ကျနော်တို့ လုပ်သမျှ၊ တည်ဆောက်သမျှ၊
    ဖန်တီးသမျှ အားလုံးကို
  • 15:36 - 15:40
    ရှောင်နေသူအားလုံးနဲ့အတူ
    အများသဘောတူတဲ့
  • 15:40 - 15:42
    ဆွေးနွေးမှုတစ်ခုမှာ လုပ်ဖို့လိုပါတယ်။
  • 15:42 - 15:46
    လူတွေကို မှန်တာလုပ်စေဖို့ လှည့်စားပြီး၊
    အံ့အားသင့်စေဖို့ ရည်ရွယ်ပြီး စနစ်တွေ
  • 15:46 - 15:48
    ဆောက်လုပ်တာ မဟုတ်ပဲ
  • 15:48 - 15:52
    တကယ်ပဲ အဆင့်ဆင့်တိုင်းမှာ သူတို့ကို
    အသိပညာပေးဖို့ လည်းပါဝင်ပါတယ်။
  • 15:52 - 15:54
    စနစ်တစ်ခုစီဟာ အသိပညော
    တိုးစေတာကြောင့်ပါ။
  • 15:54 - 15:57
    ကျနော်မျှော်လင့်တာကတော့
    ဒါက မနှစ်မြို့စရာဆိုတာတောင်
  • 15:57 - 15:59
    ဒါတွေကို သင့်တင့်စွာ အသုံးချနိုင်မယ်ဆိုရင်
  • 15:59 - 16:01
    ၎င်းကိုယ်၌က ဒီစနစ် တွေ
    လုပ်ဆောင်ပုံကို
  • 16:01 - 16:05
    နားလည်စေတဲ့ပညာရေးရဲ့ အပိုင်းအစတစ်ခုပါ။
  • 16:05 - 16:09
    ကမ္ဘာ့တစ်ခြားနေရာတွေမှာ
    ပြန်လည်အသုံးချဖို့ ဖြစ်နိုင်လာမှာပါ။
  • 16:09 - 16:11
    HW: ဒါဟာ သိပ်ကို အရေးပါတဲ့ ဆွေးနွေးချက်ပါ။
  • 16:11 - 16:14
    ဒီက လူအများကလည်း ပွင့်လင်းပြီး
    လက်လခံဖို့ အသင့်ရှိတာသေချာပါတယ်။
  • 16:14 - 16:16
    မနက်ခင်းကို စပေးတဲ့အတွက် ကျေးဇူးပါ။
  • 16:16 - 16:17
    JB: ကျေးဇူးပါ။
    ရွှင်လန်းကြပါစေ
  • 16:17 - 16:19
    (လက်ခုပ်သံများ)
Title:
ကလေးများအတွက် YouTube အိပ်မက်ဆိုး -- ယခုခေတ် အင်တာနက်နဲ့ပတ်သက်ပြီး မှားယွင်းနေတာတွေ။
Speaker:
James Bridle
Description:

စာရေးဆရာ၊ အနုပညာရှင် ဂျိမ်းစ် ဘရိုက်ဒယ်လ် ဟာ အင်တာနက်ပေါ်က အန္တရာယ်တွေ၊ အမည်မသိလူတွေက ကြော်ငြာခ အတွက်နဲ့ ကလေးတွေရဲ့ အတွေးအာရုံပေါ် အမြတ်ထုတ်မှုတွေ ကို ပေါ်လွင်စေခဲ့ပါတယ်။ ကလေးများနှစ်သက်တဲ့ လက်ဆောင် ချောကလက် ဥ "surprise egg" မိသားစု သီချင်း "Finger Family Song" video တွေမှ ကလေးငယ်များရဲ့ ကာတွန်း ဇာတ်ကောင်တွေကို အသုံးချပြီး ကြမ်းတမ်း ရင့်သီးတဲ့ အကြောင်းအရာများ ဖန်တီးနေကြတာ ဟာ ကလေးငယ်များ အတွက် ကြောက်မက်ဖွယ်ပါ။ ဒီအဖြစ်တွေက ကျနော်တို့ရဲ့ အချက်အလက် နည်းပညာ အသုံးချမှု နဲ့ ပက်သက်ပြီး တစ်စုံတစ်ခုထောက်ပြနေပါတယ်။ ဘရိုက်ဒယ်လ် ပြောတာကတော့ "ကျနော်တို့ဟာ နည်းပညာကို အရာရာတိုင်းအတွက် ဖြေရှင်းချက်အနေနဲ့ စဉ်းစားတာတွေ ရပ်သင့်ပါပြီ။ တကယ်တမ်း ပြဿနာ အရင်းအမြစ်တွေ ရဲ့ အဖြေရှာဖို့ အထောက်အကူအနေနဲ့သာ သုံးသင့်ပါတယ်။ ဒီလိုမှသာ ကျနော်တို့ဟာ နည်းပညာကို မှန်မှန်ကန်ကန် အသုံးချတယ်လို့ ဆိုနိုင်မှာပါ။"

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Burmese subtitles

Revisions