ကလေးများအတွက် YouTube အိပ်မက်ဆိုး -- ယခုခေတ် အင်တာနက်နဲ့ပတ်သက်ပြီး မှားယွင်းနေတာတွေ။
-
0:01 - 0:02ကျနော့ နာမည် James ပါ
-
0:02 - 0:04စာရေးဆရာ၊ အနုပညာရှင် တစ်ယောက်ပါ
-
0:04 - 0:06နည်းပညာနဲ့ ပက်သက်တဲ့
ဖန်တီးမှုတွေ ပြုလုပ်တယ် -
0:06 - 0:10ကမ္ဘာ့ မြို့ကြီးတွေရဲ့ လမ်းတွေပေါ်မှာ
-
0:10 - 0:12စစ်တပ်သုံး drone ပုံတွေဆွဲတာမျိုးပေါ့
-
0:12 - 0:15ရည်ရွယ်ချက်က လူတွေ နည်းပညာနဲ့ ပက်သက်ပြီး
-
0:15 - 0:19မထင်မှတ်ထားတာတွေကို သတိပြုမိလာအောင်ပါ
-
0:19 - 0:23ရာသီဥတု ခန့်မှန်းချက်တွေကိုသုံးပြီး
ရွေးကောက်ပွဲရလဒ်တွေကို ခန့်မှန်းတဲ့ -
0:23 - 0:25neural network တွေလည်းပြုလုပ်တယ်
-
0:25 - 0:26ဘာလို့လဲဆိုတော့
-
0:26 - 0:30ဒီထူးဆန်းတဲ့ နည်းပညာတွေကို သုံးပြီး
ဘာတွေဖြစ်လာနိုင်ခြေရှိတာ သိချင်လို့ပါ။ -
0:31 - 0:34ပြီးခဲ့တဲ့နှစ်က ကိုယ်ပိုင်
မောင်းသူမဲ့ကားဆောက်ခဲ့တယ် -
0:34 - 0:36ဒါပေမဲ့ နည်းပညာအပေါ်
တကယ့့််ကို မယုံကြည်တာကြောင့် -
0:36 - 0:38ဒီကားအတွက်
လှည့်ကွက်တစ်ခု ဆင်ခဲ့တယ် -
0:39 - 0:40(ရယ်သံများ)
-
0:40 - 0:44ဒါတွေအကို ကျနော် လုပ်တာကတော့
ထိန်းချုပ်လုပ်မရတဲ့ စိတ်ဝင်စားမှုကြောင့်ပါ -
0:44 - 0:47ကျနော့အထင် နည်းညာအကြောင်း
ကျနော်တို့ ဆွေးနွေးတဲ့အခါ -
0:47 - 0:49ကျနော်တို့ ကိုယ်တိုင်အကြောင်းအပြင်
-
0:49 - 0:52ကမ္ဘာကြီးပေါ် နားလည်ပုံကိုပါ
ဆွေးနွေးနေလို့ပါ။ -
0:52 - 0:54ဒီမှာ ကျနော်က နည်းပညာနဲ့
ပက်သက်ပြီးပြောချင်ပါတယ် -
0:56 - 0:58ဒါက "လက်ဆောင် ဥ" (surprise egg) ဗီဒီယို ပါ
-
0:58 - 1:02ဒီ ဗီဒီယို မှာ ဥပုံစံ ချောကလက်လုံးတွေကို
ဖွင့်ဖောက်ပြနေတာပါ -
1:02 - 1:04အထဲက ဖွက်ထားတဲ့ အရုပ်လေးတွေ
ထွက်လာတာပေါ့ -
1:04 - 1:07ဒါပဲ။ ဒီ (၇)မိနစ် video မှာပြနေတာ ဒါပဲ။
-
1:07 - 1:10ဒါနဲ့ ပက်သက်ပြီး ကျနော်သိစေချင်တာ (၂)ချက်က
-
1:11 - 1:15ပထမ အချက်၊ ဒီ video က ကြည့်ရှုသူ
အရေအတွက် သန်း(၃၀) ရှိပါတယ် -
1:15 - 1:16(ရယ်သံများ)
-
1:16 - 1:18နောက်တစ်ချက်က
-
1:18 - 1:21ဒီ video တွေပြတဲ့ ချန်နယ် (channel) က
ပရိသတ် (subscriber) (၆.၃)သန်း ရှိပါတယ် -
1:21 - 1:24စုစုပေါင်း ကြည့်ရှုသူပေါင်း
(၈)ဘီလီယံ ရှိပါတယ်။ -
1:24 - 1:27ဒီလို ဗီဒီယို ပေါင်းများစွာ ရှိနေပါတယ်
-
1:28 - 1:32လူပေါင်း သန်း(၃၀)က လူတစ်ယောက် ချောကလက်
လုံးတွေ ထိုင်ဖောက်နေတာကို ကြည့်နေကြတာ -
1:32 - 1:37ဒါက တော်တော်ကြောင်တောင်တောင်ဆိုါပေမဲ့
YouTube မှာ "surprise eggs"လို့ ရှာကြည့်ပါ -
1:37 - 1:40ဒီလို video ပေါင်း (၁၀)သန်းလောက်
ထွက်လာလိမ့်မယ် -
1:40 - 1:42(၁၀)သန်းဆိုတာ နည်းပါဦးမယ်
-
1:42 - 1:44ဒါထက် အများကြီး ပိုရှိနေဦးမှာ
-
1:44 - 1:46ရှာပြီးရင်း ရှာနေ၊ မဆုံးနိုင်ဘူး
-
1:46 - 1:48ဒီလို video မျိုးတွေ သန်းချီ ရှိနေတာပါ။
-
1:48 - 1:52ချောကလက် ဥတွေ
ပုံစံအမျိုးမျိုး၊ တံဆိပ်အမျိုးမျိုး -
1:52 - 1:56နေ့စဉ်နေ့တိုင်း ဒီလို video အသစ်အသစ်တွေ
တင်နေကြတာပါ -
1:56 - 1:59တော်တော် နားမလည်နိုင်စရာပဲနော်
-
1:59 - 2:03တကယ်တမ်းက ဒီ ဗီဒီယို တွေကို ကြည့်နေကြတာ
လူကြီးတွေ မဟုတ်ပါဘူး -
2:03 - 2:06ကလေး ငယ်ငယ်လေးတွေပါ
-
2:06 - 2:08ဒီဗီဒီယိုတွေက ကလေးငယ်လေးတွေ အတွက်
စွဲလမ်းစရာပါ -
2:08 - 2:10အကြိမ်ကြိမ် ကြည့်နေကြတာ အကြောင်းရှိပါတယ်
-
2:10 - 2:12အထဲက အရုပ်ထွက်လာတာ ကြည့်ရတဲ့
စွဲလမ်းမှု (dopamine) က -
2:12 - 2:14ဒီကလေးတွေကို ဆွဲဆောင်ပါတယ်
-
2:14 - 2:19ကလေးလေးတွေက ဒီ video တွေကို
ထပ်ခါတလဲလဲ ကြည့်ကြပါတယ် -
2:19 - 2:21နာရီပေါင်းများစွာ ထပ်ခါတလဲလဲ
-
2:21 - 2:24သူတို့လေးတွေဆီက ကြည့်နေတာကို
ဖယ်လိုက်လို့ကတော့ -
2:24 - 2:26အော်ပြီ ဟစ်ပြီ ဆူညံပြီ
-
2:26 - 2:27ကျနော် ပြောတာကို မယုံရင်
-
2:27 - 2:29အခု ပရိသတ်ထဲမှာတင်
ခေါင်းညိတ်နေတဲ့လူတွေ တွေ့နေရပြီ -
2:29 - 2:33မယုံရင် ကလေးရှိတဲ့ တစ်ယောက်ယောက်ကို
ဒီ surprise egg videos ကို -
2:33 - 2:35သိသလားလို့မေးကြည့်ပါ။
-
2:35 - 2:37ဆိုတော့ ဒီမှာ ကျနော်စပြောပြီ
-
2:37 - 2:41၂၀၁၈ မှာ လူတစ်ချို့ (သို့) အတော်များများဟာ
-
2:41 - 2:45ဒီ app ကို လူတွေ ဆက်ဆက်ကြည့်စေဖို့
အလားတူ နည်းလမ်းတွေ သုံးတဲ့Facebook, -
2:45 - 2:47Instagram တို့လိုမျိုးတွေကို သုံးနေကြတယ်။
-
2:47 - 2:51အခုဆို YouTube ပေါ်မှာ ကလေးငယ်လေးတွေကို
အသုံးချပြီး -
2:51 - 2:53ကြော်ငြာခ ယူဖို့ ကြိုးစားနေကြ တာပဲ
-
2:54 - 2:56အနညး်ဆုံး သူတို့ ရည်ရွယ်ချက်က
ဒီလောက်ပဲ -
2:56 - 2:58ဒီအတွက်ပဲ သူတို့လုပ်တာလို့ မျှော်လင့်တယ်။
-
2:58 - 3:04ဘာလို့ဆို YouTube ကြော်ငြာခရဖို့ ဒီထက်ပို
လွယ်တဲ့ နည်းလမ်းတွေ ရှိပါတယ်။ -
3:04 - 3:06လုပ်ကြံဖန်တီးထားတာ
သူများဟာကို ခိုးချတာတွေပေါ့ -
3:06 - 3:09နာမည်ကြီး ကလေး ကာတွန်းကားတွေကို
ရှာကြည့်လိုက်ပါ -
3:09 - 3:10"့်Peppa Pig" (သို့) "Paw Patrol"
-
3:10 - 3:14ရှာကြည့်ရင် အင်တာနက်ပေါ်မှာ
ဒီကာတွန်းတွေ သန်းနဲ့ချီပြီးတွေ့ရပါမယ် -
3:14 - 3:17ဒါပေမဲ့ တော်တော်များများက မူရင်းပိုင်ရှင်
ကိုယ်တိုင် တင်ထားတာ မဟုတ်ဘူး -
3:17 - 3:20ဒီလိုပဲ လူအမျိုးအမျိုးက နည်းမျိုးစုံနဲ့
တင်နေကြတာပါ -
3:20 - 3:22ဘယ်သူဘယ်ဝါ တင်တယ်ဆိုတာလည်း
အတိအကျသိဖို့ ခက်ပါတယ် -
3:22 - 3:24ဘာရည်ရွယ်ချက်နဲ့ တင်တာ
မသိနိုင်ပါဘူး -
3:24 - 3:26ဒါမျိုး ပြဿနာက ရင်းနှီးနေတယ်လို့ ထင်လား
-
3:26 - 3:28ဒါမျိုး ဖြစ်စဉ်က
-
3:28 - 3:31ကျနော်တို့ ဒစ်ဂျစ်တယ် လောကမှာ
အမြဲ ကြုံနေရတာပါ -
3:31 - 3:34ဒီအချက်အလက်တွေ ဘယ်က စပြီး
ပျံ့လာသလဲ သိဖို့ အင်မတန် ခက်ခဲပါတယ် -
3:34 - 3:36ဒါဟာကလေးတွေ အတွက် သတင်းမှားတွေပါ
-
3:36 - 3:38သူတို့တွေ ငယ်စဉ်ထဲက ဘယ်ကမှန်းမသိတဲ့
-
3:38 - 3:41အင်တာနက်မှာ ထိပ်ဆုံးက ပေါ်တဲ့
link ကို နှိပ်ဖို့ -
3:41 - 3:43ကျနော်တို့ကဟာ အကျင့်လုပ်သလို ဖြစ်နေတာပါ
-
3:43 - 3:45သိပ်ကောင်းတဲ့ အတွေးတော့ မဟုတ်ဘူး
-
3:46 - 3:49နောက်တစ်ချက် YouTube မှာ
ကလေးတွေ ကို လွှမ်းမိုးတဲ့ အရာက -
3:49 - 3:51Finger Family Song သီချင်းပါ။
-
3:51 - 3:53ခုပဲ ပရိသတ်ထဲက ညည်းသံ ကြားလိုက်တယ်။
-
3:53 - 3:55ဒါက Finger Family Song ပါ
-
3:55 - 3:57ဒါက ရှာလို့တွေ့တဲ့ အရင်ဆုံးပေါ်တဲ့ ဟာပဲ
-
3:57 - 4:00ဒါက ၂၀၀၇ တုန်းက တစ်ခု
ကြည့်ရှုသူ ၂၀၀,၀၀၀ ပဲရှိတယ် -
4:00 - 4:02တစ်ခြားဟာတွေနဲ့ ယှဉ်ရင် အရမ်းနည်းသေးတယ်
-
4:02 - 4:04သူ့ သံစဉ်က သိပ်ကို နားထဲစွဲတယ်
-
4:04 - 4:06ကျနော် ဖွင့်မပြတော့ပါဘူး
-
4:06 - 4:08ခင်ဗျားတို့ ဦးနှောက်ထဲ စွဲသွားမှာ စိုးလို့
-
4:08 - 4:11ကျနော့်ဆီမှာတော့ တော်တော့်ကို စွဲနေပြီ။
-
4:11 - 4:12ခင်ဗျားတို့ကို မခံစားစေချင်ပါဘူး။
-
4:12 - 4:14surprise eggs လိုပဲ
-
4:14 - 4:16ကလေးငယ်တွေ ဦးနှောက်ထဲ စွဲနေတယ်
-
4:16 - 4:18သူတို့တွေ ဒါတွေကို စွဲလမ်းနေတယ်။
-
4:18 - 4:20နှစ်အနည်းငယ် အတွင်းမှာပဲ
ဒီ finger family video တွေ -
4:20 - 4:21နေရာ အနှံ့မှာ ပျံ့လာတယ်
-
4:21 - 4:24လူသိများတဲ့ ကလေးကာွန်း အစားအသောက်ပုံစံနဲ့
-
4:24 - 4:26ဘာသာစကား အမျိုးမျိုးနဲ့တောင်
ထွက်လိုက်သေးတယ်။ -
4:26 - 4:28တစ်ချို့လဲ ပြောရရင် animation
ဖြစ်ရင်ပြီးရော -
4:28 - 4:31တွေ့ရာ မြင်ရာ အစုံလျှောက်ထည့်တယ်
-
4:31 - 4:36ဒီ ဗီဒီယိုတွေလည်း သန်းနဲ့ချီပြီး ရှိနေတယ်
-
4:36 - 4:40အင်တာနက်ပေါ်မှာ ပုံစံ အမျိုးမျိုးနဲ့
ရှာလို့တွေ့နိုင်တယ် -
4:40 - 4:42ဒါတွေကို ခင်ဗျားတို့ ရှာကြည့် လေလေ
-
4:42 - 4:46ပိုပိုပြီး ကြောင်တော်တောင်
ရူးနှမ်းနှမ်း ခံစားရလေပဲ -
4:46 - 4:49ဒါတွေကြောင့် ကျနော် သိပ်ကို
စိတ်ဝင်စားသွားတာပဲ -
4:49 - 4:53ကျွန်တော့ဝန်းကျင်မှာ တင်ပြဖို့ထင်ရတာကို
ဘယ်လို တညိဆောက်ခဲ့တယ်ဆိုတာက -
4:53 - 4:57သိပ်ကို ထူးဆန်းပြီး နားလည်ရခက်ပါတယ်။
-
4:57 - 5:00ဒါတွေ ဘယ်လို ဖြစ်လာသလဲဆိုတာ
သိဖို့ မဖြစ်နိုင်တာကြောင့်ပါ။ -
5:00 - 5:01ဥပမာ ဘယ်သူတွေက ဖန်တီးနေလဲ
-
5:01 - 5:04တစ်ချို့ဟာတွေက ကျွမ်းကျင်တဲ့
animator တွေက ဖန်တီးထားတာ -
5:05 - 5:07တစ်ချို့က software တစ်ခုခုနဲ့
ဒီလိုပဲ လျှောက်လုပ်ထားကြတာ -
5:07 - 5:12တစ်ချို့ကတော့ ကလေးငယ်တွေ ဖျော်ဖြေရေးကို
အဓိက ဦးတည်တဲ့ လူတွေပေါ့ -
5:12 - 5:13နောက်ပြီး တစ်ချို့ကတော့
-
5:13 - 5:16ကလေးတွေ လုံးဝမပက်သက်သင့်တဲ့
လူတွေ ဖန်တီးထားတာပါ -
5:16 - 5:18(ရယ်သံများ)
-
5:19 - 5:24ထပ်ပြီးပြောချင်တာကတော့ ဒါတွေကို ဘယ်သူတွေ
ဖန်တီးနေလဲ ဆိုတာကို သိဖို့ မဖြစ်နိုင်တာပါ။ -
5:24 - 5:25ဥပမာ အလိုလို ဖန်တီးတာလား
-
5:25 - 5:27လူတွေပဲလား၊ ဟာသ သက်သက်လုပ်ကြတာလား။
-
5:28 - 5:30ကျနော်တို့ ဒါကို မခွဲခြားနိုင်ဘူးဆိုရင်
-
5:30 - 5:31ဘယ်လိုလုပ်ကြမလဲ
-
5:32 - 5:36ထပ်ပြောရရင် ဒီဖြစ်စဉ်က မရင်းနှီးနေဘူးလား
-
5:38 - 5:41ဆိုတော့ ဒီဗီဒီယို တွေကနေ
ကြည့်ရှုသူဦးရေတိုးဖို့ -
5:41 - 5:42ကြည့်တာ တိုးရင် ပိုက်ဆံရတာပေါ့
-
5:42 - 5:47ကြည့်တာ တိုးဖို့ ဗီဒီယိုခေါင်းစဉ်တွေကို
နာမည်ကြီးနေတာတွေ ပေးကြတယ် -
5:47 - 5:49ဆိုတော့ "surprise eggs" လိုမျိုး
-
5:49 - 5:51ပြီးတော့ "Paw Patrol", "Easter egg" လို
-
5:51 - 5:52တစ်ခြား နာမည်ကြီးနေတာတွေပေါ့
-
5:52 - 5:55နာမည်ကြီး စကားလုံးတွေကို
သူတို့ ဗီဒီယိုခေါင်းစဉ်နေနဲ့ ယူပြီး -
5:55 - 5:58ဒီလို အဓိပ္ပါယ် မရှိတဲ့ ဘာသာစကား
အရောတွေဖန်တီးလိုက်တာပဲ -
5:58 - 6:01ကြည့်တာ တိုးဖို့ကလွဲပြီး
ဘာအဓိပ္ပါယ်မှ မရှိတာတွေ -
6:01 - 6:04တကယ်တမ်းကသူတို့ video တွေကို ကြည့်နေတာ
ကလေးလေးတွေလေ -
6:04 - 6:06ဒီကလေးလေးတွေ ဘာသိမှာတုန်း။
-
6:06 - 6:09တကယ့်တကယ် ကြည့်သူတွေများနေတာ
software ကြောင့်ပဲ -
6:09 - 6:11ကွန်ပြူတာ နဲ့ တွက်တာပါ
-
6:11 - 6:12ဘယ် ဗီဒီယိုတွေက တစ်ခြား ဗီဒီယိုတွေနဲ့
-
6:12 - 6:15တူသလဲသိဖို့ YouTube က သုံးထားတဲ့
software ကြောင့်ပဲ -
6:15 - 6:17လူသိများအောင်၊ ကြည့်သင့်တဲ့
စာရင်းထဲပါဖို့ပါ။ -
6:17 - 6:21ဒီ software တွေကြောင့် ဒီလို အဓိပ္ပါယ်မရှိ
တဲ့ခေါင်းစဉ်နဲ့ အကြောင်းအရာတွေ -
6:21 - 6:23ဖြစ်ကုန်တော့တာပေါ့။
-
6:24 - 6:26ဒီမှာ ကျနော်တို့ သိသင့်တာက
-
6:26 - 6:30ဒီ algorithm တွေနဲ့ system ထဲမှာ လူတွေက
နေရာယူထားတယ်ဆိုတာပဲ -
6:30 - 6:33ထူးထူးဆန်းဆန်း နာမည်ကြီး
နေတဲ့ ခေါင်းစဉ်တွေကို -
6:33 - 6:36အလွဲသုံးစား လုပ်ပြီးတော့
-
6:36 - 6:41သန်းပေါင်းများစွာ ကလေးတွေ အတွက်
အဓိပ္ပါယ်မရှိတာတွေ -
6:41 - 6:44ကြုံသလို ဖန်တီးနေကြတဲ့
အခြေအနေမဲ့ လူတွေပေါ့ -
6:45 - 6:48ဒီလိုစနစ် ထဲမှာ
လူတွေ နေရာယူထားကြပါတယ် -
6:48 - 6:52ပြီးတော့ ဒီလို algorithm နဲ့တွက်ချက်ထားတဲ့
ယဉ်ကျေးမှုအကြောင်း အသိခက်တာရှိတယ် -
6:52 - 6:53အကြောင်းက သင်ဟာ လူဆိုတာတောင်
-
6:53 - 6:55ရှင်ကျန်ဖို့အတွက်ကိုပဲ
စက်တစ်ခုလို့ ပြုမူရင်း -
6:55 - 6:57အပြီးသတ်ဖို့ခိုတယ်လေ။
-
6:57 - 6:59စခရင်ရဲ့ အခြားဘက်မှာလည်း
-
6:59 - 7:02ကလေးလေးတွေဟာ
စွဲစွဲလမ်းလမ်း ကြည့်နေကြတာပါ -
7:02 - 7:06ဒီစနစ်တွေကပဲ ကလေးတွေ ရဲ့ စိတ်ဝင်စားမှုကို
ရယူနေကြတာပါ -
7:07 - 7:10ဒီကလေးငယ် တော်တော်များများဟာ
website သုံးဖို့ ငယ်လွန်းပါတယ် -
7:10 - 7:13သူတို့လေးတွေက screen ပေါ်မှာ
ဒီလိုပဲ လျှောက်နှိပ်ကြတာပါ -
7:13 - 7:14ဒီတော့ autoplay ရှိပါတယ်
-
7:14 - 7:18ဗီဒီယို တွေဟာ ထပ်ခါထပ်ခါ
မဆုံးနိုင်အောင် ပြနေတာပါ -
7:18 - 7:20မရပ်မနား နာရီပေါင်းများစွာပေါ့
-
7:20 - 7:23ဒီ အလိုaလျာက်စနစ် ကလဲ ဆန်းပါတယ်
-
7:23 - 7:26ကြည့်နေရင်း ထူးထူးဆန်းဆန်းတွေ
ပေါ်ပေါ်လာတယ် -
7:26 - 7:28ဒါက ဒါဇင်ချီတဲ့အဆင့်တွေအတွင်းမှာ ပြသပုံပါ
-
7:28 - 7:31ချစ်စရာ ရထားလေး video ကြည့်နေရင်းကနေ
-
7:31 - 7:34မဖွယ်မရာလုပ်နေတဲ့ Mickey Mouse ဆီ
ရောက်သွား နိုင်တယ် -
7:35 - 7:37စိတ်မရှိပါနဲ့ဗျာ
-
7:37 - 7:39ဒီထက်ပိုဆိုးတာတွေ ရှိပါတယ်
-
7:39 - 7:40ဘာကြောင့်ဖြစ်လဲ ဆိုရင်
-
7:40 - 7:43အချက်ပြစကားလုံး အမျိုးမျိုး
-
7:43 - 7:45အာရုံစိုက်စရာ အမျိုးမျိုး
-
7:45 - 7:48ခုခေတ်လူတွေရဲ့ အခြေအနေမဲ့
အကြောင်းအရာ အမျိုးမျိုး -
7:48 - 7:51ဒါတွေအားလုံး တစ်နေရာတည်း ပေါင်းစည်းလာတာပါ။
-
7:52 - 7:56အခုလို အဓိပ္ပါယ်မဲ့ အကြောင်းအရာတွေ
ဖြစ်တည်လာတာပါပဲ -
7:56 - 7:59finger family video ကိုပုံစံအမျိုးမျိုးနဲ့
-
7:59 - 8:01superhero ပုံစံလိုမျိုးတွေ ပြင်တာမျိုးပေါ့
-
8:01 - 8:04ပြီးတော့ အဓိပ္ပါယ် မရှိတဲ့ ဟာသတွေလုပ်တယ်
-
8:04 - 8:08ဒါနဲ့ပဲ အခုလို ကြောင်တောင်တောင်
လုပ်ကွက်တွေ ပေါ်လာတော့တာပေါ့ -
8:08 - 8:10ကလေးငယ်မိဘတွေကို
စိတ်ပျက်စေတဲ့ အရာတွေပေါ့ -
8:10 - 8:13အကြမ်းဖက်သရုပ်တွေ
လိင်ပိုင်းဆိုင်ရာ သရုပ်တွေပေါ့ -
8:13 - 8:16ကလေးငယ်တွေရဲ့ ကာတွန်းတွေးထဲမှာ
ပြစ်မှုကျူးလွန်တာတွေ -
8:16 - 8:18သတ်ဖြတ်ကြတာတွေ
-
8:18 - 8:21ကလေးငယ်တွေ ကြောက်လန့်စေမယ့်
အဓိပ္ပါယ်မဲ့ လုပ်ရပ်တွေပါလာတာပါ။ -
8:21 - 8:25ဒီ software တွေက
အခုလို လွှမ်းမိုးမှုတွေကို ဖြစ်စေတာက -
8:25 - 8:28ကလေးတွေအတွက် အိပ်မက်ဆိုးတွေ
ဖန်တီးပေးနေတာပဲ -
8:28 - 8:31ဒီအရာတွေက ကလေးငယ်လေးတွေအတွက်
တကယ် ဆိုးကျိုးတွေပေးပါတယ်။ -
8:31 - 8:34စိတ်ဒဏ်ရာရသွားတဲ့ ကလေးငယ်တွေအကြောင်း
မိဘတွေဆီက ကြားနေရပါတယ် -
8:34 - 8:35အမှောင်ကြောက်တတ်လာတာ
-
8:35 - 8:38သူတို့တွေ အကြိုက်ဆုံး ကာတွန်း
ဇာတ်ကောင်တွေကို ကြောက်လာတာမျိုးပေါ့ -
8:39 - 8:42ကျနော့်ဆီက မှတ်သွားစေချင်တာက
သင့်မှာ ကလေးငယ်တွေရှိရင် -
8:42 - 8:44သူတို့ကို YouTube ပေးမသုံးပါနဲ့
-
8:45 - 8:49(လက်ခုပ်သံများ)
-
8:51 - 8:54နောက်တစ်ခုက ဒါကိုကျနော်ဘာကြောင့်
တွေးနေရလဲဆိုတော့ -
8:54 - 8:58ကျနော်တို့ နည်းပညာတွေ ဘာလို့ ဒီအခြေအနေ
ရောက်လာရလဲဆိုတာအသေအချာ နားမလည်ကြဘူး -
8:59 - 9:02ကျနော်တို့ ဒီနည်းပညာတွေရဲ့
လွှမ်းမိုးမှုတွေ ခံနေရတယ် -
9:02 - 9:05ပြီးတော့ ကျနော်တို့ မလိုချင်တဲ့
အကျိုးဆက်တွေ ဖြစ်လာတာပါပဲ -
9:05 - 9:08ဒါပေမဲ့လည်း ဒီပုံစံအတိုင်းပဲ
တစ်ကမ္ဘာလုံးကို တည်ဆောက်နေကြတယ် -
9:08 - 9:10ကျနော်တို့ဟာ ဒီအချက်အလက်တွေကိုယူနေတယ်
-
9:10 - 9:11မကောင်းတဲ့ အချက် အများအပြား
-
9:11 - 9:14အကျိုးအကြောင်း မခိုင်လုံတဲ့
အချက်အလက်တွေ -
9:14 - 9:17သမိုင်းတစ်လျောက် အဆိုးရွားဆုံး
စိတ်ကူး လှုံ့ဆော်မှုတွေ -
9:17 - 9:19ဒါကို ဧရာမ အချက်အလက်
အတွဲတွေထဲမှာ သိမ်းနေကာ -
9:19 - 9:21အလိုအလျောက် ပျံ့နေတယ်
-
9:21 - 9:24ပြီးတော့ ဒီအဓိပ္ပါယ် မရှိတဲ့ အရာတွေက
အခြား အသုံးဝင်တဲ့ အရာတွေ -
9:24 - 9:26ဘဏ်စာရင်းတွေ
-
9:26 - 9:29အာမခံ အချက်အလက်တွေ
ဥပဒေဆိုင်ရာ အချက်အလက်တွေ -
9:29 - 9:30အကုန် ရောထွေးသွားစေပါတယ်
-
9:30 - 9:33ဒီအချက်အလက်တွေနဲ့ပဲ ကျနော်တို့က
ဒီနေ့ ကမ္ဘာကြီးကို -
9:33 - 9:34တည်ဆောက်နေကြတာပါ။
-
9:34 - 9:36ဘာက ပိုဆိုးတာ ကျနော် မတွေးတတ်ဘူး၊၊
-
9:36 - 9:39လူသား ကောင်းကျိူးမပြုတဲ့ စနစ်
တွေကိုကျနော်တို့ ကိုယ်တိုင် -
9:39 - 9:42ရည်ရွယ်ပြီး
တည်ဆောက်ခဲ့ကြလား -
9:42 - 9:45(သို့) ဘာဆိုးကျိုးတွေ ဖန်တီးမိလဲ
-
9:45 - 9:47သတိမပြုမိပဲ မတော်တဆ ဖန်တီးခဲ့မိတာလား၊
-
9:47 - 9:50ကိုယ်တိုင် ဖန်တီးထားတဲ့ စနစ်တွေကို
အပြည့်အဝ နားမလည်ခဲ့ကြလို့ပါ။ -
9:50 - 9:54ပြီး ဒါတွေကို အသုံးပြုသင့်တဲ့ နည်းလမ်းတွေ
အပြည့်အဝ နားမလည်ခဲ့ကြလို့ပါ။ -
9:55 - 9:58ဒီဆိုးကျိုးတွေ ဖြစ်ဖို့ လှုံ့ဆော်နေတဲ့
အချက်အနည်းငယ် ပြောချင်ပါတယ် -
9:58 - 9:59အထူးသဖြင့် YouTube မှာပါ
-
9:59 - 10:01ပထမဆုံးက ကြော်ငြာပေါ့
-
10:01 - 10:04တစ်ခြား ဘာလုပ်အားမှ မပါပဲ
-
10:04 - 10:07ကြည့်သူအရေအတွက်နဲ့
ကြော်ငြာခ ပေးတဲ့စနစ်ပေါ့ -
10:07 - 10:11ဒါတွေကို ဖန်တီးနေတဲ့ လူတွေစိတ်ဝင်စား
တာက ဒီအကြောင်းအရာကို ဖွံ့ဖြိုးဖို့၊ -
10:11 - 10:15ဒီစွမ်းအားကို ဗဟိုပြုချုပ်ကိုင်ဖို့တဲ့
ဒီအရာတွေကို ခွဲခြားဖို့ပါ။ -
10:15 - 10:18ကျွန်တော့အထင် ဒီလိုအရာတွေကို
ကြော်ငြာသုံးခြင်းနဲ့ပတ်သက်ပြီး -
10:18 - 10:19ဘယ်လိုပဲ မြင်မြင်ပါ
-
10:19 - 10:22သဲထဲ လူးနေတဲ့ ခါးတောင်းကျိုက်ထားတဲ့
လူကြီးတစ်ယောက်ကို မြင်ပြီ်း -
10:22 - 10:25သူတို့နားမလည်တဲ့ အယ်ဂိုရစ်သမ်က
ဒါအတွက် သူတို့ကို ပိုက်ဆံပေးမယ် -
10:25 - 10:27မျှော်လင့်တာက
-
10:27 - 10:29လူအဖွဲ့အစည်းနဲ့ ယဉ်ကျေးမှုအပေါ်
-
10:29 - 10:31အခြေခံသင့်ကာ ဒီနည်းနဲ့ ဒါကို
ငွေကြေးထောက်ပံ့နေတယ် -
10:31 - 10:33ဆိုတဲ့အရာ မဖြစ်လောက်ဘူး
ဆိုတာ ညွှန်ပြပါတယ် -
10:34 - 10:37နောက် အဓိကအချက်တစ်ခုက
-
10:37 - 10:39အလိုအလျောက်ပျံ့နှံ့ နေတဲ့ အချက်ပါ
-
10:39 - 10:42ဒီနည်းပညာတွေ အသုံးပြုပြီး ဖြန့်လိုက်တဲ့အခါ
-
10:42 - 10:43အင်တာနက်ပေါ် တင်တာနဲ့
-
10:43 - 10:47အတားအဆီးမရှိ ပျံ့နှံ့သွာ;ပါပြီ။ သူတို့က
"ငါတို့ မဟုတ်ဘူ၊ နည်းပညာ လုပ်တာ" -
10:47 - 10:49"ငါတို့ မပါဘူး" ဆိုတာမျိုးပေါ့။
-
10:49 - 10:51ဒါလုံးဝ မကောင်းပါဘူး
-
10:51 - 10:53ဘာလို့ဆို ဒါတွေက algorithm
ထိန်းချုပ်မှုတွေတင် မဟုတ်ပါဘူး -
10:53 - 10:56algorithm အရပါ အတင်းအကျပ်လုပ်တယ်။
-
10:56 - 10:59YouTube ကဒီပြဿနာကို စပြီး
အရေးယူတုန်းက ပြောခဲ့တာက -
10:59 - 11:01သူတို့ (YouTube) ဒါနဲ့ပက်သက်ပြီး
အဖြေရှာမယ် -
11:01 - 11:04ဒါထက်ပိုကောင်းတဲ့
စက်သင်ကြားရေး algorithm တွေ -
11:04 - 11:05တည်ဆောက် ဖြေရှင်းမယ်ပေါ့။
-
11:05 - 11:09ကျွမ်းကျင် ပညာရှင်တွေက သင့်ကို ပြောကြမှာက
ကဲ၊ စက်သင်ကြားရေး ဆိုတာက -
11:09 - 11:10အခြေခံအားဖြင့် အလုပ်လုပ်ပုံကို တကယ်ပဲ
-
11:10 - 11:13ကျွန်တော်တို့ နားမလည်တဲ့
software လို့ခေါ်တဲ့ အရာတဲ့။ -
11:13 - 11:17ကျွန်တော်ထင်တာတော့ ဒါကြီးက
တော်လောက်ပါပြီ။ -
11:17 - 11:20ဒါကို AI ဆီမှာထားပြီး ဆုံးဖြတ်ခိုင်းတာ
တော့ မဖြစ်သင့်ဘူး -
11:20 - 11:22သင့်တော်၊မတော်ဆိုတာကတော့
-
11:22 - 11:23ဘာဖြစ်တာ ကျွန်တော်တို့သိလို့ပါ
-
11:23 - 11:25AI တွေကတော့ ဆင်ဆာတွေဖြတ်ပစ်မှာပဲ
-
11:25 - 11:26တစ်ခုခု ထူးဆန်းတာနဲ့ ဖြတ်မှာပဲ။
-
11:27 - 11:29တရားဝင် မိန့်ခွန်းတွေကို
ဆင်ဆာ ဖြတ်မှာပဲ -
11:29 - 11:31ဒီဟောပြောချက်တွေမှာ ခွင့်ပြုတာက
-
11:31 - 11:34ဒီ ကွန်ပြူတာစနစ်တွေကိုပဲ အားမကိုးသင့်ဘူး၊
-
11:34 - 11:37ဒီပြဿနာကို ကျနော်တို့ အားလုံး
အဖြေရှာ ဆွေးနွေးသင့်ပါတယ်တဲ့။ -
11:37 - 11:38ဒါပေမဲ့ နောက်နည်းလမ်ကလည်း
-
11:38 - 11:41သိပ်တော့ အဆင်မပြေလှဘူးဆိုတာ
သတိရစေလိုပါတယ်။ -
11:41 - 11:42တစ်လောကပဲ YouTube က ကြေငြာခဲ့တယ်
-
11:42 - 11:45ကလေးတွေအတွက် app အသစ်ထုတ်ပေးမယ်
-
11:45 - 11:48ဗီဒီယို တွေ စီစစ်ဖို့အတွက်
လူအင်အားပဲ သုံးမယ် -
11:48 - 11:52Facebook က Zuckerberg လည်းပဲ
ကွန်ဂရက် မှာအလားတူ ပြောခဲ့တာပဲ၊ -
11:52 - 11:55စီစစ်ရေး အတွက် ဘာတွေလုပ်မှာလည်း
ဖိအားပေး သူတို့ကို မေးတဲ့အခါ -
11:55 - 11:57လူအင်အားသုံးမယ် လို့ပဲ ဖြေခဲ့တယ်
-
11:57 - 11:58ဒါဘာကို ပြလဲဆိုရင်
-
11:58 - 12:01ကလေးငယ်လေးတွေကို ဒီဗီဒီယိုတွေကို
အရင်ကြည့်ခိုင်းမယ့်အစား -
12:01 - 12:04မရေရာတဲ့ ကန်ထရိုက် လစာနည်း
အလုပ်သမားတွေကို အရင်ခိုင်းရမှာ -
12:04 - 12:06ဒါကနေသင့်တင့်တဲ့ စိတ်ကျန်းမာရေး
-
12:06 - 12:07အထောက်အပံ့ကို မထိခိုက်စေပဲလေ
-
12:07 - 12:08(ရယ်သံများ)
-
12:08 - 12:11ဒီထက်ကောင်းတာ တစ်ခုခု
လုပ်နိုင်မယ်တော့ ထင်ပါတယ်။ -
12:11 - 12:13(လက်ခုပ်သံများ)
-
12:14 - 12:19ဒီနည်းလမ်း နှစ်ခုကို ယူဆောင်
လာတဲ့ စိတ်ကူးက -
12:19 - 12:20အေဂျင်စီလို့ ကျနော်ထင်တယ်။
-
12:20 - 12:23ဆိုပါစို့၊ အေဂျင်စီ ဆိုတာကို ကျနော်တို့
ဘယ်လောက်နားလည်သလဲ -
12:23 - 12:28ကျနော်တို့ရဲ့ စိတ်ဝင်အစားဆုံးတွေနဲ့
ပက်သက်ပြီး ဘယ်လို လုပ်ဆောင်ရမလဲ။ -
12:28 - 12:30ကျနော်တို့ နားမလည်တဲ့ ဒီစနစ်တွေထဲမှာ
-
12:30 - 12:33ဆောင်ရွက်ဖို့က သိပ်ဖြစ်နိုင်တဲ့
ကိစ္စတော့ မဟုတ်ဘူး။ -
12:33 - 12:36လုပ်ပိုင်ခွင့် မမျှတမှုဟာ
အကြမ်းဖက်မှုကို ဖြစ်စေပါတယ်။ -
12:36 - 12:38ဒီစနစ် တွေကို ကြည့်မယ်ဆိုရင်
-
12:38 - 12:40အရာတစ်ခုတည်းမှာကိုနားလည်မှု ညီမျှခြင်း
မရှိတာမြင်ရတယ်။ -
12:41 - 12:44ဒီစနစ်တွေ ပိုစတင်ကောင်းမွန်လာဖို့
ကျနော်တို့ လုပ်နိုင်တဲ့ တစ်ခုဆိုရင် -
12:44 - 12:47ဒါတွေကို လူတွေအသုံးပြုဖို့
ပိုရှင်းလင်းပီသအောင် လုပ်ဖို့ပါ -
12:47 - 12:49ဆိုတော့ ကျနော်တို့အားလုံး
အခုဘာပြဿနာလဲဆိုတာ -
12:49 - 12:51ယေဘူယျ နားလည်နိုင်အောင်ပေါ့။
-
12:52 - 12:55တကယ်တမ်း ဒီစနစ် ပြဿနာကလဲ
မျှော်လင့်ရတာက -
12:55 - 12:59ကျနော်ပြောခဲ့သလို YouTube ကြောင့်ပဲလည်း
မဟုတ်ပြန်ပါဘူး။ -
12:59 - 13:00အားလုံး ပါဝင်နေပါတယ်။
-
13:00 - 13:03ဒီအေဂျင်စီရဲ့တာဝန်ယူမှု တာဝန်ခံမှု
ပြဿနာတွေ -
13:03 - 13:05ရှုပ်ထွေးမှု ပွင့်လင်းမြင်သာမှု ပြဿနာတွေ
-
13:05 - 13:08အကြမ်းဖက် သရုပ်နဲ့ မတရားမှု သရုပ်တွေရဲ့
အရင်းအမြစ် ကတော့ -
13:08 - 13:11လူနည်းစုရဲ့ လုပ်ပိုင်ခွင့်
ချုပ်ကိုင်ထားမှုပါပဲ။ -
13:11 - 13:13ဒီထက် အများကြီး ပိုကြီးတဲ့ ပြဿနာတွေပါ။
-
13:14 - 13:18ဒါတွေက YouTube ပြဿနာ တင်မဟုတ်ပဲ၊
နည်းပညာ ပြဿနာမဟုတ်ပဲ၊ -
13:18 - 13:19အသစ်တွေတောင် မဟုတ်ဘူး။
-
13:19 - 13:21ဒါတွေကြုံနေရတာ ကြာပါပြီ။
-
13:21 - 13:25ဒါပေမဲ့ လူတွေတည်ဆောက်ခဲ့တဲ့
ကမ္ဘာလုံးဆိုင်ရာစနစ်၊ အင်တာနက်က -
13:25 - 13:28ဒါတွေက ဆန်းကြယ်တဲ့ နည်းလမ်းနဲ့ပြသနေပြီး
-
13:28 - 13:30ငြင်းစရာမရှိအောင် လုပ်ပေးပါတယ်။
-
13:30 - 13:33မကြာခဏ ပုန်းကွယ်နေတဲ့
ကွန်တော်တို့ရဲ့ အထူးခြားဆုံး -
13:33 - 13:37ဆန္ဒတွေနဲ့ အစွဲအားလုံးကို
သာဓကဆောင်ဖို့နဲ့ဆက်ရှိနေဖို့ -
13:37 - 13:41နှစ်ခုစလုံးအတွက်နည်းပညာဟာ အံ့ဩဖို့
ကောင်းတဲ့ အစွမ်းရှိပါတယ် -
13:41 - 13:43ဒါတွေကို ကမ္ဘာမှာထဲကို ကုဒ်သွင်းပေးတယ်
-
13:43 - 13:46ဒါ့အပြင် ကျနော်တို့ မြင်နိုင်အောင်
ရေးချပေးသေးတယိ -
13:46 - 13:50ဒါတွေ မတည်ရှိဘူးလို့ ကျနော်တို့
ဟန်မဆောင်နိုင်တော့အောင်ပေါ့။ -
13:50 - 13:54နည်းပညာတွေက ပြဿနာတွေအားလုံးအတွက်
အဖြေလို့ တွေးနေတာတွေ ရပ်သင့်ပြီ၊ -
13:54 - 13:58ကျနော်တို့ ပြဿနာတွေ ကိုယ်တိုင်အဖြေရှာဖို့
အထောက်အကူအနေနဲ့ ပဲ သုံးသင့်တယ် -
13:58 - 14:00ဒါတွေအကြောင်း မှန်မှန်ကန်ကန် တွေးတောပြီး
-
14:00 - 14:02စတင် ကိုင်တွယ် နိုင်အောင်ပါ။
-
14:02 - 14:03ကျေးဇူးအများကြီးတင်ပါတယ်။
-
14:03 - 14:08(လက်ခုပ်သံများ)
-
14:10 - 14:11ကျေးဇူးတင်ပါတယ်။
-
14:11 - 14:14(လက်ခုပ်သံများ)
-
14:17 - 14:20Helen Walters: James ရေ ကြွရောက်
ဟောပြောပေးလို့ ကျေးဇူးတင်ပါတယ်။ -
14:20 - 14:21သိပ်ကို စိတ်ဝင်စားစရာပါ။
-
14:21 - 14:25စက်ရုပ်တွေကြီးစိုးတဲ့ သိပ္ပံခေတ်လွန်
ရုပ်ရှင်တွေကို ကြည့်လိုက်ရင် -
14:25 - 14:28အခုပြောနေတာတွေထက်
နည်းနည်း ပိုစွဲမက်ဖွယ်ကောင်းတယ်လေ။ -
14:28 - 14:32ဒါပေမဲ့ တွေးမိတာက ဒီရုပ်ရှင်တွေမှာ
ဖြစ်မလာအောင် တားဆီးချင်တာရှိလား။ -
14:32 - 14:35ဒီအရာကို တားဆီးဖို့
ကြိုးစားနေကြတာ ရှိလား။ -
14:35 - 14:39ဒီခုခံမှုရဲ့ အပြုသဘောဆောင်တဲ့ လက္ခဏာ
တိုးတက်တဲ့လက္ခဏာတွေ ရှင်မြင်လား။ -
14:41 - 14:43James Bridle:တိုက်ရိုက် ခုခံမှု
အကြောင်းမသိဘူး -
14:43 - 14:45ဘာလို့ဆို ဒါဟာရေရှည်သွားရမှာ။
-
14:45 - 14:48ကျနော်တို့ ဒါက ယဉ်ကျေးမှုထဲမှာ
အတော် အမြစ်တွယ်နေပြီ -
14:48 - 14:50ကျနော့်မိတ်ဆွေ Eleanor Saitta ကအမြဲပြောတယ်
-
14:50 - 14:54ဘယ်လိုနည်းပညာပြဿနာ ကြီးကြီးသေးသေး မဆို
-
14:54 - 14:56ပထမတော့ နိုင်ငံရေးပြဿနာတွေပါတဲ့။
-
14:56 - 14:59ဆိုတော့ ဒီပြဿနာတွေကို စပြီး
အဖြေရှာဖို့ဆိုရင် -
14:59 - 15:02ပုိကောင်းတဲ့ နည်းပညာ တည်ဆောက်ပြီး
ကိုင်တွယ်နေရုံနဲ့ မပြီးသေးပဲ -
15:02 - 15:05ဒီနည်းပညာတွေ ထုတ်လုပ်နေတဲ့
လူ့အဖွဲ့အစည်းကိုပါပြောင်းလဲမှ ဖြစ်မယ်။ -
15:05 - 15:08ဆိုတော့ကာ ကျနော်တို့
အများကြီး ကြိုးစားရဦးမယ်။ -
15:09 - 15:10ကျနော်ပြောခဲ့သလိုပဲ
ရှင်းလင်း ပြောဆိုခြင်း -
15:11 - 15:13ရိုးသားစွာ ဆွေးနွေခြင်းကနေ
ဒီပြဿနာတွေကို ထုတ်ဖော်ရမယ်။ -
15:13 - 15:16အနည်းဆုံး ဒီဖြစ်စဉ်ကို အရင်စတင်နိုင်ပါတယ်
-
15:16 - 15:19HW: ရှင်ပြောခဲ့တဲ့ ဒစ်ဂျစ်တယ် အသိပညာနဲ့
ပက်သက်ပြီး ရှင်းလင်းမြင်သာဖို့က -
15:19 - 15:21ကျွန်မ စိတ်ကူးကြည့်ဖို့ခက်တာက
-
15:21 - 15:25ဒစ်ဂျစ်တယ် အသိပညာတွေ တာဝန်ကို
သုံးသူတွေကိုယ်တိုင် ယူဖို့လိုတယ်ဆိုတာပါ။ -
15:25 - 15:29အနာဂတ်မှာ ပညာရေးမှာ
ဘယ်သူက တာဝန်ရှိတယ်လို့ ထင်လဲ။ -
15:29 - 15:33JB: ထပ်ပြောရရင်၊ ဒီလိုသိဖို့က ကျနော်တို့
အားလုံးမှှှာ တာဝန်ရှိပါတယ်။ -
15:33 - 15:36ကျနော်တို့ လုပ်သမျှ၊ တည်ဆောက်သမျှ၊
ဖန်တီးသမျှ အားလုံးကို -
15:36 - 15:40ရှောင်နေသူအားလုံးနဲ့အတူ
အများသဘောတူတဲ့ -
15:40 - 15:42ဆွေးနွေးမှုတစ်ခုမှာ လုပ်ဖို့လိုပါတယ်။
-
15:42 - 15:46လူတွေကို မှန်တာလုပ်စေဖို့ လှည့်စားပြီး၊
အံ့အားသင့်စေဖို့ ရည်ရွယ်ပြီး စနစ်တွေ -
15:46 - 15:48ဆောက်လုပ်တာ မဟုတ်ပဲ
-
15:48 - 15:52တကယ်ပဲ အဆင့်ဆင့်တိုင်းမှာ သူတို့ကို
အသိပညာပေးဖို့ လည်းပါဝင်ပါတယ်။ -
15:52 - 15:54စနစ်တစ်ခုစီဟာ အသိပညော
တိုးစေတာကြောင့်ပါ။ -
15:54 - 15:57ကျနော်မျှော်လင့်တာကတော့
ဒါက မနှစ်မြို့စရာဆိုတာတောင် -
15:57 - 15:59ဒါတွေကို သင့်တင့်စွာ အသုံးချနိုင်မယ်ဆိုရင်
-
15:59 - 16:01၎င်းကိုယ်၌က ဒီစနစ် တွေ
လုပ်ဆောင်ပုံကို -
16:01 - 16:05နားလည်စေတဲ့ပညာရေးရဲ့ အပိုင်းအစတစ်ခုပါ။
-
16:05 - 16:09ကမ္ဘာ့တစ်ခြားနေရာတွေမှာ
ပြန်လည်အသုံးချဖို့ ဖြစ်နိုင်လာမှာပါ။ -
16:09 - 16:11HW: ဒါဟာ သိပ်ကို အရေးပါတဲ့ ဆွေးနွေးချက်ပါ။
-
16:11 - 16:14ဒီက လူအများကလည်း ပွင့်လင်းပြီး
လက်လခံဖို့ အသင့်ရှိတာသေချာပါတယ်။ -
16:14 - 16:16မနက်ခင်းကို စပေးတဲ့အတွက် ကျေးဇူးပါ။
-
16:16 - 16:17JB: ကျေးဇူးပါ။
ရွှင်လန်းကြပါစေ -
16:17 - 16:19(လက်ခုပ်သံများ)
- Title:
- ကလေးများအတွက် YouTube အိပ်မက်ဆိုး -- ယခုခေတ် အင်တာနက်နဲ့ပတ်သက်ပြီး မှားယွင်းနေတာတွေ။
- Speaker:
- James Bridle
- Description:
-
စာရေးဆရာ၊ အနုပညာရှင် ဂျိမ်းစ် ဘရိုက်ဒယ်လ် ဟာ အင်တာနက်ပေါ်က အန္တရာယ်တွေ၊ အမည်မသိလူတွေက ကြော်ငြာခ အတွက်နဲ့ ကလေးတွေရဲ့ အတွေးအာရုံပေါ် အမြတ်ထုတ်မှုတွေ ကို ပေါ်လွင်စေခဲ့ပါတယ်။ ကလေးများနှစ်သက်တဲ့ လက်ဆောင် ချောကလက် ဥ "surprise egg" မိသားစု သီချင်း "Finger Family Song" video တွေမှ ကလေးငယ်များရဲ့ ကာတွန်း ဇာတ်ကောင်တွေကို အသုံးချပြီး ကြမ်းတမ်း ရင့်သီးတဲ့ အကြောင်းအရာများ ဖန်တီးနေကြတာ ဟာ ကလေးငယ်များ အတွက် ကြောက်မက်ဖွယ်ပါ။ ဒီအဖြစ်တွေက ကျနော်တို့ရဲ့ အချက်အလက် နည်းပညာ အသုံးချမှု နဲ့ ပက်သက်ပြီး တစ်စုံတစ်ခုထောက်ပြနေပါတယ်။ ဘရိုက်ဒယ်လ် ပြောတာကတော့ "ကျနော်တို့ဟာ နည်းပညာကို အရာရာတိုင်းအတွက် ဖြေရှင်းချက်အနေနဲ့ စဉ်းစားတာတွေ ရပ်သင့်ပါပြီ။ တကယ်တမ်း ပြဿနာ အရင်းအမြစ်တွေ ရဲ့ အဖြေရှာဖို့ အထောက်အကူအနေနဲ့သာ သုံးသင့်ပါတယ်။ ဒီလိုမှသာ ကျနော်တို့ဟာ နည်းပညာကို မှန်မှန်ကန်ကန် အသုံးချတယ်လို့ ဆိုနိုင်မှာပါ။"
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32