< Return to Video

Statistics: Sample Variance

  • 0:00 - 0:05
    ეს ვიდეო, რამდენიმე მიზეზის გამო,
    სიახლეებითაა სავსე.
  • 0:05 - 0:10
    პირველ რიგში, გავიგებთ,
    რა არის შერჩევის დისპერსია,
  • 0:10 - 0:12
    რაც თავისთავად საინტერესოა.
  • 0:12 - 0:15
    მეორეც, ვცდი, ჩავწერო ვიდეო HD ხარისხში.
  • 0:15 - 0:17
    იმედია, ბევრად კარგად
    დაინახავთ, ვიდრე აქამდე.
  • 0:17 - 0:19
    ვნახოთ, რა გამოვა.
  • 0:19 - 0:22
    ეს რაღაც დონეზე ექსპერიმენტია,
    ასე რომ, მიგულშემატკივრეთ!
  • 0:22 - 0:25
    ვიდრე დავიწყებდეთ
    შერჩევის დისპერსიაზე საუბარს, ვფიქრობ,
  • 0:25 - 0:28
    სასარგებლო იქნება, თუ მოკლედ განვიხილავთ
  • 0:28 - 0:29
    პოპულაციის დისპერსიას.
  • 0:29 - 0:32
    ასე შეგვეძლება, შევადაროთ ფორმულები.
  • 0:32 - 0:36
    პოპულაციის დისპერსია
    აღინიშნება ბერძნული ასო სიგმათი.
  • 0:36 - 0:37
    ეს არის პატარა ასო სიგმა კვადრატში,
  • 0:37 - 0:38
    და ნიშნავს დისპერსიას.
  • 0:38 - 0:42
    ვიცი, უცნაურია, რომ
    ცვლადი უკვე კვადრატშია აყვანილი
  • 0:42 - 0:43
    რეალურად, ცვლადი კვადრატში კი არ აგვყავს,
  • 0:43 - 0:44
    არამედ, ეს არის ცვლადი:
  • 0:44 - 0:46
    სიგმა კვადრატში აღნიშნავს დისპერსიას.
  • 0:46 - 0:47
    ან, მოდით, დავწერ.
  • 0:47 - 0:52
    ეს უდრის დისპერსიას.
  • 0:52 - 0:59
    და ეს უდრის X ინდექსად i.
  • 0:59 - 1:05
    იღებ თითოეულ მონაცემს, ნახულობ, რამდენით
    არის დაცილებული პოპულაციის საშუალოს,
  • 1:05 - 1:09
    აგყავს ეს დაშორებები კვადრატში და შემდეგ
  • 1:09 - 1:11
    პოულობ მათ საშუალოს.
  • 1:11 - 1:13
    ანუ, ვიღებთ საშუალოს: ვკრებთ ყველაფერს,
  • 1:13 - 1:18
    i უდრის 1-დან i უდრის n-მდე,
  • 1:18 - 1:20
    შემდეგ, საშუალოს
    გამოსათვლელად, შევკრებთ მათ
  • 1:20 - 1:22
    და გავყოფთ n-ზე.
  • 1:22 - 1:26
    ანუ, დისპერსია არის ყოველი
    წერტილის საშუალოდან დაშორების მანძილი
  • 1:26 - 1:27
    აყვანილი კვადრატში
    და გამოთვლილი მათი საშუალო.
  • 1:27 - 1:30
    ინტუიტიური მინიშნება
    რომ მოგცეთ, ის გვიჩვენებს,
  • 1:30 - 1:34
    რამდენად არის დაშორებული
    თითეოეული წერტილი შუა წერტილიდან,
  • 1:34 - 1:36
    ეს არის დისპერსიის
    წარმოდგენის საუკეთესო გზა.
  • 1:36 - 1:39
    აქამდე პოპულაციაზე ვსაუბრობდით
  • 1:39 - 1:44
    მაგრამ თუ გვსურს, გავიგოთ
    ქვეყანაში ყველა კაცის სიმაღის დისპერსია,
  • 1:44 - 1:46
    ძალიან რთული იქნება
    პოპულაციის დისპერსიის გაგება.
  • 1:46 - 1:51
    მოგვიწევდა, გაგვეზომა ყველა,
    250 მილიონი ადამიანი!
  • 1:51 - 1:55
    და რა ვქნათ, თუ
    ზოგიერთ პოპულაციაში სრულიად შეუძლებელია,
  • 1:55 - 1:58
    გვქონდეს მონაცემები ან შემთხვევითი ცვლადი.
  • 1:58 - 1:59
    ამას დავუბრუნდებით მოგვიანებით.
  • 1:59 - 2:03
    უმეტეს შემთხვევებში,
    გვსურს, გამოვთვალოთ ეს დისპერსია
  • 2:03 - 2:05
    შერჩევის დისპერიით.
  • 2:05 - 2:07
    შეიძლება ვერასდროს
    გამოთვალო პოპულაციის საშუალო,
  • 2:07 - 2:11
    მაგრამ შეიძლება გამოთვალო
    ის შერჩევის საშუალოს დახმარებით.
  • 2:11 - 2:14
    ეს პირველ ვიდეოში ვისწავლეთ.
  • 2:14 - 2:18
    თუ ეს არის მთლიანი პოპულაცია,
  • 2:18 - 2:20
    ეს მილიონობით მონაცემთა წერტილია და
    აგრეთვე მონაცემთა წერტილები მომავალში,
  • 2:20 - 2:23
    რომლებსაც ვერასდროს მიიღებ,
    რადგანაც ის შემთხვევითი ცვლადია.
  • 2:23 - 2:27
    ანუ, ეს არის პოპულაცია.
  • 2:27 - 2:32
    რაღაცების გამოთვლა შეიძლება
    გინდოდეთ მხოლოდ შერჩევის მიხედვით.
  • 2:32 - 2:36
    გამოყვანილი სტატისტიკა სწორედ ამაზეა
  • 2:36 - 2:39
    აკეთებს აღწერად სტატისტიკას შერჩევაში
  • 2:39 - 2:41
    და დასკვნები გამოაქვს პოპულაციის შესახებ.
  • 2:41 - 2:45
    შეიძლება, გამოსცადოთ ნარკოტიკი
    100 ადამიანზე და თუ მას
  • 2:45 - 2:47
    სტატისტიკურად
    მნიშვნელოვანი შედეგები ექნება,
  • 2:47 - 2:49
    ეს ნარკოტიკი, სავარაუდოდ,
    პოპულაციაზეც იმოქმედებს.
  • 2:49 - 2:50
    აი, სულ ესაა.
  • 2:50 - 2:54
    ძალიან მნიშვნელოვანია, კარგად გაიგოთ
    განსხვავება პოპულაციასა და შერჩევას შორის.
  • 2:54 - 2:58
    შერჩევის სატისტიკის გარკვევას,
    რომელსაც, უმეტეს შემთხვევაში,
  • 2:58 - 3:00
    შეუძლია აღწეროს პოპულაცია
    ან დაგვეხმაროს შეფასებაში,
  • 3:00 - 3:04
    ამას ეძახიან პოპულაციის პარამეტრებს.
  • 3:04 - 3:07
    ანუ, რა არის პოპულაციის საშუალო?
  • 3:07 - 3:09
    მოდით, თავიდან გადავწერ მნიშვნელობებს.
  • 3:09 - 3:10
    მეწამულით დავწერ.
  • 3:10 - 3:12
    მეწამული აღნიშნავს პოპულაციას.
  • 3:12 - 3:14
    პოპულაციის საშუალოს გამოთვლისას,
  • 3:14 - 3:20
    იღებ პოპულაციის თითოეულ მონაცემს, x i,
  • 3:20 - 3:22
    და აჯამებ მათ.
  • 3:22 - 3:24
    იწყებ პირველი მონაცემთა
    წერტილით და მიდიხარ ბოლომდე,
  • 3:24 - 3:26
    n მონაცემამდე.
  • 3:26 - 3:27
    შემდეგ კი ყოფ ჯამს n-ზე.
  • 3:27 - 3:28
    ანუ, შეკრებ და ყოფ n-ზე.
  • 3:28 - 3:29
    ეს არის საშუალო.
  • 3:29 - 3:30
    შემდეგ, ჩასვამ მას ამ ფორმულაში.
  • 3:30 - 3:33
    შეგიძლია ნახო,
    რამდენად შორსაა თითოეული წერტილი
  • 3:33 - 3:34
    ცენტრალური წერტილიდან,
    ანუ, ამ საშუალოდან.
  • 3:34 - 3:36
    ასე მიიღებ დისპერსიას.
  • 3:36 - 3:40
    ახლა, რა მოხდება,
    თუ იმავეს გავაკეთებთ შერჩევისთვის?
  • 3:40 - 3:45
    თუ გვსურს, გამოვთვალოთ პოპულაციის
    საშუალო შერჩევის საშუალოს დახმარებით,
  • 3:45 - 3:49
    ამისთვის არსებობს გარკვეული ფორმულები.
  • 3:49 - 3:51
    ეს არის ადამიანები, ვთქვათ, და
  • 3:51 - 3:52
    როგორ გახდება ეს შერჩევა?
  • 3:52 - 3:55
    ერთადერთი, რაც შეგვიძლია,
    არის ის, რომ ავიღოთ შერჩევის საშუალო.
  • 3:55 - 3:57
    ეს იქნება შერჩევის საშუალო არითმეტიკული.
  • 3:57 - 3:59
    პირველ ვიდეოში ვისწავლეთ, რომ
  • 3:59 - 4:00
    ფორმულა თითქმის ამის იდენტურია.
  • 4:00 - 4:02
    უბრალოდ, ჩანაწერშია განსხვავება.
  • 4:02 - 4:05
    mu-ს დაწერის ნაცვლად, წერ x-ს ზემოდან ხაზით.
  • 4:05 - 4:09
    შერჩევის საშუალო არის, კიდევ ერთხელ ვთქვათ,
  • 4:09 - 4:12
    თითეული მონაცემთა წერტილი
    ახლა უკვე შერჩევაში და არა პოპულაციაში,
  • 4:12 - 4:17
    დაჯამებული, ერთიდან n-მდე,
  • 4:17 - 4:21
    გვეუბნებიან, რომ
    შერჩევაში n მონაცემთა წერტილია,
  • 4:21 - 4:23
    და შემდეგ გაყოფილი
    მონაცემთა წერტილების რაოდენობაზე.
  • 4:23 - 4:24
    საკმაოდ მარტივია.
  • 4:24 - 4:26
    რეალურად, ეს იგივე ფორმულაა.
  • 4:26 - 4:28
    შერჩევის შემთხვევაშიც ისევე ვიქცევი,
  • 4:28 - 4:30
    როგორც პოპულაციის შემთხვევაში.
  • 4:30 - 4:34
    და ეს, ალბათ, პოპულაციის
    საშუალოს გამოთვლის კარგი მეთოდია.
  • 4:34 - 4:36
    უფრო საინტერესოა,
    როცა ვსაუბრობთ დისპერსიაზე.
  • 4:36 - 4:39
    ბუნებრივი რეაქცია,
    თუ იფიქრებთ: კარგი მაქვს შერჩევა,
  • 4:39 - 4:43
    თუ მსურს პოპულაციის დისპერსიის გამოთვლა,
  • 4:43 - 4:46
    რატომაც არ მოვარგო
    იგივე ფორმულა შერჩევასაც?
  • 4:46 - 4:55
    ამ დროს გამოიყენება
    კვადრატში აყვანილი ფორმულა.
  • 4:55 - 4:58
    სიგმა არის s-ის შესაბამისი
    ბერძნული ასო, რომელიც აღნიშნავს დისპერისას
  • 4:58 - 5:00
    მაგრამ ახლა საქმე გვაქვს შერჩევასთან,
  • 5:00 - 5:01
    ამიტომ ვწერთ უბრალოდ s-ს.
  • 5:01 - 5:03
    ეს არის შერჩევის დისპერსია.
  • 5:03 - 5:12
    აქ დავწერ: შერჩევის დისპერსია.
  • 5:12 - 5:17
    შეგვიძლია ვთქვათ,
    რომ იმავე გზით გაკეთება კარგი ვარიანტია.
  • 5:17 - 5:27
    გავიგოთ თითოეული
    წერტილის დაშორება შერჩევის საშუალოდან,
  • 5:27 - 5:29
    წინა ფორმულაში
    პოპულაციის საშუალოს ვიყენებდით, მაგრამ
  • 5:29 - 5:31
    ახლა მხოლოდ შერჩევის საშუალო გვაქვს,
  • 5:31 - 5:33
    არ ვიცით, რა არის პოპულაციის საშუალო
  • 5:33 - 5:36
    თუ მთელ პოპულაციას არ ვიკვლევთ.
  • 5:36 - 5:37
    ავიყვანოთ კვადრატში მანძილები,
  • 5:37 - 5:38
    ისინი დადებითი გახდება,
  • 5:38 - 5:40
    მოგვიანებით განვიხილავთ,
    ეს რაში გვჭირდება.
  • 5:40 - 5:43
    შემდეგ გამოვთვალოთ
    კვადრატში აყვანილი მანძილების საშუალო.
  • 5:43 - 5:45
    ანუ, ვაჯამებთ ყველაფერს
  • 5:45 - 5:48
    მათი რაოდენობაა n
  • 5:48 - 5:52
    და შემდეგ ჯამს ვყოფთ n-ზე.
  • 5:52 - 5:53
    ვიტყვით, რომ ეს
    კარგი მიახლოებითი გამოთვლაა.
  • 5:53 - 5:56
    რაც უნდა იყოს ეს გადახრა,
  • 5:56 - 5:57
    მთელი პოპულაციისთვისაც
    კარგი მაჩვენებელი იქნება.
  • 5:57 - 6:02
    ეს სწორედ ისაა, რასაც ბევრი ადამიანი
    გულისხმობს შერჩევის დისპერსიაზე საუბრისას.
  • 6:02 - 6:05
    და ზოგჯერ ის მართლაც ასე მოიაზრება.
  • 6:05 - 6:08
    აქ პატარა n-ს წერენ.
  • 6:08 - 6:10
    ამას იმიტომ აკეთებენ,
    რომ ჯამი n-ზე გავყავით.
  • 6:10 - 6:12
    ალბათ მკითხავსთ, სალ, რაშია პრობლემა?
  • 6:12 - 6:14
    მინიშნებას მოგცემთ, რადგან
  • 6:14 - 6:16
    ეს ყოველთვის მაოგნებდა.
  • 6:16 - 6:19
    დღემდე ძალიან ვწვალობ, ამ ყველაფრის
  • 6:19 - 6:22
    ინტუიტიურად წარმოსადგენად.
  • 6:22 - 6:27
    გონება მკარნახობს, რომ სწორედ ამაშია საქმე
  • 6:27 - 6:28
    მაგრამ, მოდით, დავფიქრდეთ.
  • 6:28 - 6:30
    თუ მაქვს რიცხვების გროვა,
  • 6:30 - 6:35
    მოდი, დავხატავ რიცხვთა ღერძს.
  • 6:35 - 6:39
    ვთქვათ, ჩემს პოპულაციაში მაქვს რიცხვები.
  • 6:39 - 6:44
    ვთქვათ, რომ რანდომულად
    ვდებ რიცხვების გროვებს პოპულაციაში.
  • 6:44 - 6:46
    ისინი, რომლებიც მარჯვნივაა, უფრო დიდია იმათზე
  • 6:46 - 6:49
    რომლებიც მარცხნივაა.
  • 6:49 - 6:53
    თუ მათგან ავიღებთ შერჩევას,
  • 6:53 - 6:55
    და შერჩევა ხომ რანდომულია,
  • 6:55 - 6:56
    და რეალურად, გსურს კიდეც, რომ
  • 6:56 - 6:57
    შერჩევა რანდომული იყოს.
  • 6:57 - 7:05
    ვთქვათ, ავიღებ ამას, ამას და ამას, კარგი?
  • 7:05 - 7:08
    და თუ ვაპირებ
    ამ რიცხვების საშალოს გამოთვლას,
  • 7:08 - 7:09
    ეს სადღაც შუაში იქნება.
  • 7:09 - 7:11
    შეიძლება, აი, აქ იყოს.
  • 7:11 - 7:13
    შემდეგ, თუ მსურს შერჩევის
    დისპერსიის გამოთვლა ფორმულით,
  • 7:13 - 7:17
    ვიტყვი, ეს მანძილი აყვანილი კვადრატში, დამატებული
  • 7:17 - 7:21
    ეს მანძლი აყვანილი კვადრატში
  • 7:21 - 7:24
    და დამატებული ეს მანძლი აყვანილი
    კვადრატში, ახლა გამოვთვლი მათ საშუალოს
  • 7:24 - 7:25
    და მივიღებ ამ რიცხვს.
  • 7:25 - 7:30
    და, სავარაუდოდ, ეს კარგი მიახლოება
    იქნება მთელი პოპულაციის დისპერსიასთან.
  • 7:30 - 7:32
    პოპულაციის საშუალო, ალბათ,
  • 7:32 - 7:35
    ძალიან ახლოს იქნება ამასთან.
  • 7:35 - 7:37
    ავიღეთ ყველა მონაცემთა წერტილი
    და გავიგეთ საშუალო,
  • 7:37 - 7:39
    და შეიძლება ეს სადმე აქ არის.
  • 7:39 - 7:41
    შემდეგ, თუ გაიგებდით დისპერსიას,
  • 7:41 - 7:44
    ის ძალიან ახლოს იქნებოდა ყველა
    ამ ხაზის საშუალო არითმეტიკულთან, არა?
  • 7:44 - 7:46
    შერჩევის მანძილების დისპერსიასთან.
  • 7:46 - 7:47
    სამართლიანად ჟღერს.
  • 7:47 - 7:48
    და ალბათ იტყვით,
  • 7:48 - 7:50
    სალ, ახლა მართლა კარგად გამოიყურება.
  • 7:50 - 7:52
    მაგრამ აქ პატარა რაღაცაა,
    რასაც უნდა მიხვდეთ.
  • 7:52 - 7:57
    ყოველთვის არის შესაძლებლობა, რომ ასე
    თანაბრად განაწილებული რიცხვების ნაცვლად,
  • 7:57 - 8:05
    ავიღებ ამ რიცხვს, ამას, ამას და
    ამ რიცხვსაც, ჩემს შერჩევად.
  • 8:05 - 8:08
    რაც არ უნდა იყოს შერჩევა, მისი საშუალო
  • 8:08 - 8:10
    ყოველთვის მის შუაში იქნება, არა?
  • 8:10 - 8:13
    ანუ, ამ შემთხვევაში,
    შერჩევის საშუალო ალბათ იქნება აქ.
  • 8:13 - 8:15
    შეიძლება თქვა, კარგი, ეს რიცხვი
  • 8:15 - 8:18
    არ არის ძალიან დაშორებული ამ რიცხვისგან,
    ეს რიცხვიც არ არის ძალიან შორს ამისგან,
  • 8:18 - 8:19
    და არც ეს რიცხვებია ძალიან შორს.
  • 8:19 - 8:24
    თუ ასე აკეთებ, შენი შერჩევის
    საშუალო უფრო ქვემოთ იქნება.
  • 8:24 - 8:28
    რადგან ყველა ეს რიცხვი, თავისი არსით,
  • 8:28 - 8:30
    ახლოს იქნება ერთმანეთის საშუალოსთან.
  • 8:30 - 8:35
    მაგრამ, ამ შემთხვევაში,
    შენი შერჩევა დამახინჯებულია
  • 8:35 - 8:38
    და პოპულაციის საშუალო სადღაც აქ იქნება.
  • 8:38 - 8:41
    ანუ, შერჩევის რეალური საშუალო,
    თუ გეცოდინებოდათ,
  • 8:41 - 8:44
    ვიცი, ეს ცოტა დამაბნეველია,
  • 8:44 - 8:47
    მოკლედ, თუ გეცოდინებოდათ საშუალო,
  • 8:47 - 8:48
    იპოვიდით ამ მანძილებს
  • 8:48 - 8:51
    რაც ბევრად მეტი იქნებოდა.
  • 8:51 - 8:54
    ჩემი ნათქვამის არსი ისაა,
    რომ როცა იღებთ შერჩევას
  • 8:54 - 8:58
    არსებობს შანსი იმისა, რომ
    შერჩევის საშუალო ძალიან ახლოს იქნება
  • 8:58 - 9:00
    პოპულაციის საშუალოსთან.
  • 9:00 - 9:02
    შეიძლება ჩვენი შერჩევის საშუალო აქაა და
  • 9:02 - 9:03
    პოპულაციის საშუალო კი - აქ.
  • 9:03 - 9:06
    მაშინ ეს ფორმულა საკმაოდ კარგად იმუშავებს.
  • 9:06 - 9:08
    ყოველი შემთხვევისთვის,
    ამ შერჩევის მონაცემთა წერტილებისთვის
  • 9:08 - 9:09
    და გავარკვევდით დისპერსიას.
  • 9:09 - 9:14
    მაგრამ საკმაოდ დიდი შანსია იმისა,
    რომ შერჩევის საშუალო;
  • 9:14 - 9:17
    შერჩევა რომ ყოველთვის
    შენს მონაცემთა შერჩევაში იქნება,
  • 9:17 - 9:19
    ის ყოველთვის იქნება შენი შერჩევის ცენტრი.
  • 9:19 - 9:21
    მაგრამ სრულიად შესაძლებელია,
    რომ პოპულაციის საშუალო
  • 9:21 - 9:23
    შერჩევის საშუალოს გარეთაა.
  • 9:23 - 9:25
    შეიძლება ისე გამოვიდეს,
    რომ შეარჩიე მონაცემები,
  • 9:25 - 9:28
    რომლებიც არ შეიცავს პოპულაციის საშუალოს.
  • 9:28 - 9:32
    მაშინ ამ გზით გამოთვლილი
    შერჩევის დისპერსია
  • 9:32 - 9:36
    სათანადოდ ვერ შეაფასებს
    მთელი პოპულაციის დისპერსიას, ხომ ასეა?
  • 9:36 - 9:38
    რადგან შერჩევის
    წერტილები ყოველთვის უფრო ახლოს იქნება
  • 9:38 - 9:40
    საკუთარ საშუალოსთან,
    ვიდრე პოპულაციის საშუალოსთან.
  • 9:40 - 9:43
    და თუ რაც ვთქვი,
    იმის 10 პროცენტს მაინც გებულობ,
  • 9:43 - 9:46
    სტატისტიკის ძალიან
    წარმატებული სტუდენტი ხარ.
  • 9:46 - 9:50
    ამ ყველაფერს იმიტომ გეუბნებით,
    რომ, ინტუიციის დონეზე,
  • 9:50 - 9:54
    გაიაზროთ, რომ გამოთვლამ
    შეიძლება სათანადოდ ვერ შეაფასოს რეალობა.
  • 9:54 - 9:59
    ეს ფორმულა ხშირად სათანადოდ
    ვერ შეაფასებს პოპულაციის რეალურ დისპერსიას
  • 9:59 - 10:03
    არსებობს ფორმულა, რომელიც
  • 10:03 - 10:05
    ბევრად მკაცრადაა დამტკიცებული,
    ვიდრე მე გავაკეთებ ამას, რომ
  • 10:05 - 10:09
    ის უკეთესი მიახლოებაა
    პოპულაციის დისპერსიასთან.
  • 10:09 - 10:11
    ანუ, მიუკერძოებელი შერჩევის დისპერსია.
  • 10:11 - 10:14
    ზოგჯერ მას ისევ s-კვადრატით აღნიშნავენ.
  • 10:14 - 10:19
    ზოგჯერ კი ასე წერენ: s n-1 კვადრატში.
  • 10:19 - 10:21
    მოდით, გიჩვენებთ, რატომ.
  • 10:21 - 10:22
    ეს თითქმის იგივე რამაა.
  • 10:22 - 10:25
    იღებთ თითოეულ მონაცემთა წერტილს, არკვევთ,
  • 10:25 - 10:28
    რამდენად არის დაშორებული
    თითოეული შერჩევის საშუალოდან.
  • 10:28 - 10:29
    აგყავთ კვადრატში,
  • 10:29 - 10:32
    იგებთ კვადრატში აყვანილი
    რიცხვების საშუალოს,
  • 10:32 - 10:33
    მაგრამ აქ ერთი განსხვავებაა.
  • 10:33 - 10:36
    i ტოლია ერთის, i ტოლია n-ის.
  • 10:36 - 10:42
    n-ზე გაყოფის ნაცვლად,
    ჯამს ყოფ ოდნავ მცირე რიცხვზე.
  • 10:42 - 10:44
    ჯამს ყოფ (n-1)-ზე
  • 10:44 - 10:47
    როცა ამას აკეთებ, n-ზე გაყოფის ნაცვლად,
  • 10:47 - 10:50
    მიიღებ უფრო დიდ რიცხვს.
  • 10:50 - 10:52
    და ირკვევა, რომ ეს
    სინამდვილეში ბევრად კარგი მიახლოებაა.
  • 10:52 - 10:55
    ერთ დღეს დავწერ
    კომპიუტერულ პროგრამას, რათა
  • 10:55 - 10:57
    ერთხელ და სამუდამოდ
    დავუმტკიცო საკუთარ თავს,
  • 10:57 - 11:02
    რომ ეს ბევრად კარგი მიახლოებაა
    პოპულაციის დისპერსიასთან.
  • 11:02 - 11:03
    ანუ, იმავე გზით ითვლით ამ შემთხვევაშიც,
  • 11:03 - 11:05
    უბრალოდ, n-ის ნაცვლად, გაყოფთ (n-1)-ზე.
  • 11:05 - 11:07
    სხვა მხივ რომ შევხედოთ...
  • 11:07 - 11:09
    მაგრამ არა, დრო აღარ მყოფნის.
  • 11:09 - 11:12
    აქ შევჩერდეთ და მომდევნო ვიდეოში
    რამდენიმე გამოთვლა შევასრულოთ,
  • 11:12 - 11:17
    ძალიან რომ არ გადაიღალოთ.
    შევხვდებით შემდეგ ვიდეოში!
Title:
Statistics: Sample Variance
Description:

more » « less
Video Language:
English
Team:
Khan Academy
Duration:
11:18

Georgian subtitles

Revisions