Return to Video

Linear Regression with Gradient Descent - Intro to Data Science

  • 0:01 - 0:04
    .عند تنفيذ الانحدار الخطي، ينتج لدينا عدد من نقاط البيانات
  • 0:04 - 0:09
    .لنقل أن لدينا 1 و2 و3 وهكذا في نقاط البيانات M
  • 0:09 - 0:12
    ،لكل نقطة بيانات متغير إخراج Y
  • 0:12 - 0:15
    .وعدد من متغيرات الإدخال من X1 حتى X N
  • 0:16 - 0:20
    .لذا في مثال لعبة البيسبول، يكون Y هو رقم عمر الضربات الرئيسية
  • 0:20 - 0:24
    .وX1 وXN هما عنصران مثل الارتفاع والوزن
  • 0:24 - 0:28
    .وقد تختلف العينات من واحد إلى M عن لاعبي البيسبول
  • 0:28 - 0:33
    "فربما تكون نقطة البيانات رقم واحد هي "ديريك جيتر"، ونقطة البيانات 2 هي "باري بوندز
  • 0:33 - 0:35
    ."ونقطة البيانات M هي "بيب روث
  • 0:35 - 0:38
    وبصورة عامة، نحن نحاول أن نتوقع قيم
  • 0:38 - 0:42
    متغير الإخراج لكل نقطة بيانات من خلال ضرب متغيرات الإدخال
  • 0:42 - 0:46
    .في مجموعة المعاملات نفسها التي سنطلق عليها قيمة theta 1 إلى theta N
  • 0:46 - 0:49
    وتبين كل قيمة من قيم theta، التي سنطلق عليها من الآن وصاعدًا اسم المعاملات أو
  • 0:49 - 0:53
    أوزان النموذج، مدى أهمية متغير الإدخال
  • 0:53 - 0:56
    .عند توقع قيمة متغير الإخراج
  • 0:56 - 0:57
    ،لذا إذا كانت قيمة theta 1 صغيرة جدًا
  • 0:57 - 1:02
    .ينبغي ألا تكون X1 مهمة جدًا في العموم عند توقع Y
  • 1:02 - 1:04
    ،في حين أنه إذا كانت theta N كبيرة جدًا
  • 1:04 - 1:07
    .فسيكون لـ XN عمومًا اليد الطولى في تحديد قيمة Y
  • 1:07 - 1:10
    ولقد تم وضع هذا النموذج بحيث يمكننا ضرب كل X في
  • 1:10 - 1:14
    .قيمة theta المقابلة، وجمعهم للحصول على Y
  • 1:14 - 1:17
    .وبهذا تبدو المعادلة النهائية مثل تلك المذكورة أدناه
  • 1:17 - 1:20
    ،Theta 1 زائد X1 زائد theta 2 في X2
  • 1:20 - 1:24
    .بحيث تكون جميع الاتجاهات إلى theta N زائد XN تساوي Y
  • 1:24 - 1:27
    .وسنريد أن نكون قادرين على توقع قيمة Y لكل نقطة من نقاط بيانات M
  • 1:28 - 1:32
    ،في هذا الرسم التوضيحي، تمثل النقاط الزرقاء الداكنة نقاط البيانات الاحتياطية
  • 1:32 - 1:35
    بينما يدل الخط الأخضر على القيمة التوقعية لـ Y بالنسبة
  • 1:35 - 1:38
    .لكل قيمة X معطاة في النموذج الذي أنشأناه
  • 1:38 - 1:41
    أفضل معادلة هي تلك التي ستقلل الفارق إلى أدنى حد ممكن بين جميع
  • 1:41 - 1:44
    .نقاط البيانات بين قيمة Y التوقعية وقيمة Y المُلاحظة
  • 1:45 - 1:49
    .وما ينبغي أن نفعله هو أن نجد قيم thetas التي تنتج أفضل التوقعات
  • 1:49 - 1:53
    .وبهذا تصبح تلك الاختلافات عند أدنى حد ممكن
  • 1:53 - 1:57
    ،إذا أردنا أن ننشئ قيمة تصف إجمالي المناطق في النموذج
  • 1:57 - 1:58
    .فسنجمع جميع تلك المناطق
  • 1:58 - 2:02
    .وبهذا، عند جمع كل نقاط البيانات من I يساوي 1 إلى M
  • 2:02 - 2:05
    .Y المتوقعة ناقص Y الفعلية
  • 2:05 - 2:08
    ولكن، نظرًا لأن هذه الأخطاء يمكن أن تكون سالبة
  • 2:08 - 2:12
    وموجبة، فإذا جمعناهم جميعًا، فسنحصل
  • 2:12 - 2:17
    .على خطأ إجمالي قريب جدًا من 0، حتى إذا كان النموذج خاطئًا جدًا
  • 2:17 - 2:21
    ،لتصحيح هذا، بدلاً من إضافة الأخطاء
  • 2:21 - 2:23
    .سنجمع مربع الخطأ
  • 2:23 - 2:27
    ،وبهذا نضمن أن حجم كل خطأ فردي
  • 2:27 - 2:30
    .Y التوقعية ناقص Y الفعلية سيكون موجبًا
  • 2:31 - 2:34
    وبهذا نضمن أن الفارق بين متغيرات الإدخال
  • 2:34 - 2:35
    .ومتغيرات الإخراج واضح
Title:
Linear Regression with Gradient Descent - Intro to Data Science
Video Language:
English
Team:
Udacity
Project:
ud359: Intro to Data Science
Duration:
02:36

Arabic subtitles

Revisions