Return to Video

Linear Regression with Gradient Descent

  • 0:01 - 0:05
    線形回帰を使う場合は
    いくつものデータポイントが存在し
  • 0:05 - 0:09
    1、2、3からmまであります
  • 0:10 - 0:12
    各データにはYと呼ばれる出力変数と
  • 0:12 - 0:16
    X₁からXnで示される入力変数があります
  • 0:16 - 0:20
    野球の例ではYが生涯の本塁打の数にあたり
  • 0:20 - 0:24
    X₁からXnは身長や体重などの値です
  • 0:24 - 0:28
    この1からmまでのサンプルは
    それぞれ野球選手を表わします
  • 0:28 - 0:33
    例えば1はデレク・ジーター、
    2はバリー・ボンズ
  • 0:33 - 0:35
    3はベーブ・ルースなどになるでしょう
  • 0:35 - 0:40
    一般的に各データの出力変数を予測するためには
  • 0:40 - 0:44
    入力変数に係数を掛け合わせます
  • 0:44 - 0:46
    その係数の集合をθ₁からθnと呼びます
  • 0:46 - 0:51
    これ以降はθのことをモデルのパラメータ
    または重みと呼びますが
  • 0:51 - 0:55
    これは出力変数を予測する際の
    入力変数の重要性を示します
  • 0:56 - 0:58
    θの値がとても小さい場合
  • 0:58 - 1:02
    Yを予測する際にX₁の値は重要ではありません
  • 1:02 - 1:04
    θnの値がとても大きい場合は
  • 1:04 - 1:07
    XnがYの値にとって大きく影響します
  • 1:07 - 1:12
    それぞれのXに対応するθを掛け合わせて合計し
  • 1:12 - 1:14
    Yの値を求めましょう
  • 1:14 - 1:17
    方程式はこのようになります
  • 1:17 - 1:20
    このようにθ₁掛けるX₁から始まり
  • 1:20 - 1:24
    θn掛けるXnまでを
    すべて足した答えがYとなります
  • 1:24 - 1:27
    ではmのデータポイントでのYを予測しましょう
  • 1:28 - 1:32
    この図の青い点は
    観測されたデータポイントを表します
  • 1:32 - 1:35
    緑の線はモデルにおいて
  • 1:35 - 1:38
    Xそれぞれの値から予測したYの値です
  • 1:38 - 1:41
    理想的な方程式の形はデータポイントの全体で
  • 1:41 - 1:45
    Yの予測値と観測値の差が小さくなることです
  • 1:45 - 1:49
    この差をなるべく小さくするような
  • 1:49 - 1:53
    できるだけ正確なθを求める必要があります
  • 1:53 - 1:58
    モデル全体の誤差を表すには誤差を合計します
  • 1:58 - 2:02
    つまりi=1からmまでの
    すべてのデータポイントについて
  • 2:02 - 2:05
    予測のYから実際のYを引いた値を足し合わせます
  • 2:05 - 2:09
    しかしこれらの誤差は
    マイナスにもプラスにもなります
  • 2:10 - 2:14
    単純に計算してしまうと
    モデルが間違っていたとしても
  • 2:14 - 2:17
    全体の誤差が
    ゼロにかなり近くなる可能性があります
  • 2:17 - 2:21
    これを正確にするためには
    単に誤差を合計するだけではいけません
  • 2:21 - 2:23
    誤差の二乗を足してみましょう
  • 2:23 - 2:30
    この項はそれぞれの誤差の大きさを
    保証するものです
  • 2:31 - 2:35
    では入力変数と出力変数の違いを確認しましょう
Title:
Linear Regression with Gradient Descent
Video Language:
English
Team:
Udacity
Project:
ud359: Intro to Data Science
Duration:
02:36

Japanese subtitles

Revisions Compare revisions