Return to Video

Regularization - Intro to Machine Learning

  • 0:01 - 0:05
    能非常有效地采用正则化的一个地方 就是回归
  • 0:05 - 0:07
    正则化是自动处理模型中使用的
  • 0:07 - 0:11
    额外特征的方式
  • 0:11 - 0:13
    现在让我更具体地说一说
  • 0:13 - 0:17
    有一种正则化回归称为 Lasso 回归
  • 0:17 - 0:20
    这是 Lasso 回归的大致公式
  • 0:21 - 0:22
    一般的线性回归
  • 0:22 - 0:28
    是要最大程度地降低拟合中的平方误差
  • 0:28 - 0:31
    我想要缩短拟合与任何指定数据点
  • 0:31 - 0:35
    之间的距离或者是距离的平方
  • 0:35 - 0:40
    而 Lasso 回归也要减小平方误差
  • 0:40 - 0:43
    但是 除了最大化减小平方误差以外
  • 0:43 - 0:46
    它还要最大化减少使用的特征数量
  • 0:46 - 0:49
    所以 这里我要添加第二项
  • 0:49 - 0:54
    我设了一个惩罚参数
  • 0:54 - 0:58
    这个术语描述的就是使用的特征数量
  • 0:58 - 1:00
    这就是这个公式的结果
  • 1:00 - 1:05
    我进行拟合时 我会考虑拟合造成的误差
  • 1:05 - 1:09
    以及使用的特征数
  • 1:09 - 1:11
    然后我来对比两个不同的
  • 1:11 - 1:13
    含有不同数量特征的拟合
  • 1:14 - 1:16
    特征数更多的这个
  • 1:16 - 1:19
    一般会有更小的平方误差
  • 1:19 - 1:23
    因为它能更精确地拟合这些点
  • 1:23 - 1:25
    但是使用额外的特征我受到了惩罚
  • 1:25 - 1:29
    而在第二项中 设有惩罚参数
  • 1:29 - 1:31
    以及我使用额外特征
  • 1:31 - 1:34
    得到的回归系数
  • 1:34 - 1:37
    也就是说 由于精确度
  • 1:37 - 1:39
    我得到的回归的适当拟合的好处
  • 1:39 - 1:44
    必须比我回归中使用额外特征
  • 1:44 - 1:48
    形成的损失更大
  • 1:49 - 1:53
    所以这个以数学的方式 精确地规定了
  • 1:53 - 1:59
    更少的误差与使用更少特征的更简单的拟合之间的平衡
  • 1:59 - 2:01
    所以 Lasso 回归
  • 2:01 - 2:05
    就是自动地考虑惩罚参数
  • 2:05 - 2:09
    这样 它就能帮助你指出
  • 2:09 - 2:12
    哪些特征对你的回归有最重要的影响
  • 2:12 - 2:15
    在它发现这些特征后 它就能减少
  • 2:15 - 2:20
    或完全删除用处不大的特征的系数
Title:
Regularization - Intro to Machine Learning
Description:

more » « less
Video Language:
English
Team:
Udacity
Project:
ud120 - Intro to Machine Learning
Duration:
02:21

Chinese, Simplified subtitles

Revisions