音乐
本片由斯坦福
学术发展中心提供
早上好,欢迎回来。今天我们要讲第三课。
这节课
我会涉及这些内容,
当中有些
我今天涉及的内容,可能感觉有点跳,
我的意思是话题和话题之间有点跳跃。但是,这都是依照这节课的教学大纲走的,并且保证了逻辑的连续性。
上节课,我们谈到,
线性回归,今天我要谈谈
一种叫做局部权重回归的适应算法。这是一种非常强大的
算法,也可能是我前一任导师最喜爱的
机器学习算法。随后我们会
讨论一种线性回归的概率解释,
并且用其展开我们的第一个
逻辑回归的分类算法;课程中
会有一段小插曲来略微谈谈感知算法,
详细的内容会在之后的课程中展开;
如果
时间允许,我希望可以讲讲牛顿法,一种用于
Logistic插值回归法的算法。
好了,先让我们回忆下上节课的内容,
回一下我定义的符号,
我用
X^i,
Y^i来表达第i个训练样本。
当
我们谈及线性回归
或者一般最小二乘时,
我们用这个去表示
我假定的H,
在输入值为X^i
时的预测值。
我假定的公式,
系数由向量
系数𝛳表示,
这就等于对j求和的theta_j*x_j
写作theta转置乘以X
我们按习惯约定X_0等于1
对应我们线性回归模型里的
截距项
这里的小写n
是我用的一个记号
来表示训练集合中特征的数量
所以在我们预测房屋售价的例子中,