音乐 本片由斯坦福 学术发展中心提供 早上好,欢迎回来。今天我们要讲第三课。 这节课 我会涉及这些内容, 当中有些 我今天涉及的内容,可能感觉有点跳, 我的意思是话题和话题之间有点跳跃。但是,这都是依照这节课的教学大纲走的,并且保证了逻辑的连续性。 上节课,我们谈到, 线性回归,今天我要谈谈 一种叫做局部权重回归的适应算法。这是一种非常强大的 算法,也可能是我前一任导师最喜爱的 机器学习算法。随后我们会 讨论一种线性回归的概率解释, 并且用其展开我们的第一个 逻辑回归的分类算法;课程中 会有一段小插曲来略微谈谈感知算法, 详细的内容会在之后的课程中展开; 如果 时间允许,我希望可以讲讲牛顿法,一种用于 Logistic插值回归法的算法。 好了,先让我们回忆下上节课的内容, 回一下我定义的符号, 我用 X^i, Y^i来表达第i个训练样本。 当 我们谈及线性回归 或者一般最小二乘时, 我们用这个去表示 我假定的H, 在输入值为X^i 时的预测值。 我假定的公式, 系数由向量 系数𝛳表示, 这就等于对j求和的theta_j*x_j 写作theta转置乘以X 我们按习惯约定X_0等于1 对应我们线性回归模型里的 截距项 这里的小写n 是我用的一个记号 来表示训练集合中特征的数量 所以在我们预测房屋售价的例子中,