在第一章中,我们研究了一个简单的生活满意度回归模型:life_satisfaction = + * × GDP_per_capita

该模型只是输入特征GDP_per_capita的一个线性函数。 都是模型的参数

更一般地说,线性模型通过简单的计算输入特征的加权和,然后加上一个称为偏差项[ bias term](也称为截距项[intercept term])的常数来做预测,如图4-1所示。

方程4 - 1 线性回归模型预测

ŷ = + * + * + ⋯ + *

ŷ是预测的值。

n是特征的个数

是第i个特征的值。

是第j个模型参数(包括偏差项θ0和特征权重θ1,θ2⋯,θn)。

这可以用矢量化的形式更简洁地写出来,如公式4-2所示。

方程4 - 2 线性回归模型预测(矢量化形式)

θ是模型的参数向量[parameter vector ],包含偏差项θ0和特性权重θ1,θ2⋯,θn

是θ的转置(它是行向量而不是列向量)

x是实例的特征向量[feature vector],包含, 总是等于1

· x是和x的点积

是假设函数,使用模型参数θ。

好了,这就是线性回归模型,我们怎么训练它呢?嗯,回想一下,训练一个模型意味着设定它的参数,使模型最适合训练集。为此,我们首先需要测量模型与训练数据的匹配程度。在第二章中,我们发现回归模型最常见的性能度量是均方根误差RMSE)(方程式2-1)。因此,训练一个线性回归模型,你需要找到一个使得RMSE值最小的θ值。在实践中,将平均平方误差(MSE)最小化比RMSE更简单,结果是一样的(最小化一个函数的值也会使它的平方根最小化)。

在数据集X上,线性回归假设函数hθ的MSE可以通过下面的方程4 - 3计算:

方程4 - 3。线性回归模型的MSE代价函数。

这些符号大部分是在第2章中提过(参见第38页的“记号”)。唯一的区别是,我们写的是而不是h,这样就可以清楚地表明模型是由向量θ参数化的。为了简化符号,我们以MSE(θ)来代替MSE(X,)。

results matching ""

    No results matching ""