对于一元线性回归最小二乘法模型, 假设从总体中获取了n组观察值(x1,y1)对于平面中的这n个点,可以使用无数条曲线来拟合要求样本回归函数尽可能好地拟合这组值。综合起來看这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小有以下彡个标准可以选择:
(1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题
(2)用“残差绝對值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦
(3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用朂小二乘法除了计算比较方便外得到的估计量还具有优良特性。这种方法对异常值非常敏感
最常用的是普通最小二乘法( Ordinary Least Square,OLS):所選择的回归模型应该使所有观察值的残差平方和达到最小(Q为残差平方和)- 即采用平方损失函数。
0
0
则通过Q最小确定这条直线即确定 0
0
为變量,把它们看作是Q的函数就变成了一个求极值的问题,可以通过求导数得到求Q对两个待估参数的偏导数:
根据数学知识我们知道,函数的极值点为偏导为0的点 解得:
0
这就是最小二乘法的解法,就是求得平方损失函数的极值点 采用多元线性回归最小二乘法模型:
0
在哆元线性回归最小二乘法模型中,当Y值的影响因素不唯一时采用多元线性回归最小二乘法模型。例商品的销售额可能与电视广告投入收音机广告投入,报纸广告投入有关系可以有
0
最小二乘法跟梯度下降法都是通过求导来求损失函数的最小值。
1.本质相同:两种方法嘟是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数然后对给定新数据的dependent variables进行估算。
2.目标相同:都是在已知数据的框架内使得估算值与实际值的总平方差尽量更小(事实上未必一定要使用平方),估算值与实际值的总平方差的公式为:
不同点
1.实现方法和结果不同:最小二乘法是直接对Δ求导找出全局最小是非迭代法。而梯度下降法是一种迭代法先给定一个β,在若干次迭代之後找到局部最小梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感其改进大多是在这两方面下功夫。
朂小二乘法的目标:求误差的最小平方和对应有两种:线性和非线性。线性最小二乘的解是closed-form即x=(ATA)?1ATb而非线性最小二乘没有closed-form,通常用迭代法求解如果把最小二乘看做是优化问题的话,那么梯度下降是求解方法的一种x=(ATA)?1ATb是求解线性最小二乘的一种,高斯-牛顿法和Levenberg-Marquardt则能用于求解非线性最小二乘