加权最小二乘法是对原模型进行加权,使之成为一个新的不存在异方差性的模型,然后采用普通最小二乘法估计其参数的一种数学优化技术。
线性回归的假设条件之一为方差齐性,若不满足方差齐性(即因变量的变异程度会随着自身的预测值或者其它自变量的变化而变化)这个假设条件时,就需要用加权最小二乘法(WLS)来进行模型估计。
加权最小二乘法(WLS)会根据变异程度的大小赋予不同的权重,使其加权后回归直线的残差平方和最小,从而保证了模型有更好的预测价值。
扩展资料
在多重线性回归中,我们采用的是普通最小二乘法(OLS)估计参数,对模型中每个观测点是同等看待的。但是在有些研究问题中,例如调查某种疾病的发病率,以地区为观测单位,地区的人数越多,得到的发病率就越稳定,因变量的变异程度就越小,而地区人数越少,得到的发病率就越大。
在这种情况下,因变量的变异程度会随着自身数值或者其他变量的变化而变化,从而不满足残差方差齐性的条件。
为了解决这个问题,我们采用加权最小二乘法(WLS)的方法来估计模型参数,即在模型拟合时,根据数据变异程度的大小赋予不用的权重,
对于变异程度较小,测量更准确的数据赋予较大的权重,对于变异程度较大,测量不稳定的数据则赋予较小的权重,从而使加权后回归直线的残差平方和最小,确保模型有更好的预测价值。
参考资料来源:百度百科-加权最小二乘法
基本思想是要进行加权。
一般最小二乘法将时间序列中的各项数据的重要性同等看待,而事实上时间序列各项数据对未来的影响作用应是不同的。
一般来说,近期数据比起远期数据对未来的影响更大。因此比较合理的方法就是使用加权的方法,对近期数据赋以较大的权数,对远期数据则赋以较小的权数。
【异方差性:异方差性(heteroscedasticity )是相对于同方差而言的。所谓同方差,是为了保证回归参数估计量具有良好的统计性质,经典线性回归模型的一个重要假定:总体回归函数中的随机误差项满足同方差性,即它们都有相同的方差。如果这一假定不满足,即:随机误差项具有不同的方差,则称线性回归模型存在异方差性。对于异方差性的回归问题,需要用到加权最小二乘法。】
有时候因变量的变异程度随着某些指标的改变而改变,如股票,高价格的股票波动情况会大一些,而价格低的股票波动情况会小一些。
这时候需要用引起波动的变量来调节变量波动的高低。
基本上就是说假设存在一条直线,使得所有点到这个线距离的总和最小