Least Squares
要理解 least squares,我们决定通过一个最简单的例子,那就是一元线性拟合
我们观测到了
我们现在用找到一条直线来拟合这堆数据
Example
最小二乘的表示形式是 一个 error 表达式
这个式子的本质是 当
我们的优化目标其实就是最小这个 error,这样暗含的就是你找出了一组参数拟合了一个 model,在和目标值的 error 的分布上,是 0 均值,最小方差的。
求解的方法很简单就是对参数
这里可以写成
where
Weighted least squares 则可以表达为
这里
设
这样一组 equations 没有 closed form 的解。
因此用 iteration 的方法来调整参数
这个情况下, 设
residual 可以写成
代入梯度方程
这些梯度方程可以变形为
写成矩阵形式就是
Weighted sum 形式
这也是高斯牛顿迭代法的基本思想,用泰勒级数展开去近似的代替非线性模型,然后通过多次迭代修正系数来逼近。