百科大全

最小二乘法知识

时间:2022-01-27 16:22:31 百科大全 我要投稿

最小二乘法知识

  在估计方法中,最大似然和最小二乘是经常被使用到的,其中的最小二乘更是回归的基础。这就让小编带你回归小二乘法。

最小二乘法知识

  最小二乘法知识 篇1

  最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。

  1801年,意大利天文学家朱赛普·皮亚齐发现了第一颗小行星谷神星。经过40天的跟踪观测后,由于谷神星运行至太阳背后,使得皮亚齐失去了谷神星的位置。随后全世界的科学家利用皮亚齐的观测数据开始寻找谷神星,但是根据大多数人计算的结果来寻找谷神星都没有结果。时年24岁的高斯也计算了谷神星的轨道。奥地利天文学家海因里希·奥尔伯斯根据高斯计算出来的轨道重新发现了谷神星。

  高斯使用的最小二乘法的方法发表于1809年他的著作《天体运动论》中。

  法国科学家勒让德于1806年独立发明“最小二乘法”,但因不为世人所知而默默无闻。

  二乘法(2张) 勒让德曾与高斯为谁最早创立最小二乘法原理发生争执。

  1829年,高斯提供了最小二乘法的优化效果强于其他方法的证明,因此被称为高斯-马尔可夫定理。

  以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的.自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。

  对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

  (1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。

  (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。

  (3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

  最常用的是普通最小二乘法( Ordinary Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

  最小二乘法知识 篇2

  1.什么是最小二乘法?

  很多人都会被“最小二乘法”这个词误导了,不知所云。我觉得从它的英文意思更容易理解。最小二乘法的英文是:least square method,英文直译是平方最小。也就是说,使实际输出与预测输出的平方之和最小。同时最小二乘法也是损失函数(loss function)之一。

  什么是损失函数(loss function)?

  要理解损失函数,首先需要理解损失(loss)。预测值与真实值之差为损失(loss)。描述损失的函数称为损失函数。损失函数常用于衡量模型的好坏。而平方损失函数也就是最小二乘法。

  2.最小二乘法与梯度下降的区别和联系?

  相同点:最小二乘法和梯度下降都是通过求导来求损失函数的最小值。

  不同点:最小二乘法是对△直接求导令成0来求出全局最小,非迭代法。而梯度下降是一种迭代法,先给定一个数值,然后环顾四周,向下降梯度最快的方向调整,在若干次迭代后找到局部最小(相当于贪心算法)。

  梯度下降法的缺点是:到最小的附近收敛变慢,并且对初始点的选择极为敏感。

  最小二乘法的缺点是:不适用于特征向量过多的情况。

【最小二乘法知识】相关文章:

必修三中的最小二乘法01-27

保险知识基础知识归纳08-05

瓷器知识08-11

国学知识07-12

会计基础知识之收入知识03-12

高考物质知识点:电场知识归纳09-29

植物知识体系知识点复习05-19

餐饮消防安全知识方面的知识02-18

知识产权知识竞赛试题及答案08-27