What is Regression?

本文抄袭自那些年的那些偏执的博客

请尊重原创。

一、回归(Regression)

统计学说回归就是一堆数据画到一个图像上 ,实际上,有一个真实的图像。但是从你数据得到的图像和真实的不一样。通过数据越来越多,图像就回到真实的图像了,这就是回归。
这个解释是我觉得最靠谱的解释,合理的揭示了回归的含义——用观察使得认知接近真值的过程,回归本源。

​在我们认知(测量)这个世界的时候,我们并不能得到这个世界的全部信息(真值),只能得到这个世界展现出的可被我们观测的部分信息。那么,如果我们想得到世界的真值,就只能通过尽可能多的信息,从而使得我们的认识,无限接近(回归)真值。

其中,真值的概念是一个抽象的概念(感觉是从统计学中给出的)。真值是真实存在于这个世界的,但是却又永远无法真正得到。因为,无论是受限于我们自身的认知水平,还是测量手段,都会存在偏差,导致无法得到真值。就像海森堡测不准原理一样,永远不可能知道一个确定的真值。再说的扯一点,真值就是我们中国人常说的道。

二、回归分析(Regression analysis)

所谓回归分析,是分析自变量与因变量之间定量的因果关系,并且用回归方程描述。

结合上面所说的回归的含义,我们可以重新对回归分析进行解释。也就是,通过更多的数据(自变量和因变量),使得回归方程的参数更加准确,更能精确地描述自变量和因变量之间的关系。这里的真值是什么呢?就是自变量和因变量之间的关系。我们的认知又是什么呢?就是回归方程的参数。

而这里引入了一个新的概念——因果性。因果性关注的其实就是因和果之间的关系。那么回归分析完成的就是,让我们现有的认知无限接近因和果之间的关系。这里面的因果是一种空间上的因果,而时间上的因果可见后面的自回归(AR)。

由此,我们又可以看出,真值的表现可以通过关系的形式表现。它并不是存在那里的一个向量,而是描述向量之间的关系。就像我们的大脑一样,我们的大脑中并没有一个像电脑一样的存储介质​​来存储记忆。而是,通过数量众多的神经元,组成的繁杂的神经元网络中的联系(关系)来存储的。

三、其他回归

3.1 线性回归(Line Regression)

以线性形式描述回归方程。

3.2 自回归(Audio Regression)

因变量和自变量都为同一个变量的回归方法(我一直好奇为什么不叫(SelfRegression,还省得跟当下大火的增强现实搞混)。

猜你喜欢

转载自blog.csdn.net/hymanjack/article/details/77853656