现象学模型是一种与现有科学理论一致且能够描述各种现象之经验关系,却又无法直接从相关理论推得的科学模型。也就是说,现象学模型并不能直接由第一原理所推得。现象学模型并不能解释诸多物理量之间的互动关系,而仅仅只能用以描述——那些实验数据所无法解释的——关系本身。回归分析通常被用以建立作为现象学模型的概率模型。
自我回归模型,是统计上一种处理时间序列的方法,用同一变数例如
x
{\displaystyle x}
的之前各期,亦即
x
1
{\displaystyle x_{1}}
至
x
t
−
1
{\displaystyle x_{t-1}}
来预测本期
x
t
{\displaystyle x_{t}}
的表现,并假设它们为一线性关系。因为这是从回归分析中的线性回归发展而来,只是不用
x
{\displaystyle x}
预测
y
{\displaystyle y}
,而是用
x
{\displaystyle x}
预测
x
{\displaystyle x}
;因此叫做自我回归。
多重共线性是指一般线性模型线性回归中,变数之间由于存在高度相关关系而使回归分析估计不准确。在该情况下,多元回归的系数可能会因为模型或数据的微小变化发生剧烈改变。在样本数据集中,多重共线性不会影响模型整体的预测能力或信度,它只会影响单个预测值的结果。简而言之,一个包含有共线预测值的多元回归模型可以指示出模型整体的预测可靠程度,但可能无法对单个预测值给出有效结果,也可能无法判断哪些预测值是冗余的。
统计学和最优化中,误差和残差是两个相近但有区别的概念,二者均是统计样本中某一元素的观测值与其“真值”之间的离差的度量。观察的误差是观测值与相关量的真值之间的差值。残差是观测值与统计量的估计值之间的差值。这种区别在回归分析中至关重要,回归分析中,这些概念有时称为回归误差和回归残差,它们引出了学生化残差的概念。
在机器学习中,支援向量机是在分类问题与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。
自我回归模型,是统计上一种处理时间序列的方法,用同一变数例如
x
{\displaystyle x}
的之前各期,亦即
x
1
{\displaystyle x_{1}}
至
x
t
−
1
{\displaystyle x_{t-1}}
来预测本期
x
t
{\displaystyle x_{t}}
的表现,并假设它们为一线性关系。因为这是从回归分析中的线性回归发展而来,只是不用
x
{\displaystyle x}
预测
y
{\displaystyle y}
,而是用
x
{\displaystyle x}
预测
x
{\displaystyle x}
;因此叫做自我回归。
格兰杰因果关系检验是一种假设检定的统计方法,检验一组时间序列
x
{\displaystyle x}
是否为另一组时间序列
y
{\displaystyle y}
的原因。它的基础是回归分析当中的自回归模型。回归分析通常只能得出不同 变量间的同期 相关性;自回归模型只能得出同一 变量前后期 的相关性;但诺贝尔经济学奖得主克莱夫·格兰杰于1969年论证 ,在自回归模型中透过一系列的检定进而揭示不同变量之间的时间落差相关性是可行的。
在模式识别领域中,最近邻居法是一种用于分类问题和回归分析的无母数统计方法。在这两种情况下,输入包含特征空间中的k个最接近的训练样本。
系统识别是利用统计学,从量测到的数据来建构动力系统数学模型的方法。系统识别也包括最佳试验设计,利用回归分析回归分析有效的产生有足够资讯的数据,以及模型降阶等。