原理

一元线性回归分析模型(Simple Linear Regression Model)是一种统计方法,用于研究两个连续变量之间的关系:一个因变量(通常记为 (Y))和一个自变量(通常记为 (X))。这个模型假设这两个变量之间存在线性关系,并试图通过最小化预测值与实际观测值之间的差异来拟合一条直线。

残差图作图命令:rcoplot(r,rint)

建模步骤

  1. 数据收集:首先需要收集包含因变量和自变量的数据集。
  2. 模型设定:设定一元线性回归模型的形式,即 (Y = \beta_0 + \beta_1 X + \epsilon)。
  3. 参数估计:使用最小二乘法(Ordinary Least Squares, OLS)等方法来估计未知参数 (\beta_0) 和 (\beta_1)。OLS的目标是找到使残差平方和最小化的参数值,即 (\sum (Y_i - (\beta_0 + \beta_1 X_i))^2) 最小。
  4. 模型评估:评估模型的好坏,包括检查模型的拟合优度(如R²)、进行假设检验(如t检验和F检验)以确定参数是否显著不为零,以及检查残差图来验证模型假设(如误差项的正态性和同方差性)。
  5. 预测:一旦模型被验证为合理且有效,就可以用它来进行预测,即对于给定的 (X) 值,预测相应的 (Y) 值。

注意事项

  • 确保数据满足线性关系的前提条件。
  • 检查是否存在异常点或强影响点,它们可能会对回归系数产生不成比例的影响。
  • 确认不存在多重共线性问题,在一元回归中这不是问题,但在多元回归中这是一个重要的考虑因素。
  • 验证误差项的独立性和同方差性,以及它们是否服从正态分布。

一元线性回归是更复杂的回归分析(如多元线性回归、非线性回归等)的基础。它是理解和学习更多高级统计技术和机器学习算法的良好起点。

代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
% 1、输入数据
%输入X的样本值
x=[143 145 146 147 149 150 153 154 155 156 157 158 159 160 162 164]';
%插入\beta0对应列
X=[ones(16,1) x];
%输入Y的样本值
Y=[88 85 88 91 92 93 93 95 96 98 97 96 98 99 100 102]';

% 2、回归分析及检验:
[b,bint,r,rint,stats]=regress(Y,X);
%输出我们需要的数据
b,bint,stats
%结果:
% b =
% -16.0730
% 0.7194
% bint =
% -33.7071 1.5612
% 0.6047 0.8340
% stats =
% 0.9282 180.9531 0.0000 1.7437
% 即β_0=-16.073 ,β_1=0.7194;
% β_0 的置信区间为[-33.7017 ,1.5612],β_1 的置信区间为[0.6047 ,0.834];
% r_2=0.9282,F=180.9531,p=0.0000
% 由p<0.05,可知回归模型 y=-16.073+0.7194x 成立

% 3、残差分析,做残差图
rcoplot(r,rint)
%从残差图可以看出,除第二个数据外,其余数据的残差离
% 零点均较近,且残差的置信区间均包含零点,这说明回归模型
% y=-16.073+0.7194x能较好的符合原始数据,而第二个数据可视为异常点

% 4、预测及作图
z=b(1)+b(2)*x
plot(x,Y,'k+',x,z,'r')