线性回归算法原理(越详细越好)

来源:学生作业帮助网 编辑:六六作业网 时间:2024/12/19 17:02:04
线性回归算法原理(越详细越好)线性回归算法原理(越详细越好)线性回归算法原理(越详细越好)线性回归是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一,运用十

线性回归算法原理(越详细越好)
线性回归算法原理(越详细越好)

线性回归算法原理(越详细越好)
线性回归是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一,运用十分广泛.
  分析按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析.
  如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析.如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析.
  我们以一简单数据组来说明什么是线性回归.假设有一组数据型态为 y=y(x),其中 
  x={0, 1, 2, 3, 4, 5}, y={0, 20, 60, 68, 77, 110} 
  如果我们要以一个最简单的方程式来近似这组数据,则非一阶的线性方程式莫属.先将这组数据绘图如下 
  图中的斜线是我们随意假设一阶线性方程式 y=20x,用以代表这些数据的一个方程式.以下将上述绘图的 MATLAB 指令列出,并计算这个线性方程式的 y 值与原数据 y 值间误差平方的总合. 
  >> x=[0 1 2 3 4 5]; 
  >> y=[0 20 60 68 77 110]; 
  >> y1=20*x; % 一阶线性方程式的 y1 值 
  >> sum_sq = sum(y-y1).^2); % 误差平方总合为 573 
  >> axis([-1,6,-20,120]) 
  >> plot(x,y1,x,y,'o'), title('Linear estimate'), grid 
  如此任意的假设一个线性方程式并无根据,如果换成其它人来设定就可能采用不同的线性方程式;所以我们 须要有比较精确方式决定理想的线性方程式.我们可以要求误差平方的总合为最小,做为决定理想的线性方 程式的准则,这样的方法就称为最小平方误差(least squares error)或是线性回归.MATLAB的polyfit函数提供了 从一阶到高阶多项式的回归法,其语法为polyfit(x,y,n),其中x,y为输入数据组n为多项式的阶数,n=1就是一阶 的线性回归法.polyfit函数所建立的多项式可以写成
  从polyfit函数得到的输出值就是上述的各项系数,以一阶线性回归为例n=1,所以只有 二个输出值.如果指令为coef=polyfit(x,y,n),则coef(1)= , coef(2)=,...,coef(n+1)= .注意上式对n 阶的多 项式会有 n+1 项的系数.我们来看以下的线性回归的示范: 
  >> x=[0 1 2 3 4 5]; 
  >> y=[0 20 60 68 77 110]; 
  >> coef=polyfit(x,y,1); % coef 代表线性回归的二个输出值 
  >> a0=coef(1); a1=coef(2); 
  >> ybest=a0*x+a1; % 由线性回归产生的一阶方程式 
  >> sum_sq=sum(y-ybest).^2); % 误差平方总合为 356.82 
  >> axis([-1,6,-20,120]) 
  >> plot(x,ybest,x,y,'o'), title('Linear regression estimate'), grid
[编辑本段]线性回归拟合方程
  一般来说,线性回归都可以通过最小二乘法求出其方程,可以计算出对于y=bx+a的直线,其经验拟合方程如下: