1.线性回归 怎么算
线性回归是利用数理统计中的回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法之一,运用十分广泛。
分析按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。 如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。
如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。数据组说明线性回归 我们以一简单数据组来说明什么是线性回归。
假设有一组数据型态为 y=y(x),其中 x={0, 1, 2, 3, 4, 5}, y={0, 20, 60, 68, 77, 110} 如果我们要以一个最简单的方程式来近似这组数据,则非一阶的线性方程式莫属。先将这组数据绘图如下 图中的斜线是我们随意假设一阶线性方程式 y=20x,用以代表这些数据的一个方程式。
以下将上述绘图的 MATLAB 指令列出,并计算这个线性方程式的 y 值与原数据 y 值间误差平方的总合。 >> x=[0 1 2 3 4 5]; >> y=[0 20 60 68 77 110]; >> y1=20*x; % 一阶线性方程式的 y1 值 >> sum_sq = sum((y-y1).^2); % 误差平方总合为 573 >> axis([-1,6,-20,120]) >> plot(x,y1,x,y,'o'), title('Linear estimate'), grid 如此任意的假设一个线性方程式并无根据,如果换成其它人来设定就可能采用不同的线性方程式;所以我们 须要有比较精确方式决定理想的线性方程式。
我们可以要求误差平方的总合为最小,做为决定理想的线性方 程式的准则,这样的方法就称为最小平方误差(least squares error)或是线性回归。MATLAB的polyfit函数提供了 从一阶到高阶多项式的回归法,其语法为polyfit(x,y,n),其中x,y为输入数据组n为多项式的阶数,n=1就是一阶 的线性回归法。
polyfit函数所建立的多项式可以写成 从polyfit函数得到的输出值就是上述的各项系数,以一阶线性回归为例n=1,所以只有 二个输出值。如果指令为coef=polyfit(x,y,n),则coef(1)= , coef(2)=,。
,coef(n+1)= 。注意上式对n 阶的多 项式会有 n+1 项的系数。
我们来看以下的线性回归的示范: >> x=[0 1 2 3 4 5]; >> y=[0 20 60 68 77 110]; >> coef=polyfit(x,y,1); % coef 代表线性回归的二个输出值 >> a0=coef(1); a1=coef(2); >> ybest=a0*x+a1; % 由线性回归产生的一阶方程式 >> sum_sq=sum(y-ybest).^2); % 误差平方总合为 356.82 >> axis([-1,6,-20,120]) >> plot(x,ybest,x,y,'o'), title('Linear regression estimate'), grid [编辑本段]线性回归拟合方程 最小二乘法 一般来说,线性回归都可以通过最小二乘法求出其方程,可以计算出对于y=bx+a的直线,其经验拟合方程如下: 其相关系数(即通常说的拟合的好坏)可以用以下公式来计算: 理解回归分析的结果 虽然不同的统计软件可能会用不同的格式给出回归的结果,但是它们的基本内容是一致的。我们以STATA的输出为例来说明如何理解回归分析的结果。
在这个例子中,我们测试读者的性别(gender),年龄(age),知识程度(know)与文档的次序(noofdoc)对他们所觉得的文档质量(relevance)的影响。 输出: Source | SS df MS Number of obs = 242 -------------+------------------------------------------ F ( 4, 237) = 2.76 Model | 14.0069855 4 3.50174637 Prob > F = 0.0283 Residual | 300.279172 237 1.26700072 R-squared = 0.0446 ------------- +------------------------------------------- Adj R-squared = 0.0284 Total | 314.286157 241 1.30409194 Root MSE = 1.1256 ------------------------------------------------------------------------------------------------ relevance | Coef. Std. Err. t P>|t| Beta ---------------+-------------------------------------------------------------------------------- gender | -.2111061 .1627241 -1.30 0.196 -.0825009 age | -.1020986 .0486324 -2.10 0.037 -.1341841 know | .0022537 .0535243 0.04 0.966 .0026877 noofdoc | -.3291053 .1382645 -2.38 0.018 -.1513428 _cons | 7.334757 1.072246 6.84 0.000 . ------------------------------------------------------------------------------------------- 输出 这个输出包括一下及部分。
左上角给出方差分析表,右上角是模型拟合综合参数。下方的表给出了具体变量的回归系数。
方差分析表对大部分的行为研究者来讲不是很重要,我们不做讨论。在拟合综合参数中, R-squared 表示因变量中多大的一部分信息可以被自变量解释。
在这里是4.46%,相当小。回归系数 一般地,我们要求这个值大于5%。
对大部分的行为研究者来讲,最重要的是回归系数。我们看到,年龄增加1个单位,文档的质量就下降 -.1020986个单位,表明年长的人对文档质量的评价会更低。
这个变量相应的t值是 -2.10,绝对值大于2,p值也<0.05,所以是显著的。我们的结论是,年长的人对文档质量的评价会更低,这个影响不是显著的。
相反,领域知识越丰富的人,对文档的质量评估会更高,但是这个影响不是显著的。这种对回归系数的理解就是使用回归分析进行假设检验的过程。
2.线性回归法
在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。
这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。
(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)回归分析中有多个自变量:这里有一个原则问题,这些自变量的重要性,究竟谁是最重要,谁是比较重要,谁是不重要。
所以,spss线性回归有一个和逐步判别分析的等价的设置。原理:是F检验。
spss中的操作是“分析”~“回归”~“线性”主对话框方法框中需先选定“逐步”方法~“选项”子对话框如果是选择“用F检验的概率值”,越小代表这个变量越容易进入方程。原因是这个变量的F检验的概率小,说明它显著,也就是这个变量对回归方程的贡献越大,进一步说就是该变量被引入回归方程的资格越大。
究其根本,就是零假设分水岭,例如要是把进入设为0.05,大于它说明接受零假设,这个变量对回归方程没有什么重要性,但是一旦小于0.05,说明,这个变量很重要应该引起注意。这个0.05就是进入回归方程的通行证。
下一步:“移除”选项:如果一个自变量F检验的P值也就是概率值大于移除中所设置的值,这个变量就要被移除回归方程。spss回归分析也就是把自变量作为一组待选的商品,高于这个价就不要,低于一个比这个价小一些的就买来。
所以“移除”中的值要大于“进入”中的值,默认“进入”值为0.05,“移除”值为0.10如果,使用“采用F值”作为判据,整个情况就颠倒了,“进入”值大于“移除”值,并且是自变量的进入值需要大于设定值才能进入回归方程。这里的原因就是F检验原理的计算公式。
所以才有这样的差别。结果:如同判别分析的逐步方法,表格中给出所有自变量进入回归方程情况。
这个表格的标志是,第一列写着拟合步骤编号,第二列写着每步进入回归方程的编号,第三列写着从回归方程中剔除的自变量。第四列写着自变量引入或者剔除的判据,下面跟着一堆文字。
3.怎么求线性回归方程
直接按照题目把所给的几个函数图像画出来(要准确,一般都是几条直线)然后求是直线的上还是下,比如说:x-y-1>0,那就先把直线x-y-1=0画出来再代个点(不要是这条直线上的点)进去,比如说(0,0)带进去,得到“0-0-1>0”显然不成立。
(0,0)在这条直线的上方,不成立,所以x-y-1>0是代表在直线x-y-1=0的下方的区域或者:把x-y-1>0换成y很容易看出来y同样地,其它的区域也是照着这么画。注意因为是“>”“画完之后,因为“{”表示交集的意思,所以你真正最后所要画的是这几个区域都有覆盖的区域高考题一般就是给你的区域求出来后是个三角形,于是就有这片区域的界限和顶点了基本常见的题型是目标函数z=f(x,y)。
以下举例:求出来后这个区域的三个顶点为(1,1)、(1,3)、(2,2),边界上的每个点都可以取得到一般逃不过这3种考法:①.z=ax+by型:首先要先知道,初中所谓的一般一次函数方程y=kx+b与y轴的交点是(0,b),斜率k比如说:z=2x+y解法:y= -2x-z与y轴的交点是(0,-z),斜率为-2 (若出现因为不知道-z的值,所以难以下手的问题,不要急,先画直线y=-2x) 画出直线y=-2x后,再将这条直线上下平移,保证直线经过这片区域,看看符合的直线y=-2x-z的极限是哪两条。(平移的时候可以用尺子的就很容易看出来了) 看得出来,当直线过点(1,1)与(2,2)取得“极限”, 带进去,当直线经过点(1,1)的时候交y轴于最低点(0,-z1),经过点(2,2)与y轴交于最高点(0,-z2) 从而求出z1,z2 或者直接将(1,1)与(2,2)带进去求得这两个“z ”的大小,求的一个z是-3,一个是-6,于是z∈[-6,-3]以此类推。
②.z=(ax+b)/(cy+d)型: 基本概念:过点(x1,y1)与(x2,y2)(x1≠x2)的直线斜率k=(y1-y2)/(x1-x2)=(y2-y1)/(x2-x1) 比如z=y/(x+1) 就看成是z=(y-0)/(x - -1) z是过点(x,y)与(-1,0)的直线的斜率,其中(x,y)在区域内,另一个点是 定点(0,-1) 所以就先将(-1,0)标出来,用尺子移动这个斜率且过这个定点,就可以看出来,过点(1,1)时斜率最小,过点(1,3)时斜率最大 将这两个点带进去就行了。
反之,如果是z=(x+1)/y,就把z看做是过定点(-1,0)的斜率的倒数。正数范围内,数越大,倒数越小,所以。
③.z=(x-a)²+(y-b)²型: 基本知识:(x-a)²+(y-b)²=r²表示圆心为点(a,b)、半径为r的圆(如果r=0,就表示点(a,b)) 比如说,z=(x-1)²+(y-1)²是圆心为点(1,1)、半径为根号z的圆(或点),因此一下子就看出来z∈[0,√2](注意这个圆(或点)必须过这片区域) 有的并不是这么容易看出来的,比如说z=x²+y²圆心在(0,0),那么半径的最值一定是当这个圆经过区域的顶点的时候取到的。
(如果想知道为什么就自己找几个试试看看)所以将点(1,1)、(1,3)、(2,2)带进去,算出这三个z哪个最大哪个最小,这就是z的取值范围以上的这两个例子都是圆心不在区域里面的情况,如果是在这个三角形里面的话,那么最小值就是0,最大值同样还是经过点(1,1)或(1,3)或(2,2)时取到的,同样三个点带进去,就求出三个z的值,比较出里边的最大值z0,那么z∈[0,z0]对于第二点,我再次提醒一下,我举的那个例子是在保证斜率>0的情况下才这么好看出来。有时候这个区域会在x轴下方,甚至是一部分在上方,一部分在下方。
这就需要熟练记住直线斜率的规则了:(记直线y=kx)k=0时,直线与x轴重合,k>0【想象一下用一只手将直线在y轴的右侧开始往上掰】时直线是上升的,越倾斜的直线,斜率就越大,然后无限趋近于y轴时斜率为+∞越过y轴后,k立马变为-∞,再将这个直线(在y轴左侧)往下“掰”,k又从-∞逐渐增大。k越过y轴后,k立马变为+∞,再将这个直线(在y轴左侧)往上“掰”,k又从+∞逐渐减小。
讲了这么多,应该还能撑得住吧???希望贵君能理解 最后说一下:一般关于现行回归的题目有可能会给你的是应用题,那就要像初中的物理一样先列出“已知”:就是依据题意设几个数(x与y等),从题目的已知条件中列出x与y等的关系式,再用上述的方法求。要注意:x与y本身也是有范围的,要写明。
4.线性回归方程怎么算啊
文科解法:1~~把几个不等式先拿出来(含X·Y),然后把不等号变成等号;
2~~将几个“等式”两两相组合进行联解,象解2元1次方程组一样求出答案;
3~~将上面求出的答案分别带进目标函数(别别告诉我你不知道什么叫做目标函数)得出Z的值。
4~~然后再看你是要最大值还是最小值即可。
理科解法:和文科很相似,就是1~~把不等式画在同一个平面坐标系中,再把目标函数也画进去,看其他图和目标函数图的交点,哪一个才是你需要的(即文科的最大值还是最小值)。
虽然理科的复述很简单,但是在考试中很麻烦容易犯错,如如果数据稍微一大,则很不好解决,即使是理科生,也经常使用的文科解法。望LZ采纳。
5.多元线性回归如何做图
多元线性回归在工作表格上进行。 Origin 默认工作表格的第一列为因变量(Y),所
选择的列为自变量(X),多元线性回归模型如下:Y=A+B1X1+B2X2+。+BkXk。
欲在工作表格进行多元线性回归, 先选择自变量的列, 然后选择 Analysis:Multiple
Regression 命令, 该菜单命令打开一个 Attention 对话框确认数据的选择和自动指认正
确,单击 OK按钮完成回归。回归结果和 ANOVA 表显示在 Results Log 窗口。其中包括:
A, B1, B2 等:参数估计值和误差
t-value:t 检验
p-value:The corresponding p-values.
R-square:R-square = (SYY-RSS)/SYY.