2024年1月10日发(作者:福建专升本以前高等数学试卷)
统计学意义(p值)
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。
如何判定结果具有真实的显着性
在最后结论中判断什么样的显着性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两>比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果≤0.05被认为是统计学意义的边界线,但是这显着性水平还包含了相当高的犯错可能性。结果0.05≥p>0.01被认为是具有统计学意义,而0.01≥p≥0.001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。
所有的检验统计都是正态分布的吗
并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。
F值和p值是方差分析里面对模型和模型的系数进行显着性检验得到的结果,表明模型的显着性,若显着,则说明该模型是有效的,一般小于0.05算是比较显着的,而F值越大说明模型也是越显着的;但是没有确定的标准,看你的结果模型算是有效的模型。这是由自己设置F检验的置信区间决定的。F检验设为95%自信(即1-alpha(0.05)0.05),那么小于0.05的p值即为置信。如果置信度增大,如99%,那么P值要小于该置信对应的alpha值(0.01)才表明显着。
这里是因素第水平的效应,是因素第水平的效应,是与的交互作用的效应.这个模型假定所有的效应都是常数,这种模型称为固定效应模型.这种效应模型的前提是,在试验中因素的每一水平都是人为选定的.除了效应是固定的常数外,还有另一种情况.如果我们把因素的水平看成一个总体,而试验中所取的水平是从这个因素水平总体中抽取的一个随机样本,这时,效应不再是固定的数,而是随机变量,这种效应模型称之为随机效应模型.方差分析按照效应来分可分为以下三种:
1.固定效应模型,简称模型Ⅰ.试验中所有因素的水平都是人为选定的,因此它们的效应都是常数.
2.随机效应模型,简称模型Ⅱ.试验中所有因素的水平都是随机选取的,因此它们的效应都是随机变量.
3.混合效应模型,简称模型Ⅲ.试验中有一部分因素的水平是人为选定的,另一部分因素的水平是随机选取的,因此模型中有些效应是随机变量,有些是常数.
对于固定效应模型的统计分析在前几节已详细说明了,在此不再赘述.以下我们不妨以双因素试验为例,分别讨论随机效应模型和混合效应模型的统计分析.
失拟项(Lackoffit)是用来评估方程可靠性的一个重要数据,如果显着表明方程模拟的不好需要调整,如果不显着表明方程模拟的比较好,可以很好的分析以后的数据。
方差分析(AnalysisofVariance,简称ANOVA),又称“变异数分析”或“F检验”
样本标准偏差的平方,即(“^2”是表示平方):
S^2=∑(X-X平均)^2/(n-1)
两组数据就能得到两个S^2值,S大^2和S小^2
F=S大^2/S小^2
由表中f大和f小(f为自由度n-1),查得F表,
然后计算的F值与查表得到的F表值比较,如果
F F≥F表表明两组数据存在显着差异 F表值参见如下: 方差分析:根据不同需要把某变量方差分解为不同的部分,比较它们之间的大小并用F检验进行显着性检验的方法。又称“变异数分析”或“F检验”,是用于两个及两个以上样本均数差别的显着性检验。? F值是两个均方的比值[效应项/误差项],不可能出现负值。 F值越大[与给定显着水平的标准F值相比较]说明处理之间效果[差异]越明显,误差项越小说明试验精度越高。 方差分析中的MS,SS,F,DF分别是什么意思 (2011-06-2213:24:38) 转载 标签:? 分类:?数学知识 杂谈 方差分析中的MS,SS,F,DF分别是什么意思 方差分析只能判别该因素是否存在显着影响,而不能通过之间的F值来判断影响效果的大小关系,F值的大小和对应的概率值大小说明的是一个意义,而且对于不同的F值大小,存在不同的自由度,而不同的自由度之间是不能相互比较F值的。 “*”对应的是显著性水平。 如果我没有记错的话,“**”代表在0.01显著性水平下显著;“*”代表在0.5显著性水平下显著,“.”代表在0.1的显著性水平下显著。 你看到的参考文献带“*”,说明它在0.05的显著性水平下显著。 你的什么符号都不带,说明你的结果不显著。 DF degreefreedom自由度 SS Stdevsquare方差 MS Meansquare 均方差 方差分析:根据不同需要把某变量方差分解为不同的部分,比较它们之间的大小并用F检验进行显著性检验的方法。又称“变异数分析”或“F检验”,是用于两个及两个以上样本均数差别的显著性检验。 F值是两个均方的比值[效应项/误差项],不可能出现负值。 F值越大[与给定显著水平的标准F值相比较]说明处理之间效果[差异]越明显,误差项越小说明试验精度越高。 来源-表明变异源,来自因子、交互作用或误差。其合计是所有来源的汇总。 • DF-每个来源的自由度。如果因子具有三个水平,则自由度为2(n-1)。如果总共有30个观测值,则总自由度为29(n-1)。 • SS-组间平方和(因子)以及组内平方和(误差)。 • MS-平方和除以自由度得出的均方。 • -通过将因子MS除以误差MS来计算;可以将此比率与在表中找到的临界 进行比较,或者可以使用p值来确定某个因子是否显著。 • P-用于确定某个因子是否显著;通常与alpha值0.05进行比较。如果p值低于0.05,则该因子是显著的。 单因子表 假设您运行一个来确定三种不同颜色的宣传单中哪种能产生最大的销售额。您设置,使因子为“宣传单颜色”,并具有三个水平“黑白”、“红色”和“黄色”。响应变量为检验期间(10周)的周销售额。由于只检验一个因子,因而使用单因子。 来源 因子 误差 合计 DF 2 27 29 2060002 SS MS P 76296 136.82 0.000 p值0.000表明颜色因子是显著的。 对于双因子,将有两个因子和一个交互作用项。对于DOE和回归应用,可以有多个因子(或变异源)。 F大于等于F0.05,代表方程显著,F大于等于F0.01,代表方程极显著。若F小于F0.05,代表了方程不显著,没意义。 模型的选择:拟合选定模型的主要任务是根据整个试验的目的,选定一个数学模型。通常首先可以选定“全模型”,就是在模型中包含全部因子的主效应及全部因子的二 阶交互效应。在经过细致的分析之后,如果发现某些主效应和二阶交互效应不显 著,则在下次选定模型的时候,应该将不显著的主效应和二阶交互效应删除,看方差分析表中的失拟现象。方差分析表中,失拟项的P值为0.709,无法拒绝原假设,认为回归方程并没有因为漏掉高阶交互作用项而产生失拟现象。 p值说的是你算出来的一个检验变量所对应的概率值,比如算出来p值是10%,说的就是,你如果以此为界拒绝原假设的话,那么有10%的可能性要犯错误,就是说本来原假设对,但是你却给拒绝了.所以说p值越大,拒绝原假设的理由越不充分,有时候p值算出来接近0,就说明,你以这个数为界,如果拒绝原假设,那么你不可能犯错误,就说明你这个数字非常不符合原假设.是不是很绕啊?!假设检验,是在假定原假设为真的基础上进行的,根据统计量概率分布,按照事先确定的显著性水平,确定临界值,划分拒绝和接受域。 p值小于既定的显著水平,则小于既定概率,则为拒绝原假设啦p值是在原假设为真的基础上计算出的事件出现的概率,小于5%,认为出现了小概率事件,因此认为在原假设为真时,不可能出现此种事件,所以拒绝原假设
更多推荐
模型,检验,效应
发布评论