1、P 值的意义:有显著性差异统计学意义(P 值)结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,P 值为结果可信程度的一个递减指标,P 值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。P 值是将观察结果认为有效即具有总体代表性的犯错概率。如P=0.05 提示样本中变量关联有 5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约 20 个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。 (这并不是说如果变量间存在关联,我们可得到 5%或 95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的
2、可能性与设计的统计学效力有关。 )在许多研究领域,0.05 的 P 值通常被认为是可接受错误的边界水平。如何判定结果具有真实的显著性在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生 P 值的结果0.05 被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果 0.05P0.01 被认为是具有统计学意义,
3、而0.01P0.001 被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。所有的检验统计都是正态分布的吗?并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如 t 检验、f 检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了, (参阅非参数和方差分析的正态性检验) 。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验) ,但这种方法不方便,因为从它所提供
4、的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态统计分析软件中的 F 值、 P 值有何现实意义(简单明了)?F 值是方差分析中的一个指标,一般方差分析是比较组间差异的。 F 值越大,P 值越小,表示你的结果越可靠。比如,你的结果表明三组之间差别有统计学意义, P 值如果等于0.01,表示有 1-0.01=0.99 即 99%的把握认为你的结论是正确的。
5、T 检验、F 检验和统计学意义(P 值或 sig 值)(转载)1,T 检验和 F 检验的由来一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很 少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设 null hypoth
6、esis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没 能确定。F 值和 t 值就是这些统计检定值,与它们相对应的概率分布,就是 F 分布和 t 分布。统计显著性(sig)就是出现目前样本这结果的机率。2,统计学意义(P 值或 sig 值)结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p 值为结果可信程度的一个递减指标,p 值越大,我们越不能认为样本中变量的关联 是总体中各变量关联的可靠指标。p 值是将观察结果认为有效即具有总体代表性的犯错概率。如 p=0.05提示样本中变量关联有 5%的可能
7、是由于偶然性造成 的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约 20 个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是 说如果变量间存在关联,我们可得到 5%或 95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研 究领域,0.05 的 p 值通常被认为是可接受错误的边界水平。3,T 检验和 F 检验至於具体要检定的内容,须看你是在做哪一个统计程序。举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的 t 检验。两样本(如某班男生和女生)某变量(如身高) 的均数并不相同,但这差
8、别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这 2 样本的数值不同?为此,我们进行 t 检定,算出一个 t 检定值。与统计学家建立的以总体中没差别作基础的随机变量 t 分布进行比较,看看在多少%的机会(亦即显著性 sig 值)下会得到目前的结果。若显著性 sig 值很少,比如0.05(少於 5%机率),亦即是说,如果总体真的没有差别,那麼就只有在机会很少(5%)、很罕有的情况 下,才会出现目前这样本的情况。虽然还是有 5%机会出错 (1-0.05=5%),但我们还是可以比较有信心的说:目前样本中这情况(男女生出现差异的 情况 )不是巧
9、合,是具统计学意义的, 总体中男女生不存差异的虚无假设应予拒绝,简言之,总体应该存在著差异。每一种统计方法的检定的内容都不相同,同样是 t-检定,可能是上述的检定总体中是否存在差异,也同能是检定总体中的单一值是否等於 0 或者等於某一个数值。至於 F-检定,方差分析( 或译变异数分析,Analysis of Variance),它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。它主要用于:均数差别的显著性检验、分离各有关因素并估计其对总变异 的作用、分析因素间的交互作用、方差齐性(Equality of Variances)检验等情况。3,T 检验和 F 检验的关系t 检验过程,是对
10、两样本均数 (mean)差别的显著性进行检验。惟 t 检验须知道两个总体的方差(Variances)是否相等;t 检验值的计算会因 方差是否相等而有所不同。也就是说,t 检验须视乎方差齐性(Equality of Variances)结果。所以,SPSS 在进行 t-test for Equality of Means 的同时,也要做 Levenes Test for Equality of Variances 。1.在 Levenes Test for Equality of Variances 一栏中 F 值为 2.36, Sig.为.128,表示方差齐性检验没有显著差异,即两方差齐(Eq
11、ual Variances),故下面 t 检验的结果表中要看第一排的数据,亦即方差齐的情况下的 t 检验的结果。2.在 t-test for Equality of Means 中,第一排(Variances=Equal)的情况:t=8.892, df=84, 2-Tail Sig=.000, Mean Difference=22.99既然 Sig=.000,亦即,两样本均数差别有显著性意义!3.到底看哪个 Levenes Test for Equality of Variances 一栏中 sig,还是看 t-test for Equality of Means 中那个 Sig. (2-ta
12、iled)啊?答案是:两个都要看。先看 Levenes Test for Equality of Variances,如果方差齐性检验没有显著差异,即两方差齐(Equal Variances),故接著的 t 检验的结果表中要看第一排的数据,亦即方差齐的情况下的 t 检验的结果。反之,如果方差齐性检验有显著差异,即两方差不齐(Unequal Variances),故接著的t 检验的结果表中要看第二排的数据,亦即方差不齐的情况下的 t 检验的结果。4.你做的是 T 检验,为什么会有 F 值呢?就是因为要评估两个总体的方差(Variances) 是否相等,要做 Levenes Test for Eq
13、uality of Variances,要检验方差,故所以就有 F 值。另一种解释:t 检验有单样本 t 检验,配对 t 检验和两样本 t 检验。单样本 t 检验:是用样本均数代表的未知总体均数和已知总体均数进行比较,来观察此组样本与总体的差异性。配对 t 检验:是采用配对设计方法观察以下几种情形, 1,两个同质受试对象分别接受两种不同的处理;2,同一受试对象接受两种不同的处理;3,同一受试对象处理前后。F 检验又叫方差齐性检验。在两样本 t 检验中要用到 F 检验。从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用
14、t 检验,若不等,可采用 t检验或变量变换或秩和检验等方法。其中要判断两总体方差是否相等,就可以用 F 检验。若是单组设计,必须给出一个标准值或总体均值,同时,提供一组定量的观测结果,应用t 检验的前提条件就是该组资料必须服从正态分布;若是配对设计, 每对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必须 在这样的前提下所计算出的 t 统计量才服从 t 分布,而 t 检验正是以 t 分布作为其理论依据的检验方法。简单来说就是实用 T 检验是有条件的,其中之一就是要符合方差齐次性,这点需要 F 检验来验证。