在推论统计学中,零假设(又译虚无假设、原假设,符号:H0)是做统计检验时的一类假设。H0称之为检验假设,意思是说你要检验的这个假设,H1称之为备择假设。他们两的关系是不能兼容的。这两者只能且必须拒绝一个。假如拒绝H0的话,那么就不能拒绝H1了。
统计学上把保守的、传统的观点作为原假设H0。H0的内容一般是希望能证明为错误的假设,或者是需要着重考虑的假设。新颖的、感兴趣的、想去论证的观点作为备择假设H1。 举例: 一个犯罪嫌疑人,在没有确凿的证据前都只能以他无罪为原假设。 因为一个人无罪判他有罪比有罪判无罪的后果严重的多,大家都不愿被冤枉。 在相关性检验中,一般会取“两者之间无关联”作为零假设。 在独立性检验中,一般会取“两者之间非独立”作为零假设。
第一类错误是:假设H0为真是,犯拒绝H0的错误,这类“弃真”错误称为第一类错误。 第二类错误是:假设H0实际上不真时,有可能接受H0,这类“取伪”的错误称为第二类错误。 当样本容量n固定时,减小犯第一类错误的概率,就会增大犯第二类错误的概率,反之亦然。为什么呢?因为为了减少第一类错误,我们会降低接受H0为真的标准,也就是说看上去不那么真实的时候我们也认为他是真实,从而减小他是真是而被拒绝的概率,那么就会出现当实际情况为不真的时候被我们过于宽泛的条件所囊括,以至于认为真实,犯下第二类错误。反之亦然。我们的做法是控制犯第一类错误的概率。
上述这种只对犯第一类错误的概率加以控制而不考虑第二类错误的概率的检验我们称之为显著性检验。 在进行显著性检验时,犯第一类错误的概率是由我们控制的,α很小,意味着P{当H0为真时拒绝H0}很小,这就保证了H0为真时,错误拒绝H0的可能性很小。这意味着H0是受保护的,也表明H0和H1的地位是不对等的。一般选择两类错误中,后果最严重的错误成为第一类错误。如果没有一类错误的后果严重更需要避免是,常取H0为维持现状。
问题:假设从某总体中抽出样本,当我们判断这个样本是否真的为从整体分布中抽出符合这个总体的时候,会出现两种情况: 原因1:这一样本是从总体抽出,其差别是由抽样误差所致; 原因2:这一样本不是从总体抽出,所以有所不同。 如何判断是那种原因呢?统计学中用显著性检验来判断。其步骤是: (这个 例子可以看完第三部分之后看) ⑴、建立检验假设(又称无效假设,符号为H0):如要比较A药和B药的疗效是否相等,则假设两组样本来自同一总体符合同一种数据概率分布模型,即A药的总体疗效和B药相等,差别仅由抽样误差引起的碰巧出现的。 H0:A药的总体疗效和B药相等,差别仅由抽样误差引起的碰巧出现的。 ⑵、选择适当的统计方法计算H0成立的可能性即概率有多大,概率用P值表示。 ⑶、根据选定的显著性水平(0.05或0.01),决定接受还是拒绝H0。如果P>0.05,拒绝H0认为是因为来自不同数据分布所造成的如此抽样结果犯错可能性很大,接受“差别由抽样误差引起”,即为认可药效之间的差别由误差造成,则接受H0;如果P<0.05或P <0.01,现在这种抽样结果是A药和B药的总体疗效不相等的情况下抽样结果小概率碰巧出现,可以认为差别不由抽样误差引起,可以拒绝H0,则可以接受另一种可能性的假设(又称备选假设,符号为H1),即两样本来自不同的总体,所以两药疗效有差别。
统计推断:首先因为总体数据是不清楚的,我们通过采样等方式进行由样本到总体的推断,
统计检验:一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检验。
它包括两个基本问题:统计估计和假设检验。 统计假设:有关总体分布的未知参数或位置分布形式的种种论断叫做统计假设。 假设检验:人们根据样本所提供的信息来对所考虑的假设做出接受或者拒绝的决策,假设检验就是做出这一决策的过程。
作出假设: 通过把所得到的统计检定值(即为采样值),与概率分布(probability distribution,统计学家建立的一些随机变量的概率分布)进行比较,我们做出虚无假设:被我们采样的数据不符合我们拟合的概率分布。 求出可能性: 我们可以通过概率计算出这种论断假设被拒绝时错误的可能性,以即为知道在多大的机会下会产生这种情况(这种情况是指:我们所做出的假设是正确的,即样本来源的数据分布是不符合拟合的概率分布的,但是被我们拒绝了,即为我们认为数据分布是符合拟合的概率分布的。这个犯错误的机会即为我们认为这个实际数据分布符合我们拟合的概率分布实际上他不符合的概率)。 比较判断: 倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现我们判断错误;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,拒绝虚无假设犯错误的几率很小,就是能够拒绝虚无假设),在这种虚无假设为数据是否具有相关性的论断中我们就认为:如果我们觉得符合概率分布,那这时候所犯错误几率很小,所以认为采样来源的数据和你和概率分布是有相关性的不会出问题。相反,若比较后发现,出现的错误机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
在假设检验中常见到P值( P-Value,Probability,Pr),P值是进行检验决策(拒绝或者接受)的另一个依据。 p值:在原假设成立的前提下,出现与样本相同或者更极端的情况的概率。原假设成立时,出现此时我们采样所得样本的概率越大,说明我们拒绝原有假设是犯错的可能性越大,反之,原假设成立时,出现此时我们采样所得样本的概率越小,说明我们拒绝原有假设是犯错的可能性越小。 p 值是由样本得出的原假设可能被拒绝的显著水平。 P是“拒绝原假设时犯错误概率”又或者说是“如果你拒绝掉原假设实际上是在冤枉好人的概率”。使P{当H0为真时拒绝H0}≤α 其中0≤α≤1是给定的小的数,α称为检验的显著性水平(也即为我们控制第一类错误的裕度)。
α值:是指第一类错误发生的概率裕度(严格说来,分为真实水平level和水平size,大概了解的话不用严加区分,可以直接认为是真实水平level),就是原假设为真的情况下,拒绝了原假设的概率。这是一个值,给定之后,拒绝域也就相应的确定了。
对于任意指定的显著性水平α,就有: 若p小于等于α,拒绝H0犯错的概率就较低,因此H0则在显著性水平α下拒绝H0,接受H1 若p大于α,拒绝H0犯错的概率就较低,即为H0有不少时候是正确的,则在显著性水平α下接受H0 有了这两条结论就能跟方便的确定是否拒绝假设H0,这种利用p值来确定是否拒绝H0的方法,成为p值法。 如果 P<0.01,说明是较强的判定结果,拒绝假定的参数取值。 如果 0.01<P值<0.05,说明较弱的判定结果,拒接假定的参数取值。 如果 P值>0.05,说明结果更倾向于接受假定的参数取值。
不管怎么表达理解上都有点绕,所以还是看例子吧。 比如你做一个假设H0:你的女性朋友平均身高2米,输入你统计的样本数据后,计算机给你返回的p值是0.03。这意味着如果你拒绝“女性朋友平均身高2米”这个结论,犯错的概率是0.03,小于0.05(人们一般认为拒绝一句话时犯错概率小于0.05就可以放心大胆地拒绝了),这个时候你就可以拒绝原假设。如果计算机返回p值是0.9,那么你就会想,这说明拒绝原假设犯错概率高达90%,那么我就不应该拒绝原假设,即你应该认为你的女性朋友平均身高就是2米。