统计推断——假设检验——方差分析之多重比较(LSD法、Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法)「建议收藏」

统计推断——假设检验——方差分析之多重比较(LSD法、Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法)「建议收藏」在一个试验中,有个处理平均数间比较时,其全部可能的相互比较对数有个,这种比较是复式比较,亦称多重比较(multiplecomparisons)。为什么要做多重比较呢?方差分析后做多重比较有很多好处:误差由多个处理内的变异合并估计,自由度增大了,因而比较的精确度也增大了。 检验显著,说明可以判定多个处理间存在显著的变异。因此方差分析后再做多重比较,称为Fisher氏保护性多重比较(F…

大家好,又见面了,我是你们的朋友全栈君。

统计推断——假设检验——方差分析之多重比较(LSD法、Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法)「建议收藏」

在一个试验中,有k个处理平均数间比较时,其全部可能的相互比较对数有k(k-1)/2个,这种比较是复式比较,亦称多重比较(multiple comparisons)。

为什么要做多重比较呢?

方差分析后做多重比较有很多好处:

  • 误差由多个处理内的变异合并估计,自由度增大了,因而比较的精确度也增大了。
  • F检验显著,说明可以判定多个处理间存在显著的变异。因此方差分析后再做多重比较,称为Fisher氏保护性多重比较(Fisher’s protected multiple comparisons)。
  • 如果有多个比较,不做F检验的情况下,很有可能有更多的比较是显著的;做了F检验以后,显著的平均数比较会相应减少。
  • 显然,在无F检验保护时,设有4个处理(k=4),需要做6个比较,若各个处理间总体上并无差异,每一比较误判为有差异的概率为0.05,则6个比较中至少有1个被误判的概率为 1-(1-0.05)^{2}=0.2649 。

多重比较有多重方法,本次依次介绍LSD法Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法等。

LSD法

LSD法全称least significance difference,即最小显著差异法。由Fisher最先提出,本质上是一种t检验。通常用于1对或者几对专业上有特殊意义的样本均数间的比较。

为了更好的理解LSD法的计算原理,我们首先回顾两独立样本t检验的:

t=\frac{\overline{X_{1}}-\overline{X_{2}}}{\sqrt{S_{c}^{2}(\frac{1}{n_{1}}+\frac{1}{n_{2}})}}

其中 S_{c}^{2} 是两个样本的联合估计的方差(满足样本方差齐的前提下),本质就是组内误差的均方,该统计量服从自由度为N-2t分布。

S_{c}^{2}=\frac{(n_{1}-1)S_{1}^{2}+(n_{2}-1)S_{2}^{2}}{n_{1}+n_{2}-2}

与上述类似,LSD法也进行的是两两比较的t检验。所不同的是,在满足方差齐性的前提下,LSD法采用所有样本的联合方差来估计均数差的标准误,而不是要比较的两个样本的联合方差。以三样本之间均数差异比较为例,其公式为

S_{c}^{2}=\frac{(n_{1}-1)S_{1}^{2}+(n_{2}-1)S_{2}^{2}+(n_{3}-1)S_{3}^{2}}{n_{1}+n_{2}+n_{3}-3}

LSD法往往计算最小显著差异,即

LSD=t_{\alpha /2}\sqrt{S_{c}^{2}(\frac{1}{n_{1}}+\frac{1}{n_{2}})}

当两组均数差大于LSD时,说明差异达到显著的水平,也就可以拒绝零假设,认为两组均数不相等。需要注意的是,LSD法单次比较的检验水准仍然为\alpha。LSD法检验的灵敏度最高,但是会因为对比的频数增加使得第一类型错误概率增加。为解决该问题,便出现了Sidak法和Bonferroni法。

Sidak法

Sidak法的也是一种t检验,计算公式和LSD法的相同。但是Sidak法对\alpha进行了调整。其调整方法如下:如果有k组,对k组进行两两比较的次数为

c=\frac{k(k-1)}{2}

那么做完c次比较,累积犯一类错误的概率为:

1-(1-\alpha _{\alpha })^{c}

令上面的公式值等于0.05,由此可以反推出调整后的 \alpha _{\alpha } ​ 。例如进行6次事后比较,则Sidak法的​\alpha _{\alpha }=0.0085,以 \alpha _{\alpha } 作为单次比较的显著性水平,显然 \alpha _{\alpha } 变小了。由于 \alpha _{\alpha } ​减小,结论趋于接受无效假设,因此该方法要比LSD法保守的多

Bonferroni法

Bonferroni法与Sidak法类似,同样是在LSD法的基础上对\alpha进行了调整。其调整方法基于Bonferroni不等式。若有k组,其计算公式为

\alpha _{\alpha }=\frac{\alpha }{k}

一般认为Bonferroni法是最为保守的,仍然以上面例子来说明。若进行6次比较,则Bonferroni法的调整​\alpha _{\alpha }=0.0083,比上面的sidak法还要小。事实上,当比较的次数不多时,该方法效果比较好,当比较次数较多时(如k>10),该方法对​ \alpha 的调整有些矫枉过正,效果不如Sidak法。

Dunnett法

Dunnett法检验统计量为 t_{d} ​,故又称为Dunnett-t检验,实际上该方法的计算与LSD法相同,但是LSD法临界值表基于t分布,而该方法有特殊的临界值表 ,通常用于多个实验组和一个对照组均数的比较。

Tukey法

在介绍Tukey方法前,首先了解学生化极差分布。

在概率论和统计学中,学生化极差分布是极差的抽样分布。该分布是一种连续型概率分布,用于在样本量较小且总体标准差未知的情况下估计正态分布总体的极差。

假设要比较的组数为k,那么在零假设成立的条件下,下面的随机变量服从学生化极差分布。

q=\frac{\overline{X}_{max}-\overline{X}_{min}}{\sqrt{\frac{S_{c}^{2}}{n}}}

公式中分子分别是最大和最小样本的均值, S_{c}^{2} ​是所有样本的联合方差 ,n为每个样本的样本含量。该统计量有两个自由度,分别为kn-k

Turkey的HSD (Honestly significant difference)是基于学生化极差的成对比较。其思想和LSD方法类似,通过计算HSD统计量,如果两组均数的差异大于该极差,认为差异是显著的,因此拒绝零假设,认为两组均数不同。计算临界HSD的公式为

HSD=q_{\alpha }(k,\nu )\sqrt{\frac{S_{c}^{2}}{n}}

k为组数,\nu为联合方差的自由度,即N-kn为每个样本的样本含量。从HSD公式上看,Tukey法较LSD法保守,即较LSD不易发现显著差异。Tukey法要求比较的样本容量相差不大,一般用于样本容量相同的组之间均数的比较

SNK 法

SNK法全称Newman–Keuls 或者 Student–Newman–Keuls,属于复极差法(multiple range test),也称为q检验。该方法是对Tukey法的修正,也用的是学生化极差统计量。但是与Tukey法所不同的是,该方法在计算临界值时考虑了两样本均数排序的步长。因而不同步长的两个样本均数的比较使用不同的q临界值

例如比较三个样本均数,样本均数从小到大排列后,如果比较最大均数和最小均数的差异,两者的步长为3(此时计算的临界值等于HSD),若比较最小均数和第二个均数,步长为2。根据步长和自由度查q临界值表,计算相应的q临界值,即最小显著极差,进而判断均数差异的显著性。

W_{r}=q_{\alpha }(r,\nu )\sqrt{\frac{S_{c}^{2}}{n}}W_{r}=q_{\alpha }(r,\nu )\sqrt{\frac{S_{c}^{2}}{2}(\frac{1}{n_{1}}+\frac{1}{n_{2}})}

r为组间步长,其他字母含义同Tukey法。可以发现Tukey法不管要比较的均数相差几步都使用相同(且为最大)的临界值,而SNK法则考虑了步长,并且随着步长r的减小, W_{r} ​也在减小,因而SNK法较Tukey法灵敏(更容易发现显著差异)。另外,对所有r>2,均有 LSD< W_{r} ​,因而SNK法又不及LSD法灵敏。

Duncan法

SNK法不同步长下的最小显著极差变幅大,虽然减小了犯Ⅰ类错误的概率,但是同时增加了犯Ⅱ类错误的概率。

Duncan法的全称为Duncan’s new multiple range test (MRT),也称为新复极差法。该方法是对SNK法的修正,但是提高了一类错误概率,降低了二类错误的概率,通常用于农业研究。该方法与SNK法相似,区别在于计算最小显著极差时,不是查q表,而是查SSR表,所得最小显著极差值随着k增大通常比SNK检验的小。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/130234.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 数仓分层ods_跨境电商国内中转仓

    数仓分层ods_跨境电商国内中转仓一、ods层介绍1、保持数据原貌不做任何修改,起到备份数据的作用。2、数据采用LZO压缩,减少磁盘存储空间。100G数据可以压缩到10G以内。3、创建分区表,防止后续的全表扫描,在企业开发中大量使用分区表。4、创建外部表,在企业开发中,除了自己用的临时表,创建内部表外,绝大多数场景都是创建外部表。二、用户行为数据1、启动日志表ods_start_log//创建启动日志…

    2022年10月6日
    1
  • 感知机的对偶形式「建议收藏」

    感知机的对偶形式「建议收藏」首先声明感知机的对偶形式与原始形式并没有多大的区别,运算的过程都是一样的,但通过对偶形式会事先计算好一些步骤的结果并存储到Gray矩阵中,因此可以加快一些运算速度,数据越多节省的计算次数就越多,因此比原始形式更加的优化。首先我们介绍一下感知机的原始形式,之后与其对比。感知机感知机是二类分类的线性分类模型,输入为实例的特征向量,输出为实例的类别,分别去+1和-1两值。感知机对应与输入空间中将实例划

    2022年10月20日
    0
  • php配合jquery实现增删操作建议收藏

    后台使用php,前台引用jquery,实现增删操作,代码如下:124748495051525354575861">删除626364

    2021年12月20日
    41
  • JAVA不可变类(immutable)机制与String的不可变性

    JAVA不可变类(immutable)机制与String的不可变性JAVA不可变类(immutable)机制与String的不可变性

    2022年4月23日
    54
  • SpringBoot+MyBatisPlus+Thymeleaf+AdminLTE增删改查实战

    SpringBoot+MyBatisPlus+Thymeleaf+AdminLTE增删改查实战说明AdminLTE是网络上比较流行的一款Bootstrap模板,包含丰富的样式、组件和插件,非常适用于后端开发人员做后台管理系统。因为最近又做了个后台管理系统,这次就选的是AdminLTE做主题模板发现效果不错,这里我把最核心的SpringBoot如何集成AdminLTE实现增删改查的源码提供出来,需要的朋友可以参考而少走弯路。实现效果技术选型前端:Thymeleaf+Bootstrap+AdminLTE+插件后端:SpringBoot2.0+Mybatis-Plus数据库:

    2022年7月27日
    12
  • 二进制运算的补码规则是什么_二进制补码符号位参与运算吗

    二进制运算的补码规则是什么_二进制补码符号位参与运算吗本文的直接思路来源是:https://www.codeproject.com/Articles/874396/Crunching-Numbers-with-AVX-and-AVXForexample,supposeavectorcontainssignedbytes,sothemaximumvalueforeachelementis127(0x7F).If…

    2022年9月22日
    0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号