大数定律、中心极限定理总结

大数定律、中心极限定理总结总结概率论中的大数定律 中心极限定理 方便复试面试复习

写在前面

写一下大数定律,算是复习,也为以后的学习打好基础。本文总结自峁诗松老师的《概率论与数理统计教程(第二版)》及李贤平老师的《概率论基础(第二版)》。一些详细的定理讲解等内容可以从这两本教材中找到,需要资源可以私信我。

为什么要引入大数定律?在大量重复实验中,结果会呈现出明显的规律性,一般可总结为:“概率是频率的稳定值”,用数学语言表示这种稳定性,就是大数定律。

下面先介绍几类收敛,这是之后讨论的前提。

几类收敛

大数定律涉及依概率收敛,中心极限定理涉及依分布收敛

依分布收敛(分布函数的弱收敛)

设随机变量 X ,   X 1 ,   X 2 ,   ⋯ X,\ X_1,\ X_2,\ \cdots X, X1, X2, 的分布函数分别为 F ( x ) ,   F 1 ( x ) ,   F 2 ( x ) ,   ⋯   . F(x),\ F_1(x),\ F_2(x),\ \cdots. F(x), F1(x), F2(x), .若对 F ( x ) F(x) F(x)的任一连续点 x x x,都有
lim ⁡ n → ∞ F n ( x ) = F ( x ) , \lim\limits_{n\rightarrow\infty}F_n(x)=F(x), nlimFn(x)=F(x),
则称 { F n ( x ) } \{F_n(x)\} {
Fn(x)}
弱收敛于 F ( x ) F(x) F(x),记作 F n ( x ) ⟶ W F ( x ) F_n(x)\stackrel{W}{\longrightarrow} F(x) Fn(x)WF(x),也称 { X n } \{X_n\} {
Xn}
依分布收敛(Convergence in distribution)于 X X X,记作 X n ⟶ L X X_n\stackrel{L}{\longrightarrow}X XnLX.

依概率收敛

{ X n } \{X_n\} {
Xn}
为一随机变量序列, X X X为一随机变量,如果对 ∀ ε > 0 \forall \varepsilon>0 ε>0,有
P ( ∣ X n − X ∣ ⩾ ε ) → 0 ( n → ∞ ) , P(|X_n-X|\geqslant\varepsilon)\rightarrow0\quad(n\rightarrow\infty), P(XnXε)0(n),
则称序列 { X n } \{X_n\} {
Xn}
依概率收敛(Convergence in probability)于 X X X, 记作 X n ⟶ P X X_n\stackrel{P}{\longrightarrow}X XnPX.

其含义是,序列 X n X_n Xn X X X的绝对偏差 ∣ X n − X ∣ |X_n-X| XnX小于任意给定量的可能性将随着 n n n的增大而越来越接近 1 1 1, 即
∀ ε > 0 ,   P ( ∣ X n − X ∣ < ε ) → 1 ,   ( n → ∞ ) . \forall \varepsilon>0,\ P(|X_n-X|<\varepsilon)\rightarrow 1,\ (n\rightarrow\infty). ε>0, P(XnX<ε)1, (n).

定理

  1. X n ⟶ P X ⟹ X n ⟶ L X X_n\stackrel{P}{\longrightarrow}X\Longrightarrow X_n\stackrel{L}{\longrightarrow}X XnPXXnLX,说明依概率分布具有更强的形式;
  2. c c c为常数,则 X n ⟶ P c    ⟺    X n ⟶ L c X_n\stackrel{P}{\longrightarrow}c\iff X_n\stackrel{L}{\longrightarrow}c XnPcXnLc .

r r r阶收敛

设对随机变量 X n X_n Xn X X X E ∣ X n ∣ r < ∞ ,   E ∣ X ∣ r < ∞ E|X_n|^r<\infty,\ E|X|^r<\infty EXnr<, EXr<, 其中 r = c o n s t > 0 r=\mathrm{const}>0 r=const>0, 如果
lim ⁡ n → ∞ E ∣ X n − X ∣ r = 0 , \lim_{n\rightarrow \infty}E|X_n-X|^r=0, nlimEXnXr=0,
则称 { X n } \{X_n\} {
Xn}
r \mathbf{r} r阶收敛(Convergence in r-order mean)于 X X X,并记为 X n ⟶ r X X_n\stackrel{r}{\longrightarrow} X XnrX.

定理

  • X n ⟶ r X ⟹ X n ⟶ P X X_n\stackrel{r}{\longrightarrow} X\Longrightarrow X_n\stackrel{P}{\longrightarrow} X XnrXXnPX.

以概率 1 1 1收敛(几乎处处收敛)

大数定律&中心极限定理

大数定律

大数定律讨论的是在什么条件下,随机变量序列的算术平均依概率收敛到其均值的算术平均。

下面这段话摘自Wikipedia,简单介绍了大数定律。大概意思是:大数定律描述了大量重复试验的结果,即结果的平均值应接近预期值,并随着试验次数的增加,结果将趋于预期值。

The law of large numbers (LLN) is a theorem that describes the result of performing the same experiment a large number of times. According to the law, the average of the results obtained from a large number of trials should be close to the expected value and will tend to become closer to the expected value as more trials are performed.

称随机变量序列 { ξ n } \{\xi_n\} {
ξn}
服从大数定律(Law of Large Numbers,LLN),如果存在常数序列 a 1 ,   a 2 ,   ⋯   ,   a n ,   ⋯ a_1,\ a_2,\ \cdots,\ a_n,\ \cdots a1, a2, , an, ,对 ∀ ε > 0 , \forall \varepsilon>0, ε>0,

η n = ξ 1 + ξ 2 + ⋯ + ξ n n \eta_n=\frac{\xi_1+\xi_2+\cdots+\xi_n}n ηn=nξ1+ξ2++ξn

上述大数定律是一种广义的大数定律,下面具体介绍各种不同形式的大数定律。

伯努利(Bernoulli)大数定律

s n s_n sn n n n重伯努利试验中事件 A A A发生的次数, p p p为每次试验中 A A A出现的概率,则对 ∀ ε > 0 \forall\varepsilon>0 ε>0,有
lim ⁡ n → ∞ P ( ∣ s n n − p ∣ < ε ) = 1 \lim_{n\rightarrow\infty}P\left(\left|\frac{s_n}{n}-p\right|<\varepsilon\right)=1 nlimP(nsnp<ε)=1
证明思路:由于 s n ∼ B ( n ,   p ) s_n\sim B(n,\ p) snB(n, p),且 E ( s n n ) = p ,   D ( s n n ) = p ( 1 − p ) n E(\frac{s_n}{n})=p,\ D(\frac{s_n}{n})=\frac{p(1-p)}{n} E(nsn)=p, D(nsn)=np(1p),由此应用切比雪夫不等式 P { ∣ X − E X ∣ < ε } ⩾ 1 − D X ε 2 P\{|X-EX|<\varepsilon\}\geqslant1-\frac{DX}{\varepsilon^2} P{
X
EX<ε}1ε2DX
,以及极限的迫敛性,可以证得结论。

说明:随着试验次数 n n n的增大,事件 A A A发生的频率 s n n \frac{s_n}{n} nsn与其频率 p p p的偏差 ∣ s n n − p ∣ |\frac{s_n}{n}-p| nsnp大于预先给定的精度 ε \varepsilon ε的可能性越来越小,这就是“频率稳定于概率”的含义。

切比雪夫(Chebyshev)大数定律

{ X n } \{X_n\} {
Xn}
为一列两两不相关的随机变量序列,若每个 X i X_i Xi的方差存在,且有共同上界,即 D ( X i ) ⩽ c ,   i = 1 ,   2 ,   ⋯ D(X_i)\leqslant c,\ i=1,\ 2,\ \cdots D(Xi)c, i=1, 2, ,则 { X n } \{X_n\} {
Xn}
服从大数定律。用数学语言表示就是:对 ∀ ε > 0 \forall \varepsilon>0 ε>0
lim ⁡ n → ∞ P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E X i ∣ < ε } = 1 \lim_{n\rightarrow\infty}P\left\{\left|\frac1n\sum_{i=1}^{n}X_i-\frac1n\sum_{i=1}^nEX_i\right|<\varepsilon\right\}=1 nlimP{
n1i=1nXin1i=1nEXi<ε}
=
1

成立。

证明同样采用切比雪夫不等式,并运用方差的上界条件,即可证明。

马尔可夫(Markov)大数定律

对随机变量序列 { X n } \{X_n\} {
Xn}
, 若马尔可夫条件成立,即下式
1 n 2 D ( ∑ i = 1 n X i ) → 0 \frac1{n^2}D\left(\sum_{i=1}^nX_i\right)\rightarrow0 n21D(i=1nXi)0
成立,则 { X n } \{X_n\} {
Xn}
服从大数定律,即对 ∀ ε > 0 \forall \varepsilon>0 ε>0
lim ⁡ n → ∞ P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E X i ∣ < ε } = 1 \lim_{n\rightarrow\infty}P\left\{\left|\frac1n\sum_{i=1}^{n}X_i-\frac1n\sum_{i=1}^nEX_i\right|<\varepsilon\right\}=1 nlimP{
n1i=1nXin1i=1nEXi<ε}
=
1

成立。



一种比切比雪夫大数定律更强的结论,对序列 { X n } \{X_n\} {
Xn}
没有同分布、独立、不相关的假设,可以推出切比雪夫大数定律。

辛钦(Khinchin)大数定律

{ X n } \{X_n\} {
Xn}
为一独立同分布的随机变量序列,若 X i X_i Xi的数学期望存在,则 { X n } \{X_n\} {
Xn}
服从大数定律,即对 ∀ ε > 0 \forall \varepsilon>0 ε>0

lim ⁡ n → ∞ P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E X i ∣ < ε } = 1 \lim_{n\rightarrow\infty}P\left\{\left|\frac1n\sum_{i=1}^{n}X_i-\frac1n\sum_{i=1}^nEX_i\right|<\varepsilon\right\}=1 nlimP{
n1i=1nXin1i=1nEXi<ε}
=
1

成立。

辛钦大数定律没有了序列 { X n } \{X_n\} {
Xn}
的方差一定存在的条件,伯努利大数定律是辛钦大数定律的特例。

泊松(Poisson)大数定律

如果在一个独立试验序列中,事件 A A A在第 k k k次试验中出现的概率等于 p k p_k pk,前 n n n次试验中事件 A A A出现的次数记为 μ n \mu_n μn, 则对 ∀ ε > 0 \forall \varepsilon>0 ε>0,有
lim ⁡ n → ∞ P { ∣ μ n n − p 1 + p 2 + ⋯ + p n n ∣ < ε } = 1. \lim_{n\rightarrow\infty}P\left\{\left|\frac{\mu_n}n-\frac {p_1+p_2+\cdots+p_n}{n}\right|<\varepsilon\right\}=1. nlimP{
nμnnp1+p2++pn<ε}
=
1.

可以导出Poisson分布,是一种区别于伯努利试验的另一种独立试验模型。

中心极限定理

中心极限定理讨论了在怎样的条件下,独立随机变量之和 Y n = ∑ i = 1 n X n Y_n=\sum\limits_{i=1}^n X_n Yn=i=1nXn的极限分布为正态分布

考虑随机变量序列 ξ 1 ,   ξ 2 ,   ⋯   ,   ξ n ,   ⋯ \xi_1,\ \xi_2,\ \cdots,\ \xi_n,\ \cdots ξ1, ξ2, , ξn, 的标准化之和 ζ n \zeta_n ζn ζ n \zeta_n ζn定义如下:

ζ n = ∑ i = 1 n ξ i ∑ i = 1 n E ξ i ∑ i = 1 n D ξ i \zeta_n=\frac{\sum\limits_{i=1}^n\xi_i\sum\limits_{i=1}^nE\xi_i}{\sqrt{\sum\limits_{i=1}^nD\xi_i}} ζn=i=1nDξi
i=1nξii=1nEξi

ζ n \zeta_n ζn满足

lim ⁡ n → ∞ P { ζ n < x } = 1 2 π ∫ − ∞ x e − t 2 2 d t \lim\limits_{n\rightarrow \infty}P\{\zeta_n
nlimP{
ζn<
x}=2π
1
xe2t2dt

则称随机变量序列 { ξ n } \{\xi_n\} {
ξn}
服从中心极限定理(Central Limit Theorem)。

独立同分布情形

林德伯格-列维(Lindeberg-Lévy)中心极限定理

{ X n } \{X_n\} {
Xn}
为一独立同分布的随机变量序列,且 E X i = μ ,   D X i = σ 2 > 0 EX_i=\mu,\ DX_i=\sigma^2>0 EXi=μ, DXi=σ2>0 存在,若记
Y n ∗ = X 1 + X 2 + ⋯ + X n − n μ σ n , Y^*_n=\frac{X_1+X_2+\cdots+X_n-n\mu}{\sigma\sqrt n}, Yn=σn
X1+X2++Xnnμ
,

则对 ∀ y ∈ R \forall y\in \mathbb{R} yR, 有
lim ⁡ n → ∞ P { Y n ∗ ⩽ y } = Φ ( y ) = 1 2 π ∫ − ∞ y e − t 2 2 d t . \lim\limits_{n\rightarrow \infty}P\{Y_n^*\leqslant y\}=\varPhi(y)=\frac1{\sqrt{2\pi}}\int_{-\infty}^{y}\mathrm{e}^{-\frac{t^2}{2}}\mathrm{d}t. nlimP{
Yn
y}=Φ(y)=2π
1
ye2t2dt.



二项分布的正态近似

棣莫弗-拉普拉斯(De Moivre-Laplace)中心极限定理

n n n重伯努利试验中,事件 A A A在每次试验中出现的概率均为 p p p n n n次试验中事件 A A A出现的次数记为 s n s_n sn,并记
Y n ∗ = s n − n p n p q , Y_n^*=\frac{s_n-np}{\sqrt{npq}}, Yn=npq
snnp
,

则对 ∀ y ∈ R \forall y\in \mathbb{R} yR, 有

lim ⁡ n → ∞ P { Y n ∗ ⩽ y } = Φ ( y ) = 1 2 π ∫ − ∞ y e − t 2 2 d t . \lim\limits_{n\rightarrow \infty}P\{Y_n^*\leqslant y\}=\varPhi(y)=\frac1{\sqrt{2\pi}}\int_{-\infty}^{y}\mathrm{e}^{-\frac{t^2}{2}}\mathrm{d}t. nlimP{
Yn
y}=Φ(y)=2π
1
ye2t2dt.

应用
  1. 由棣莫弗-拉普拉斯中心极限定理,可以导出下面的近似式

P { Y n ∗ ⩽ y } ≈ Φ ( y ) = β , P\{Y_n^\ast\leqslant y\}\approx\varPhi(y)=\beta, P{
Yn
y}Φ(y)=β,

只需要知道其中两个变量,即可求出第三个(查正态分布表)。

  1. 导出伯努利大数定律。

独立不同分布情形

林德伯格中心极限定理
林德伯格条件

{ X n } \{X_n\} {
Xn}
是一个相互独立的随机变量序列,且有有限的数学期望和方差:
E ( X i ) = μ i , D ( X i ) = σ i 2 , i = 1 ,   2 ,   ⋯ E(X_i)=\mu_i,\quad D(X_i)=\sigma_i^2,\quad i=1,\ 2,\ \cdots E(Xi)=μi,D(Xi)=σi2,i=1, 2, 并设随机变量之和 Y n = ∑ i = 1 n X n Y_n=\sum\limits_{i=1}^nX_n Yn=i=1nXn,其标准化为
Y n ∗ = ∑ i = 1 n X i − μ i σ ( Y n ) , Y_n^*=\sum_{i=1}^n\frac{X_i-\mu_i}{\sigma(Y_n)}, Yn=i=1nσ(Yn)Xiμi,则对 ∀ τ > 0 \forall \tau>0 τ>0,有
lim ⁡ n → ∞ 1 τ 2 σ 2 ( Y n ) ∑ i = 1 n ∫ ∣ x − μ i ∣ > τ σ ( Y n ) ( x − μ i ) 2 p i ( x ) d x = 0 , (1) \lim_{n\rightarrow \infty}\frac1{\tau^2\sigma^2(Y_n)}\sum_{i=1}^n\int_{|x-\mu_i|>\tau\sigma(Y_n)}(x-\mu_i)^2p_i(x)\mathrm{d}x=0, \tag{1} nlimτ2σ2(Yn)1i=1nxμi>τσ(Yn)(xμi)2pi(x)dx=0,(1) ( 1 ) (1) (1)式为林德伯格条件。林德伯格证明了满足 ( 1 ) (1) (1)式的 Y n ∗ Y_n^* Yn的极限分布是正态分布,即下面的林德伯格中心极限定理


林德伯格中心极限定理

设独立随机变量序列 { X n } \{X_n\} {
Xn}
满足林德伯格条件,则对 ∀ x \forall x x,有
lim ⁡ n → ∞ P { 1 σ ( Y n ) ∑ i = 1 n ( X i − μ i ) ⩽ x } = 1 2 π ∫ − ∞ x e − t 2 2 d t . \lim_{n\rightarrow\infty}P\left\{\frac1{\sigma(Y_n)}\sum_{i=1}^n(X_i-\mu_i)\leqslant x\right\}=\frac1{\sqrt{2\pi}}\int_{-\infty}^x\mathrm{e}^{-\frac{t^2}{2}}\mathrm{d}t. nlimP{
σ(Yn)1i=1n(Xiμi)x}
=
2π
1
xe2t2dt.

注记
若独立随机变量序列 { X n } \{X_n\} {
Xn}
满足同分布、方差有限的条件,则必满足 ( 1 ) (1) (1)的林德伯格条件,即林德伯格-列维中心极限定理是林德伯格中心极限定理的特例


李雅普诺夫中心极限定理

{ X n } \{X_n\} {
Xn}
为独立随机变量序列,若存在 δ > 0 \delta>0 δ>0,满足
lim ⁡ n → ∞ 1 σ 2 + δ ( Y n ) ∑ i = 1 n E ( ∣ X i − μ i ∣ 2 + δ ) = 0 , \lim_{n\rightarrow\infty}\frac{1}{\sigma^{2+\delta}(Y_n)}\sum_{i=1}^{n}E(|X_i-\mu_i|^{2+\delta})=0, nlimσ2+δ(Yn)1i=1nE(Xiμi2+δ)=0,则对 ∀ x \forall x x,有
lim ⁡ n → ∞ P { 1 σ ( Y n ) ∑ i = 1 n ( X i − μ i ) ⩽ x } = 1 2 π ∫ − ∞ x e − t 2 2 d t . \lim_{n\rightarrow\infty}P\left\{\frac1{\sigma(Y_n)}\sum_{i=1}^n(X_i-\mu_i)\leqslant x\right\}=\frac1{\sqrt{2\pi}}\int_{-\infty}^x\mathrm{e}^{-\frac{t^2}{2}}\mathrm{d}t. nlimP{
σ(Yn)1i=1n(Xiμi)x}
=
2π
1
xe2t2dt.


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/211340.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月18日 下午10:39
下一篇 2026年3月18日 下午10:40


相关推荐

  • typescript 接口_typeScript

    typescript 接口_typeScript介绍TypeScript的核心原则之一是对值所具有的结构进行类型检查。我们使用接口(Interfaces)来定义对象的类型。接口是对象的状态(属性)和行为(方法)的抽象(描述)接口初探声明接口

    2022年7月31日
    11
  • go语言实现最小区块链教程7-网络「建议收藏」

    go语言实现最小区块链教程7-网络「建议收藏」1介绍Introduction到目前为止,我们构建了一个含有以下特征的区块链:匿名、安全、以及随机产生地址;区块链数据存储;PoW系统;可靠的交易记录存储方式。这些特征都非常关键,但是这还不够。能够让这些特征升华的,并且让加密货币变得可能的,是网络(network)。这样的区块链实现如果只能在单一的电脑上面运行有什么用?这些基础加密特性有什么有,如果仅有一个用户?网络让这些机制工作并发挥作用。…

    2022年5月28日
    45
  • idea debug断点调试技巧_idea断点查看选中的值

    idea debug断点调试技巧_idea断点查看选中的值文章目录一.怎么开启断点调试?二.调试界面咋那么多按钮?1.返回断点位置2.步过3.步入4,5.强制步入,步出6.回退断点7.断点跳到光标处8.表达式计算9.恢复程序10.停止程序11.查看所有断点12.禁用断点13.其他三.竟然有那么多调试断点?1.方法断点2.属性断点3.异常断点4.终止断点5.条件断点6.流断点7.多线程断点8.远程断点一.怎么开启断点调试?随着开发的深入,越来越觉得高效的调试方法是多么的重要了,但我们一般上来就是敲一些代码,谁会去静下心来学一些看似没什么用的调试技巧呢?

    2022年8月30日
    5
  • 线程审查生产者和消费者

    线程审查生产者和消费者

    2022年1月6日
    103
  • 半监督学习概述

    半监督学习概述一 半监督学习今天在阅读一篇论文时了解了这个之前一直不太清晰的概念 下面是查阅了相关资料后对半监督学习的理解 如有错误 望更正 半监督学习是一种介于监督学习和无监督学习之间的学习凡是 我们都知道 在监督学习中 样本的类比 类别标签都是已知的 学习的目的是找到样本的特征与类别标签之间的联系 一般来讲训练样本的数量越多 训练得到的分类器的分类精度也会越高 但是在很多现实问题当中 一方面是由于人工标记样本的成本很高 导致有标签的数据十分稀少 如果是让算法工程师亲自去标记数据 会消耗相当大的时间和精力 也有很

    2026年3月18日
    2
  • 微信小程序—onLoad和onShow

    微信小程序—onLoad和onShow微信小程序 onLoad 和 onShowonLoad 页面加载完成只执行一次 onShow 每次进入该页面都执行一次

    2026年3月17日
    1

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号