假设检验

问题的提法

$$H\_0: \\theta \\in \\Theta\_0 \\leftrightarrow H\_1:\\theta \\in \\Theta\_1$$

$H_0$:原假设,$H_1$:备择假设。

根据数据$\bm x=(x_1,\cdots,x_n)$,回答接受$H_0$或拒绝$H_0$。

检验方法:给出一个否定域$\mathcal W$,若$\bm x\in {\mathcal W}$则拒绝。不能根据数据选择否定域

功效函数:$\beta_{\mathcal W}(\theta)\triangleq P_\theta(\bm x\in \mathcal W)$

水平为$\alpha$:$\sup_{\theta\in \Theta_0}\beta_{\mathcal W}(\theta)\le \alpha$

一致最大功效否定域(UMP):

1.$\mathcal W$ 水平为$\alpha$。 2.$\forall \tilde {\mathcal W}$,$\tilde {\mathcal W}$水平为$\alpha$,有

$$\\beta\_{\\mathcal W}(\\theta)\\ge \\beta\_{\\tilde {\\mathcal W}}(\\theta)\\qquad \\forall \\theta\\in \\Theta\_1$$

无偏否定域

$$\\beta\_{\\mathcal W}(\\theta\_0)\\le \\alpha\\le \\beta\_{\\mathcal W}(\\theta\_1)\\qquad \\forall \\theta\_0\\in \\Theta\_0,\\theta\_1\\in \\Theta\_1$$

这是说否定域的功效在$\Theta_1$上总是高于$\Theta_0$。

最优无偏否定域(UMPU):

  • $\mathcal W$水平为$\alpha$,且无偏。
  • $\forall \tilde {\mathcal W}$,$\tilde {\mathcal W}$水平为$\alpha$,且$\tilde{\mathcal W}$无偏,有
$$\\beta\_{\\mathcal W}(\\theta\_1)\\ge \\beta\_{\\tilde {\\mathcal W}}(\\theta\_1)\\qquad \\forall \\theta\_1\\in \\Theta\_1$$

可以认为是无偏否定域中的最大一致功效。

似然比检验

解决的问题:

$$H\_0: \\theta = \\theta\_0 \\leftrightarrow H\_1:\\theta = \\theta\_1$$

即原假设和备择假设都只有一个参数。

似然函数:$L(\bm x,\theta)=\prod_{i=1}^n f(x_i,\theta)$

似然比

$$\\frac{L(\\bm x,\\theta\_1)}{L(\\bm x,\\theta\_0)}$$

于是就有一种基于似然比的否定域类:

$${\\mathcal W}\_{\\lambda\_0}=\\{\\bm x:L(\\bm x,\\theta\_1)>\\lambda\_0 L(\\bm x,\\theta\_0)\\}$$

$\lambda_0$的取值由给定的水平$\alpha$确定,即

$$\\beta\_{\\mathcal W}(\\theta\_0)=\\int\_{\\mathcal W}L(\\bm x,\\theta\_0)\\mathrm{d}\\bm x=\\alpha$$

(Neyman-Pearson引理) ${\mathcal W}_{\lambda_0}$是水平为$\alpha$的UMP否定域。

证明思路:

$$\\begin{gathered} \\int\_{{\\mathcal W}\\setminus {\\tilde{\\mathcal W}}} L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x> \\lambda\_0 \\int\_{{\\mathcal W}\\setminus {\\tilde{\\mathcal W}}} L(\\bm x,\\theta\_1) \\mathrm{d} \\bm x\\\\ \\int\_{{\\tilde{\\mathcal W}}\\setminus {\\mathcal W}} L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x\\le \\lambda\_0 \\int\_{{\\tilde{\\mathcal W}}\\setminus {\\mathcal W}} L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x\\\\ \\int\_{{\\mathcal W}\\setminus {\\tilde{\\mathcal W}}} L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x=\\int\_{{\\tilde{\\mathcal W}}\\setminus {\\mathcal W}} L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x \\end{gathered}$$

${\mathcal W}_{\lambda_0}$是无偏否定域,从而也是UMPU否定域。

证明思路:

$$\\begin{aligned} \\beta\_{\\mathcal W}(\\theta\_1)-\\alpha &=\\int\_{\\mathcal W} L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x -\\alpha\\\\ &=(1-\\alpha)\\int\_{\\mathcal W}L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x-\\alpha\\int\_{\\mathcal W^c}L(\\bm x,\\theta\_1)\\mathrm{d} \\bm x\\\\ &\\ge \\lambda\_0(1-\\alpha)\\int\_{\\mathcal W}L(\\bm x,\\theta\_0)\\mathrm{d} \\bm x-\\lambda\_0\\alpha\\int\_{\\mathcal W^c}L(\\bm x,\\theta\_0)\\mathrm{d} \\bm x\\\\ &=0 \\end{aligned}$$

单参数模型的检验

稍微复杂的问题:

$$H\_0: \\theta \\in \\Theta\_0 \\leftrightarrow H\_1:\\theta = \\theta\_1$$$$H\_0: \\theta \\in \\Theta\_0 \\leftrightarrow H\_1:\\theta \\in \\Theta\_1$$

即$\Theta_0,\Theta_1$不在是单点集。

不难验证,若否定域$\mathcal W$对任意的$\theta_0\in \Theta_0$都是UMP否定域,且不依赖于$\theta_1$,那么它也是这个问题的UMP否定域

单参数指数分布族

单参数指数分布族

$$f(x,\\theta)=S(\\theta)h(x)\\exp\\{C(\\theta)T(x)\\},\\qquad \\theta \\in \\Theta$$

其中$\Theta$是一个区间,$C(\theta)$严格增。

对于否定域类

$${\\mathcal W}=\\{\\bm x:\\sum\_{i=1}^n T(x\_i)>c\\}$$

其中$c$为任一常数,则$\beta_{\mathcal W}(\theta)$为$\theta$的不减函数。

证明思路:

设$\theta_1<\theta_2$,对于简单假设检验问题:

$$H\_0: \\theta =\\theta\_1 \\leftrightarrow H\_1:\\theta =\\theta\_2$$

考虑似然比

$$\\frac{L(\\bm x,\\theta\_1)}{L(\\bm x,\\theta\_2)}=\\left\[\\frac{S(\\theta\_2)}{S(\\theta\_1)} \\right\]^n\\exp\\left\\{\[C(\\theta\_2)-C(\\theta\_1)\]\\sum\_{i=1}^n T(x\_i)\\right\\}$$

所以$\mathcal W$是该问题的一个似然比否定域,那么$\mathcal W$是无偏否定域,从而

$$\\beta\_{\\mathcal W}(\\theta\_2)\\ge \\alpha\\ge \\beta\_{\\mathcal W}(\\theta\_1)$$

形象理解:$\theta$越大,$T(x)$的密度越向右偏移。

单边假设检验问题

$$H\_0:\\theta\\le \\theta\_0 \\leftrightarrow \\theta>\\theta\_0$$

否定域类型:

$${\\mathcal W}=\\{\\bm x:\\sum\_{i=1}^n T(x\_i)>c\\}$$

选取$c$使得$\beta_{\mathcal W}(\theta_0)=\alpha$,那么$\mathcal W$就是UMP否定域。

$\sigma^2$已知,检验$\mu$

$$H\_0:\\mu\\le \\mu\_0 \\leftrightarrow H\_1:\\mu >\\mu\_0$$$$f(x,\\mu)=S(\\mu)h(x)e^{\\frac{\\mu}{\\sigma^2}x}\\implies T(x)=x$$$${\\mathcal W}=\\{\\bm x:\\sum\_{i=1}^n x\_i>c\\}$$

需要验证在$H_0$的情况下,$\beta_{\mathcal W}(\mu)\le \beta_{\mathcal W}(\mu_0)$(即最值通常在边界取到,后续问题省略此步骤)。

$$\\beta\_{\\mathcal W}(\\mu\_0)=P\_{\\mu\_0}\\left(\\sqrt n\\frac{\\bar X-\\mu\_0}{\\sigma}>\\tilde c\\right)=P(Z>\\tilde c)=\\alpha$$

查表确定$\tilde c$,代入数据计算即可。

$\mu$已知,检验$\sigma^2$

$$H\_0:\\sigma^2\\le \\sigma\_0^2 \\leftrightarrow H\_1:\\sigma^2 >\\sigma\_0^2$$$$f(x,\\sigma^2)=\\frac{1}{\\sqrt {2\\pi\\sigma^2}}\\exp\\{\\frac{1}{2\\sigma^2}(x-\\mu)^2\\}\\implies T(x)=(x-\\mu)^2$$$${\\mathcal W}=\\{\\bm x:\\sum\_{i=1}^n (x\_i-\\mu)^2>c\\}$$$$\\beta\_{\\mathcal W}(\\sigma\_0^2)=P\_{\\sigma\_0^2}\\left(\\sum\_{i=1}^n\\left(\\frac{X\_i-\\mu}{\\sigma\_0}\\right)^2< \\tilde c\\right)=P(K\_n<\\tilde c)=\\alpha$$

查表确定$\tilde c$,代入数据计算即可。

双边假设检验问题

$$H\_0:\\theta=\\theta\_0\\leftrightarrow H\_1:\\theta\\neq\\theta\_0$$

双面假设检验问题不存在UMP否定域(无法兼顾两边)。

但有可能存在UMPU否定域。

若当$\theta=\theta_0$时,$\frac 1n\sum_{i=1}^nT(X_i)$的分布关于某个$r_0$对称,则

$${\\mathcal W}=\\left\\{\\bm x:\\left|\\sum\_{i=1}^nT(x\_i)-r\_0\\right|>c\\right\\}$$

是UMPU否定域

证明略。

$\sigma^2$已知,检验$\mu$

$$H\_0:\\mu=\\mu\_0\\leftrightarrow H\_1:\\mu\\neq\\mu\_0$$$$T(x)=x,r\_0=\\mu\_0$$$${\\mathcal W}=\\left\\{\\bm x:\\left|\\sum\_{i=1}^nx\_i-n\\mu\_0\\right|>c\\right\\}$$$$\\beta\_{\\mathcal W}(\\mu\_0)=P\_{\\mu\_0}(\\sqrt{n}\\frac{|\\bar x-\\mu\_0|}{\\sigma}>c)=P(|Z|>c)=\\alpha$$

广义似然比检验

$$H\_0:\\theta\\in \\Theta\_0\\leftrightarrow H\_1:\\theta\\in \\Theta\_1$$

广义似然比

$$\\frac{L(\\bm x,\\hat\\theta)}{L(\\bm x,\\hat \\theta\_0)}$$

其中$L(\bm x,\hat\theta_0)=\max_{\theta\in \Theta_0}L(\bm x,\theta)$,$L(\bm x,\hat\theta)=\max_{\theta\in \Theta}L(\bm x,\theta)$,注意后者是在全局上求的最值。

基于广义似然比的否定域

$${\\mathcal W}=\\{\\bm x:\\lambda(\\bm x)=\\frac{L(\\bm x,\\hat\\theta)}{L(\\bm x,\\hat \\theta\_0)}>c\\}$$

$\sigma^2$已知,检验$\mu$,双边

$$H\_0:\\mu=\\mu\_0\\leftrightarrow H\_1:\\mu\\neq\\mu\_0$$

最大似然估计:

$$\\hat \\mu=\\bar x,\\hat \\mu\_0=\\mu\_0$$

广义似然比:

$$\\lambda(\\bm x)=\\frac{L(\\bm x,\\hat \\mu)}{L(\\bm x,\\hat \\mu\_0)}=\\exp\\left\\{\\frac{1}{2\\sigma^2}\\left(\\sum\_{i=1}^n(x\_i-\\mu\_0)^2-\\sum\_{i=1}^n(x\_i-\\bar x)^2\\right)\\right\\}$$$${\\mathcal W}=\\{\\bm x:\\lambda(\\bm x)>c\\}=\\{\\bm x:|\\bar x-\\mu\_0|>c\\}$$$$\\beta\_{\\mathcal W}(\\mu\_0)=P\_{\\mu\_0}(\\sqrt{n}\\frac{|\\bar x-\\mu\_0|}{\\sigma}>c)=P(|Z|>c)=\\alpha$$

$\sigma^2$已知,检验$\mu$,单边

$$H\_0:\\mu\\le \\mu\_0 \\leftrightarrow H\_1:\\mu >\\mu\_0$$

最大似然估计:

$$\\hat \\mu=\\bar x,\\hat \\mu\_0=\\mu\_0(\\bar x>\\mu\_0)$$

广义似然比:

$$\\lambda(\\bm x)=\\exp\\left(\\frac{1}{2}\\left(\\frac{\\sqrt n(\\bar x-\\mu\_0)}{\\sigma}\\right)^2\\right)$$$${\\mathcal W}=\\{\\bm x:\\frac{\\sqrt n(\\bar x-\\mu\_0)}{\\sigma}>c\\}$$$$\\max\_{\\mu\\le \\mu\_0}\\beta\_{\\mathcal W}(\\mu)=P\_{\\mu\_0}(\\frac{\\sqrt n(\\bar x-\\mu\_0)}{\\sigma}>c)=P(Z>c)=\\alpha$$

$\sigma^2$未知,检验$\mu$,双边

$$H\_0:\\mu=\\mu\_0\\leftrightarrow H\_1:\\mu\\neq\\mu\_0$$

计算可得

$$L(\\hat \\mu,\\hat \\sigma^2)=(2\\pi\\hat \\sigma^2)^{-n/2}e^{-n/2},L(\\hat \\mu\_0,\\hat \\sigma\_0^2)=(2\\pi\\hat \\sigma\_0^2)^{-n/2}e^{-n/2}$$

orz写不完了5555

UPD: 果不其然,期末考试翻在了没写完的地方

Licensed under CC BY-NC-SA 4.0
Built with Hugo
Theme Stack designed by Jimmy