確率・統計(統計検定2級対応)26:検出力関数とネイマン・ピアソンの定理

こんにちは、ひかりです。

今回は確率・統計から検出力関数とネイマン・ピアソンの定理について解説していきます。

この記事では以下のことを紹介します。

  • 検出力と検出力関数について
  • 一様最強力検定とネイマン・ピアソンの定理について
目次

検出力と検出力関数

確率・統計21の記事にて仮説検定の流れを紹介しましたが、 \( p \) 値という概念を表に出して簡単におさらいしていきましょう。

ここでは、簡単のため有意水準 \( \alpha \) の右側検定

$$ H_0:\theta=\theta_0, \quad H_1:\theta>\theta_0 $$

を考えます。このとき、母集団から抽出した標本を \( X=(X_1,\cdots,X_n) \) として、検定統計量 \( T=T(X_1,\cdots,X_n) \) に対して

$$ P(T\in R)=\alpha $$

となる棄却域 \( R \) はある実数 \( r \) を用いて

$$ R=\{ X=(X_1,\cdots,X_n):標本 \ | \ T(X_1,\cdots,X_n)\in(r,\infty)\} $$

と表すことができます。つまり、

$$ P(T>r)=\alpha $$

このとき、検定統計量 \( T \) の実現値 \( T^*=t \) に対して次の確率を求めます。

$$ p=P(T>t) $$

この確率 \( p \) のことを \( p \) 値といいます。

この \( p \) 値が \( p≦\alpha \) となるとき(つまり、 \( t\in R \) のとき)帰無仮説 \( H_0 \) を棄却して、 \( p>\alpha \) となるとき(つまり、 \( t\not\in R \) のとき)帰無仮説 \( H_0 \) を受容します。

この一連の手続きのことを仮説検定とよんでいました。

さらに、確率・統計21では仮説検定における2種類の誤りを紹介しました。

定義1 (仮説検定の2種類の誤り)

仮説検定において、本当は帰無仮説 \( H_0 \) が正しいのに棄却してしまう誤りのことを第1種の誤りといい、本当は帰無仮説 \( H_0 \) が間違っているのに受容してしまう誤りのことを第2種の誤りという。

第1種の誤りをする確率は有意水準 \( \alpha \) と同じであるので、この \( p \) 値を用いる仮説検定においては制御可能な誤りになります。

しかし、第2種の誤りについては制御できないという問題点があります。

よって、この問題点を解決するために、検出力をきちんと調べてみましょう。

まず、仮説 \( H \) を仮定したときの確率を \( P_H \) と表し、母集団から抽出した標本を \( X=(X_1,\cdots,X_n) \) とおきます。

すると、棄却域 \( R \) に対する仮説検定の第1種の誤りの確率は

$$ \alpha=\alpha_R=P_{H_0}(X\in R) $$

となり、第2種の誤りの確率は

$$ \beta=\beta_R=P_{H_1}(X\not\in R) $$

となります。

これをもとにして、検出力と検出力関数を次で定義します。

定義2 (検出力と検出力関数)

棄却域 \( R \) に対する仮説検定の検出力 \( \gamma_R \) を次で定義する。

$$ \gamma_R=1-\beta_R=1-P_{H_1}(X\not\in R)=P_{H_1}(X\in R) $$

最右辺は対立仮説 \( H_1 \) をみたす母数 \( \theta \) の関数としてみることができる。

よって、それを \( \theta \) の関数

$$ \beta(\theta)=P_{\theta}(X\in R) $$

としてみたものを検出力関数という。

検出力関数は次のように場合分けされる。

$$ \beta(\theta)=\begin{cases} P_{H_0}(X\in R)=\alpha_R & (\thetaはH_0をみたす) \\ P_{H_1}(X\in R)=1-\beta_R & (\thetaはH_1をみたす) \end{cases} $$

例1

母数 \( \mu \) をもつ母集団から抽出した標本を \( X=(X_1,\cdots,X_n) \) として、次の仮説を考える。

$$ H_0:\mu=\mu_0, \quad H_1:\mu>\mu_0 $$

このときの検定統計量 \( T \) は確率・統計21の定理6より、

$$ T=\frac{\overline{X}-\mu}{\frac{S}{\sqrt{n}}} $$

を用いる。このとき、 \( p \) 値は

$$ p=P_{H_0}(T>t)=P_{H_0}\left( \frac{\overline{X}-\mu}{\frac{S}{\sqrt{n}}}>\frac{\overline{x}-\mu}{\frac{S}{\sqrt{n}}} \right)=P_{H_0}(\overline{X}>\overline{x}) $$

また、棄却域 \( R \) は

$$ R=\{ X:標本 \ | \ T>t_{n-1}(\alpha) \} $$

したがって、第1種と第2種の誤りをする確率 \( \alpha_R, \beta_R \) は

$$ \begin{align} \alpha_R&=P_{H_0}(X\in R)=P_{H_0}\left(\overline{X}>\mu_0+t_{n-1}(\alpha)\frac{S}{\sqrt{n}} \right) \\ &=P_{H_0}\left( T>t_{n-1}(\alpha) \right) \end{align} $$

$$ \begin{align} \beta_R&=P_{H_1}(X\not\in R)=P_{H_1}\left(\overline{X}≦\mu_0+t_{n-1}(\alpha)\frac{S}{\sqrt{n}} \right) \\ &=P_{H_1}\left( T≦t_{n-1}(\alpha)+\frac{\mu-\mu_0}{\frac{S}{\sqrt{n}}} \right) \end{align} $$

例1からわかるように標本数 \( n \) が大きくなるほど、検出力 \( \gamma_R=1-\beta_R \) も大きくなっていきます。

したがって、有意水準 \( \alpha \) と検出力 \( \gamma_R \) の2つを指定してあげることにより、仮説検定の精度がある程度保証されるために必要な標本数 \( n \) を求めることができます。

そして、その標本数よりも多く標本を抽出することにより、第1種の誤りと第2種の誤りをどちらも制御することができます。

一様最強力検定とネイマン・ピアソンの定理

一様最強力検定と最強力検定

では、どのように有意水準 \( \alpha \) と検出力 \( \gamma_R \) の2つを指定すればよいのでしょうか。

一般に、第1種の誤りをする確率である有意水準 \( \alpha \) を小さくするほど、第2種の誤りをする確率 \( \beta \) は大きくなってしまいます。

そのため、基本的には有意水準 \( \alpha \) を固定したうえで \( \beta \) を最小にする(つまり、検出力 \( \gamma \) を最大にする)ような検定の方法が求められます。

その検定を(一様)最強力検定といい、検出力関数を用いて次のように定義されます。

定義3 ((一様)最強力検定)

有意水準 \( \alpha \) の検定 \( T \) が次をみたすとき、 \( T \) を一様最強力検定またはUMP検定という。

(1) 帰無仮説 \( H_0 \) をみたすすべての母数 \( \theta \) に対して、 \( T \) の検出力関数 \( \beta_T(\theta) \) が \( \alpha \) 以下となる。

(2) 帰無仮説 \( H_0 \) をみたすすべての母数 \( \theta \) に対して検出力関数 \( \beta_S(\theta) \) が \( \alpha \) 以下となる任意の検定 \( S \) をとると、対立仮説 \( H_1 \) をみたすすべての母数 \( \theta \) に対して \( \beta_T(\theta)≧\beta_S(\theta) \) をみたす。

とくに、対立仮説 \( H_1 \) をみたす母数 \( \theta \) の集合が一点集合であるときは \( T \) を最強力検定という。

ネイマン・ピアソンの定理

一般には一様最強力検定は存在するとは限りませんが、単純仮説だけからなる検定

$$ H_0:\theta=\theta_0, \quad H_1:\theta=\theta_1 \ (\theta_0\not=\theta_1) $$

においては、最強力検定が存在することが示せます。

(対立仮説 \( H_1 \) をみたす母数 \( \theta \) の集合は一点集合であるので、最強力検定となります)

この定理のことをネイマン・ピアソンの定理といい、次のように定式化されます。(証明は省略します。)

定理1 (ネイマン・ピアソンの定理)

単純仮説だけからなる有意水準 \( \alpha \) の検定

$$ H_0:\theta=\theta_0, \quad H_1:\theta=\theta_1 \ (\theta_0\not=\theta_1) $$

において、母数 \( \theta \) と母集団から抽出した標本 \( X=(X_1,\cdots,X_n) \) に関する尤度関数 \( L(\theta;X) \) を用いて、棄却域 \( R \) を

$$ R=\left\{X:標本 \ | \ \frac{L(\theta_1;X)}{L(\theta_0;X)}>\lambda \right\} $$

で定めた検定を考えると、その検定は最強力検定となる。

ここで、 \( \lambda \) は次をみたす。

$$ P\left(\frac{L(\theta_1;X)}{L(\theta_0;X)}>\lambda\right)=\alpha $$

今回はここまでです。お疲れ様でした。また次回にお会いしましょう。

目次