確率論において、 連続確率分布 X {\displaystyle X} のミルズ比(ミル比)は、関数 m ( x ) := F ¯ ( x ) f ( x ) , {\displaystyle m(x):={\frac {{\bar {F}}(x)}{f(x)}},}
で表される。このとき、 f ( x ) {\displaystyle f(x)} はXの確率密度変数であり、 F ¯ ( x ) := Pr [ X > x ] = ∫ x + ∞ f ( u ) d u {\displaystyle {\bar {F}}(x):=\Pr[X>x]=\int _{x}^{+\infty }f(u)\,du}
は生存関数(相補累積分布関数)である。 この概念は John P. Mills
にちなんで名づけられている[1]。ミルズ比はハザード率 h ( x ) {\displaystyle h(x)} に関連し、 h ( x ) := lim δ → 0 1 δ Pr [ x < X ≤ x + δ 。 X > x ] {\displaystyle h(x):=\lim _{\delta \to 0}{\frac {1}{\delta }}\Pr[x<X\leq x+\delta |X>x]}
のときのミルズ比は m ( x ) = 1 h ( x ) . {\displaystyle m(x)={\frac {1}{h(x)}}.}
となる。 X {\displaystyle X} が 標準正規分布であるとき、 ミルズ比は次のように表される。 m ( x ) ∼ 1 / x , {\displaystyle m(x)\sim 1/x,\,} このとき、記号 ∼ {\displaystyle \sim } は2つの関数の商が x → + ∞ {\displaystyle x\to +\infty } のときに1に収束することを示している(詳細はen:Q-function 逆ミルズ比 は、ある分布の 相補累積分布関数 の確率密度関数の 比 である。逆ミルズ比は、下記のようなデータが切断された正規分布に用いられる。 X が平均値 μ 分散 σ2 の正規分布の確率変数 のとき、 E [ X 。 X > α ] = μ + σ ϕ ( α − μ σ ) 1 − Φ ( α − μ σ ) , E [ X 。 X < α ] = μ − σ ϕ ( α − μ σ ) Φ ( α − μ σ ) , {\displaystyle {\begin{aligned}&\operatorname {E} [\,X\,|\ X>\alpha \,]=\mu +\sigma {\frac {\phi {\big (}{\tfrac {\alpha -\mu }{\sigma }}{\big )}}{1-\Phi {\big (}{\tfrac {\alpha -\mu }{\sigma }}{\big )}}},\\&\operatorname {E} [\,X\,|\ X<\alpha \,]=\mu -\sigma {\frac {\phi {\big (}{\tfrac {\alpha -\mu }{\sigma }}{\big )}}{\Phi {\big (}{\tfrac {\alpha -\mu }{\sigma }}{\big )}}},\end{aligned}}} このとき、 α {\displaystyle \alpha } は母数, ϕ {\displaystyle \phi } 標準正規分布の確率密度関数、 Φ {\displaystyle \Phi } 標準正規分布の累積分布関数を示す。この二つの要素が、逆ミルズ比である[2]。 一般的な逆ミルズ比の適用例は、回帰分析でのセレクションバイアスの影響を補正する際に用いる。従属変数が打ち切られている(すなわちすべての変数が観測されたものではない)とき、ゼロとして観測された変数が多く存在する。この問題は、Tobin (1958)によって初めて指摘された。彼は、回帰分析での推定の際に打ち切りの影響を考慮しない場合、通常の最小二乗法による推定では偏ったパラメータ推定値が得られることを指摘している[3]。これは、打ち切られた従属変数を用いることで、独立変数と誤差項の間の相関がゼロであるというガウス=マルコフの定理の仮定に反することからわかる[4]。
例
逆ミルズ比
回帰分析での使用