分散_(確率論)
[Wikipedia|▼Menu]

数学統計学における分散(ぶんさん、: variance)とは、データ母集団標本)、確率変数確率分布)の標準偏差自乗のことである。分散も標準偏差と同様に散らばり具合を表し[1]、標準偏差より分散の方が計算が簡単なため、計算する上で分散を用いることも多い。

分散は具体的には、平均値からの偏差2乗の平均に等しい。データ x1, x2, …, xn の分散 s2 は s 2 = 1 n ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle s^{2}={\frac {1}{n}}\textstyle \sum \limits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}} ここで x は平均値を表す。

分散が 0 であることは、データの値が全て等しいことと同値である。データの分散は二乗平均から平均の2乗を引いた値に等しくなる。

確率変数 X の分散 V[X][注 1]は、X の期待値を E[X] で表すとV[X] = E[(X − E[X])2]

となる[2]。確率変数の分散は確率変数の2次の中心化モーメントである。

統計学では、記述統計学においては標本の散らばり具合を表す指標として標本分散(ひょうほんぶんさん、: sample variance)を、推計統計学においては不偏分散(ふへんぶんさん、: unbiased variance)・不偏標本分散(ふへんひょうほんぶんさん、: unbiased sample variance)を用いる。
言葉の由来

英語の variance(バリアンス)という語はロナルド・フィッシャーが1918年に導入した[3]
確率変数の分散

2乗可積分確率変数 X の分散は期待値を E[X] で表すと V [ X ] = E [ ( X − E [ X ] ) 2 ] {\displaystyle V[X]=E{\big [}(X-E[X])^{2}{\big ]}}

定義される。これを展開して整理すると V [ X ] = E [ ( X − E [ X ] ) 2 ] = E [ X 2 − 2 X E [ X ] + ( E [ X ] ) 2 ] = E [ X 2 ] − 2 E [ X E [ X ] ] + E [ ( E [ X ] ) 2 ] = E [ X 2 ] − 2 E [ X ] E [ X ] + ( E [ X ] ) 2 ( ∵ E [ X ] = C o n s t ) = E [ X 2 ] − ( E [ X ] ) 2 {\displaystyle {\begin{alignedat}{5}V[X]&=E{\big [}(X-E[X])^{2}{\big ]}\\&=E{\big [}X^{2}-2XE[X]+(E[X])^{2}{\big ]}\\&=E[X^{2}]-2E{\big [}XE[X]{\big ]}+E{\big [}(E[X])^{2}{\big ]}\\&=E[X^{2}]-2E[X]E[X]+(E[X])^{2}(\because E[X]=Const)\\&=E[X^{2}]-(E[X])^{2}\\\end{alignedat}}}

とも書ける。また確率変数 X の特性関数を φX(t) = E[eitX] とおくと(i は虚数単位)、これは 2階連続的微分可能で V [ X ] = − φ X ″ ( 0 ) + ( φ X ′ ( 0 ) ) 2 {\displaystyle V[X]=-\varphi _{X}''(0)+(\varphi _{X}'(0))^{2}}

と表示することもできる。

チェビシェフの不等式から、任意の正の数 ε に対して P ( 。 X − E [ X ] 。 > ε ) ≤ V ( X ) ε 2 {\displaystyle P(|X-E[X]|>\varepsilon )\leq {\frac {V(X)}{\varepsilon ^{2}}}}

が成り立つ。これは分散が小さくなるほど確率変数が期待値に近い値をとりやすくなることを示す大まかな評価である。
性質

X, X1, …, Xn を確率変数、a, b, a1, …, an を定数とし、共分散を Cov[ · , · ] で表すと

V [ X ] ≥ 0 {\displaystyle V[X]\geq 0} (非負性)

V [ X + b ] = V ( X ) {\displaystyle V[X+b]=V(X)} (位置母数(英語版)に対する不変性)

V [ a X ] = a 2 V ( X ) {\displaystyle V[aX]=a^{2}V(X)} (斉次性

V [ ∑ i a i X i ] = ∑ i , j a i a j Cov ⁡ [ X i , X j ] {\displaystyle V{\bigl [}\textstyle \sum \limits _{i}a_{i}X_{i}{\bigr ]}=\sum \limits _{i,j}a_{i}a_{j}\operatorname {Cov} [X_{i},X_{j}]}

を満たす。したがって、特に X1, …, Xn が独立ならば、 Cov ⁡ [ X i , X j ] = { V ( X i ) ( i = j ) 0 ( i ≠ j ) {\displaystyle \operatorname {Cov} [X_{i},X_{j}]={\begin{cases}V(X_{i})&(i=j)\\0&(i\neq j)\end{cases}}}

より V [ X 1 + ⋯ + X n ] = V [ X 1 ] + ⋯ + V [ X n ] {\displaystyle V[X_{1}+\dotsb +X_{n}]=V[X_{1}]+\dotsb +V[X_{n}]}

が成り立つ。


確率変数 X が一様分布 U(a, b) に従うとき、V(X) = .mw-parser-output .sfrac{white-space:nowrap}.mw-parser-output .sfrac.tion,.mw-parser-output .sfrac .tion{display:inline-block;vertical-align:-0.5em;font-size:85%;text-align:center}.mw-parser-output .sfrac .num,.mw-parser-output .sfrac .den{display:block;line-height:1em;margin:0 0.1em}.mw-parser-output .sfrac .den{border-top:1px solid}.mw-parser-output .sr-only{border:0;clip:rect(0,0,0,0);height:1px;margin:-1px;overflow:hidden;padding:0;position:absolute;width:1px}(b − a)2/12


次ページ
記事の検索
おまかせリスト
▼オプションを表示
ブックマーク登録
mixiチェック!
Twitterに投稿
オプション/リンク一覧
話題のニュース
列車運行情報
暇つぶしWikipedia

Size:47 KB
出典: フリー百科事典『ウィキペディア(Wikipedia)
担当:undef