ギブスサンプリング
[Wikipedia|▼Menu]

統計学統計物理学において、ギブスサンプリング(: Gibbs sampling, Gibbs sampler)は、直接サンプリングが難しい確率分布の代わりにそれを近似するサンプル列を生成するMCMC法(Markov chain Monte Carlo algorithm)の1つである。この生成された数列は、同時分布周辺分布期待値などの積分計算を近似するために用いられる。通常は観測として与えられている変数に関してはサンプリングをする必要はない。ギブスサンプリングは統計的推定やベイズ推定の手法として頻繁に用いられている。ランダムアルゴリズムであり、変分ベイズ法(英語版)(variational Bayes)やEMアルゴリズム(expectation-maximization algorithm)のような統計的推定法のための決定論的な方法の代替法である。

他のMCMC法と同様に、ギブスサンプリングはサンプルのマルコフ連鎖を生成する。得られるサンプル列がマルコフ連鎖であるため、例えば100番目毎にサンプルを選ぶといったサンプルが十分に独立とみなせるように気をつけるべきである。それに加え、サンプル列の始めの方の値は目的の分布を精確には表していないため、初期値を与えたすぐ後はburn-in期間としてサンプルを捨てるべきである。
導出

ギブスサンプリングはメトロポリス・ヘイスティングス法の1つである。同時分布より周辺化された条件付き確率分布から、与えられた確率分布に従ったサンプルをサンプリングする。同時確率 ( x 1 , … , x n ) {\displaystyle (x_{1},\dotsc ,x_{n})} から確率変数 X = { x 1 , … , x n } {\displaystyle {\boldsymbol {X}}=\{x_{1},\dotsc ,x_{n}\}} を k {\displaystyle \left.k\right.} サンプル得たい。 n {\displaystyle n} 次元の i {\displaystyle i} 番目のサンプルを X ( i ) = { x 1 ( i ) , … , x n ( i ) } {\displaystyle {\boldsymbol {X}}^{(i)}=\{x_{1}^{(i)},\dotsc ,x_{n}^{(i)}\}} とする。

手順は以下の通りである。
初期値 X ( 0 ) {\displaystyle {\boldsymbol {X}}^{(0)}} を設定する。

条件付き確率 p ( x j 。 x 1 ( i ) , … , x j − 1 ( i ) , x j + 1 ( i − 1 ) , … , x n ( i − 1 ) ) {\displaystyle p(x_{j}|x_{1}^{(i)},\dotsc ,x_{j-1}^{(i)},x_{j+1}^{(i-1)},\dotsc ,x_{n}^{(i-1)})} から i {\displaystyle i} 番目のサンプル x j ( i ) {\displaystyle x_{j}^{(i)}} をサンプリングする。

i {\displaystyle i} が k {\displaystyle k} 以下であれば i = i + 1 {\displaystyle i=i+1} して2へ。それ以外だと終了。

サンプルは他の変数に条件付けされた分布からサンプリングされるが、他の変数には新しいサンプルを使用すべきである。つまりは、1ステップ毎に1変数をサンプルし、新しいサンプルに入れ替えていく。このサンプル集合は、全ての変数に関する同時分布を近似する。

それに加え、全てのサンプルに関して平均をとることで期待値を近似することができる。

以下は注意点である。

初期値の設定にEMアルゴリズムなどを用いたり、ランダムに決めてもいい。しかし初期値の設定に敏感にならなくても、burn-inの期間を設ければ問題ではない。

サンプリング初期の値を捨てる期間(burn-in period)を設けることがよく行われる。また、期待値を計算するときには n {\displaystyle n} 番目毎の値しか用いないといったこともよく行われる。この理由には2つある。1つは生成されるサンプル列はマルコフ連鎖でありサンプル間にある程度の相関が存在するため独立なサンプルではない。もう1つはマルコフ連鎖の定常分布は目的の分布になるが初期値から定常分布に到達するまでには時間がかかる。 自己相関の量や n {\displaystyle n} をアルゴリズムで決定することもできるが、それは黒魔術的である。

焼きなまし法(Simulated Annealing)はサンプリングの初期によく用いられる。しかしサンプル空間の移動が遅くサンプルの相関が強くなってしまう。その他の自己相関を減少させる方法には collapsed Gibbs samplingやblocked Gibbs sampling、ordered overrelaxationなどがある。

条件付き分布と同時分布の関係

他のすべての変数が与えられたときのある変数に関する条件付き確率は同時確率に比例する。 p ( x j 。 x 1 , … , x j − 1 , x j + 1 , … , x n ) = p ( x 1 , … , x n ) p ( x 1 , … , x j − 1 , x j + 1 , … , x n ) ∝ p ( x 1 , … , x n ) {\displaystyle p(x_{j}|x_{1},\dotsc ,x_{j-1},x_{j+1},\dotsc ,x_{n})={\frac {p(x_{1},\dotsc ,x_{n})}{p(x_{1},\dotsc ,x_{j-1},x_{j+1},\dotsc ,x_{n})}}\propto p(x_{1},\dotsc ,x_{n})}

ここで比例するとは、分母が x j {\displaystyle x_{j}} の関数ではなく、 x j {\displaystyle x_{j}} がどんな値であれ分母が定数であることである。周辺化定数は同時確率を x j {\displaystyle x_{j}} に関して周辺化した値である。 p ( x 1 , … , x j − 1 , x j + 1 , … , x n ) = ∫ p ( x 1 , … , x n ) d x j {\displaystyle p(x_{1},\dotsc ,x_{j-1},x_{j+1},\dotsc ,x_{n})=\int p(x_{1},\dotsc ,x_{n})dx_{j}}

実用上、確率変数 x j {\displaystyle x_{j}} の条件付き分布を求めるためのもっとも簡単な方法はグラフィカルモデルの変数のうち x j {\displaystyle x_{j}} の関数ではない値を独立とみなして因子化すればいい。

そのほかには、3つの場合が考えられる。
分布が離散分布である場合、 x j {\displaystyle x_{j}} の取りうる値すべてに関して確率を計算し、足しあわせることで周辺化定数を計算すればいい。

分布が連続で既知の形を持つ場合、1次元の周辺化なので周辺化定数が計算可能である。

その他の場合、周辺化定数は無視することができる。大抵のサンプリング法は周辺化定数がなくても問題ではない。

理論

サンプル X {\displaystyle \left.X\right.} を次元 d {\displaystyle \left.d\right.} のパラメータベクトル θ ∈ Θ {\displaystyle \theta \in \Theta \,\!} に基づいた事前分布 g ( θ 1 , … , θ d ) {\displaystyle g(\theta _{1},\dotsc ,\theta _{d})} からサンプリングする。

d {\displaystyle \left.d\right.} が大きい場合、数値積分を行ない θ i {\displaystyle \left.\theta _{i}\right.} の周辺化分布を計算することは困難を伴う。

その周辺化分布の計算を Θ {\displaystyle \left.\Theta \right.} 空間上のマルコフ連鎖を生成することで代替する。以下の2ステップを繰り返す。
j {\displaystyle j} を選ぶ 1 ≤ j ≤ d {\displaystyle 1\leq j\leq d}

g ( θ 1 , … , θ j − 1 , ⋅ , θ j + 1 , … , θ d ) {\displaystyle g(\theta _{1},\dotsc ,\theta _{j-1},\,\cdot \,,\theta _{j+1},\dotsc ,\theta _{d})} の分布にしたがい、新しい変数 θ j {\displaystyle \left.\theta _{j}\right.} を選ぶ。

この2ステップは分布 g {\displaystyle \left.g\right.} にしたがう可逆なマルコフ連鎖を生成する。

これは以下の通り証明される。すべての i ≠ j {\displaystyle i\neq j} に関して x i = y i {\displaystyle \left.x_{i}=y_{i}\right.} であれば、 x ∼ j y {\displaystyle x\sim _{j}y} と表す。


次ページ
記事の検索
おまかせリスト
▼オプションを表示
ブックマーク登録
mixiチェック!
Twitterに投稿
オプション/リンク一覧
話題のニュース
列車運行情報
暇つぶしWikipedia

Size:37 KB
出典: フリー百科事典『ウィキペディア(Wikipedia)
担当:undef