単純ベイズ分類器
[Wikipedia|▼Menu]

単純ベイズ分類器(たんじゅんベイズぶんるいき、: Naive Bayes classifier)は、単純な確率的分類器である。
概要

単純ベイズ分類器の元となる確率モデルは強い(単純な)独立性仮定と共にベイズの定理を適用することに基づいており、より正確に言えば「独立特徴モデル; independent feature model」と呼ぶべきものである。

確率モデルの性質に基づいて、単純ベイズ分類器は教師あり学習の設定で効率的に訓練可能である。多くの実用例では、単純ベイズ分類器のパラメータ推定には最尤法が使われる。つまり、単純ベイズ分類器を使用するにあたって、ベイズ確率やその他のベイズ的手法を使う必要はない。

設計も仮定も非常に単純であるにもかかわらず、単純ベイズ分類器は複雑な実世界の状況において、期待よりもずっとうまく働く。近頃、ベイズ分類問題の注意深い解析によって、単純ベイズ分類器の効率性に理論的理由があることが示された[1]。単純ベイズ分類器の利点は、分類に不可欠なパラメータ(変数群の平均と分散)を見積もるのに、訓練例データが少なくて済む点である。変数群は独立であると仮定されているため、各クラスについての変数の分散だけが必要であり、共分散行列全体は不要である。
単純ベイズ確率モデル

抽象的には、分類器の確率モデルは次のような依存クラス変数 C {\displaystyle C} についての条件付きモデルである。クラスは、いくつかの特徴変数 F 1 {\displaystyle F_{1}} から F n {\displaystyle F_{n}} までに依存している。 p ( C 。 F 1 , … , F n ) {\displaystyle p(C\vert F_{1},\dots ,F_{n})\,}

問題は、特徴数 n {\displaystyle n} が大きいとき、あるいは特徴がとりうる値の範囲が大きいとき、確率表に基づいたようなモデルは現実的でなくなることである。そこで、モデルをより扱いやすく変形する。

ベイズの定理を使えば、次のようになる。 p ( C 。 F 1 , … , F n ) = p ( C )   p ( F 1 , … , F n 。 C ) p ( F 1 , … , F n ) {\displaystyle p(C\vert F_{1},\dots ,F_{n})={\frac {p(C)\ p(F_{1},\dots ,F_{n}\vert C)}{p(F_{1},\dots ,F_{n})}}\,}

この式を英語で表すと次のようになる(Posterior = 事後、Prior = 事前、Likelihood = 尤度、Evidence = 証拠)。 P o s t e r i o r = P r i o r × L i k e l i h o o d E v i d e n c e {\displaystyle Posterior={\frac {Prior\times Likelihood}{Evidence}}\,}

実際には、分母は C {\displaystyle C} に依存しておらず、分母が実質的に一定であるように F i {\displaystyle F_{i}} が与えられるため、分子だけを考慮すればよい。分子は、次のように表される同時確率モデルと等価である。 p ( C , F 1 , … , F n ) {\displaystyle p(C,F_{1},\dots ,F_{n})\,}

これに条件付き確率の定義を繰り返し適用すると、次のように書き換えられる。 p ( C , F 1 , … , F n ) {\displaystyle p(C,F_{1},\dots ,F_{n})\,} = p ( C )   p ( F 1 , … , F n 。 C ) {\displaystyle =p(C)\ p(F_{1},\dots ,F_{n}\vert C)} = p ( C )   p ( F 1 。 C )   p ( F 2 , … , F n 。 C , F 1 ) {\displaystyle =p(C)\ p(F_{1}\vert C)\ p(F_{2},\dots ,F_{n}\vert C,F_{1})} = p ( C )   p ( F 1 。 C )   p ( F 2 。 C , F 1 )   p ( F 3 , … , F n 。 C , F 1 , F 2 ) {\displaystyle =p(C)\ p(F_{1}\vert C)\ p(F_{2}\vert C,F_{1})\ p(F_{3},\dots ,F_{n}\vert C,F_{1},F_{2})} = p ( C )   p ( F 1 。 C )   p ( F 2 。 C , F 1 )   p ( F 3 。 C , F 1 , F 2 )   p ( F 4 , … , F n 。 C , F 1 , F 2 , F 3 ) {\displaystyle =p(C)\ p(F_{1}\vert C)\ p(F_{2}\vert C,F_{1})\ p(F_{3}\vert C,F_{1},F_{2})\ p(F_{4},\dots ,F_{n}\vert C,F_{1},F_{2},F_{3})}

ここで、「単純」な条件付き独立性(英語版)を仮定する。すなわち、各特徴変数 F 1 , … , F n {\displaystyle F_{1},\dots ,F_{n}} が条件付きで独立であるとする。独立性より、次の式が成り立つ。 p ( F i ∣ C , F 1 , … , F i − 1 ) = p ( F i ∣ C ) {\displaystyle p(F_{i}\mid C,F_{1},\ldots ,F_{i-1})=p(F_{i}\mid C)\,}


次ページ
記事の検索
おまかせリスト
▼オプションを表示
ブックマーク登録
mixiチェック!
Twitterに投稿
オプション/リンク一覧
話題のニュース
列車運行情報
暇つぶしWikipedia

Size:50 KB
出典: フリー百科事典『ウィキペディア(Wikipedia)
担当:undef