自己回帰モデル(じこかいきモデル、英: autoregressive model)は時点 t におけるモデル出力が時点 t 以前のモデル出力に依存する確率過程である。ARモデルとも呼ばれる。
自己回帰モデルは、例えば自然科学や経済学において、時間について変動する過程を描写している。(古典的な)自己回帰モデルは実現値となる変数がその変数の過去の値と確率項(確率、つまりその値を完全には予測できない項)に線形に依存している。ゆえに自己回帰モデルは一種の確率差分方程式の形状を取る。
自己回帰モデルはより一般的な時系列の自己回帰移動平均モデル(ARMAモデル)の特別なケースである。また、一つ以上の確率差分方程式からなるベクトル自己回帰モデル
(英語版)(VARモデル)の特別ケースでもある。推計統計学・機械学習における生成モデルとしても自己回帰モデルは表現でき、古典的な(線形)自己回帰生成モデルを拡張した非線形自己回帰生成モデルも盛んに研究されている。A R ( p ) {\displaystyle AR(p)} という記法はオーダー p の自己回帰モデルを意味している。AR(p) モデルは以下のように定義される。 X t = c + ∑ i = 1 p φ i X t − i + ε t {\displaystyle X_{t}=c+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}\,}
ここで φ 1 , … , φ p {\displaystyle \varphi _{1},\ldots ,\varphi _{p}} はモデルのパラメーターであり、 c {\displaystyle c} は定数項、 ε t {\displaystyle \varepsilon _{t}} はホワイトノイズである。この式は後退オペレーター
(英語版) B を用いることで以下のような同値である表現で書き表すことが出来る。 X t = c + ∑ i = 1 p φ i B i X t + ε t {\displaystyle X_{t}=c+\sum _{i=1}^{p}\varphi _{i}B^{i}X_{t}+\varepsilon _{t}}よって、左辺の総和を移項し多項式表現を用いれば、 ϕ ( B ) X t = c + ε t . {\displaystyle \phi (B)X_{t}=c+\varepsilon _{t}\,.}
と表せる。ゆえに自己回帰モデルは、ホワイトノイズを入力値とする、全ての極における無限インパルス応答の出力値として見なすことも出来る。
自己回帰モデルが弱定常であるためにはいくつかのパラメーター制約が必要になる。例えば、 。 φ 1 。 ≥ 1 {\displaystyle |\varphi _{1}|\geq 1} であるAR(1) モデルで表現される過程は定常ではない。より一般的に、AR(p) モデルが弱定常であるためには、多項式 z p − ∑ i = 1 p φ i z p − i {\displaystyle \textstyle z^{p}-\sum _{i=1}^{p}\varphi _{i}z^{p-i}} の根が単位円の内側になくてはならない。つまり全ての根 z i {\displaystyle z_{i}} が 。 z i 。 < 1 {\displaystyle |z_{i}|<1} を満たさなくてはならない。 自己回帰モデルにおいて、一時点でのショックは将来の更新変数の値に恒久的に影響を与える。例えば、AR(1) モデル X t = c + φ 1 X t − 1 + ε t {\displaystyle X_{t}=c+\varphi _{1}X_{t-1}+\varepsilon _{t}} を考えてみよう。t=1 時点での ε t {\displaystyle \varepsilon _{t}} の値がゼロでなければ、 ε 1 {\displaystyle \varepsilon _{1}} の量だけ X 1 {\displaystyle X_{1}} に影響がある。この時、 X 1 {\displaystyle X_{1}} から見た X 2 {\displaystyle X_{2}} についてのAR方程式により、 ε 1 {\displaystyle \varepsilon _{1}} は φ 1 ε 1 {\displaystyle \varphi _{1}\varepsilon _{1}} の量だけ X 2 {\displaystyle X_{2}} に影響を与える。さらに、 X 2 {\displaystyle X_{2}} から見た X 3 {\displaystyle X_{3}} についてのAR方程式により、 ε 1 {\displaystyle \varepsilon _{1}} は φ 1 2 ε 1 {\displaystyle \varphi _{1}^{2}\varepsilon _{1}} の量だけ X 3 {\displaystyle X_{3}} に影響を与える。これを繰り返すことで ε 1 {\displaystyle \varepsilon _{1}} の効果は永久に波及することが分かる。しかしながら、過程が定常過程ならば、この効果は極限において0となる。 全てのショックが、それが起こった時点から X に恒久的に影響を与えるため、任意の与えられた Xt の値は過去に起こったショック全てから影響を受ける。これは自己回帰方程式 ϕ ( B ) X t = ε t {\displaystyle \phi (B)X_{t}=\varepsilon _{t}\,} (ここで定数項は変数が平均からの逸脱として測定されると仮定することで無視できる)が以下のように書き直せることからもまた分かる。 X t = 1 ϕ ( B ) ε t . {\displaystyle X_{t}={\frac {1}{\phi (B)}}\varepsilon _{t}\,.} 右辺における多項式の除算が可能なのであれば、 ε t {\displaystyle \varepsilon _{t}} に適用される後退オペレーターによる多項式は無限次元のオーダーを持つ。つまり、 ε t {\displaystyle \varepsilon _{t}} のラグ値が方程式の右辺において無限個現れる。 AR(p) 過程の自己相関関数は以下のように表すことが出来る[1]。 ρ ( τ ) = ∑ k = 1 p a k y k − 。 τ 。 , {\displaystyle \rho (\tau )=\sum _{k=1}^{p}a_{k}y_{k}^{-|\tau |},} ここで y k {\displaystyle y_{k}} は以下の多項式の根である。 ϕ ( B ) = 1 − ∑ k = 1 p φ k B k {\displaystyle \phi (B)=1-\sum _{k=1}^{p}\varphi _{k}B^{k}} ここで B は後退オペレーター
ショックの異時点間における影響
特性多項式
AR(p) 過程の自己相関関数は指数減衰する部分の和となっている。
全ての実数根は指数減衰する自己相関関数の構成要素として寄与する。
同様にすべての複素数の共役根の組は指数的に減衰する循環として寄与する。
AR(p) 過程のグラフAR(0); AR(1) with AR parameter 0.3; AR(1) with AR parameter 0.9; AR(2) with AR parameters 0.3 and 0.3; and AR(2) with AR parameters 0.9 and ?0.8
最も単純なARモデルは AR(0) であり、項の間に依存関係がない。誤差/イノベーション/ノイズ項のみが過程の出力に寄与し、ゆえに図で示されているように AR(0) はホワイトノイズに対応する。
φ {\displaystyle \varphi } の値が正である AR(1) 過程について、その過程の以前の項とノイズ項のみが出力に寄与する。もし φ {\displaystyle \varphi } が0に近ければ、その過程は依然としてホワイトノイズのように見える。しかし、 φ {\displaystyle \varphi } が1に近いならば、出力はノイズに比べて現在の項に大きな影響を受ける。結果として出力の"スムージング"もしくは和分が起こり、ローパスフィルタと似たものとなる。
AR(2) 過程について、以前の二つの項とノイズ項が出力に寄与する。 φ 1 {\displaystyle \varphi _{1}} と φ 2 {\displaystyle \varphi _{2}} が共に正ならば、出力はノイズの高周波数領域が減衰するローパスフィルタに似通ったものとなる。もし φ 1 {\displaystyle \varphi _{1}} が正である一方で φ 2 {\displaystyle \varphi _{2}} が負であれば、過程はその項の間で符号が変わりやすくなる。出力は循環的となる。これは方向におけるエッジ検出もしくは変化検出と結びつけることが出来る。 AR(1) 過程は以下で与えられる。 X t = c + φ X t − 1 + ε t {\displaystyle X_{t}=c+\varphi X_{t-1}+\varepsilon _{t}\,}
例: AR(1) 過程