5.時系列問題に対する回帰モデル

5.1.時系列問題に対する回帰モデル

 時系列の変数 xt  ∈Rが、過去の自分の値によって定まるようなモデルを自己回帰モデルという。

 

xt=f(xt-1)+et   (2)

 

et は時刻tにおけるホワイトノイズである。

時刻tの変数xtが、時刻xt-1,xt-2, …、xt-pのときの値によって表現される場合

 

xt=f(xt-1,xt-2, …、xt-p)+ et    (3)

 

(2)は、xt に関する次数pの自己回帰モデルという。

 

5.2.時系列問題に対する線形回帰モデル

(3)式の自己回帰モデルにおいて、関数fが、入力 xt-1,xt-2, …、xt-pの線形結合で表現できる(4)式の場合、これを線形自己回帰モデルという。

5.3.時系列問題に対する非線形回帰モデル[22]

(3)式における関数f : Rp  → R が非線形の場合、(3)は、xt に関する次数pの非線形自己回帰モデルとなる。関数fを同定する方法としては、状態空間を部分空間に分割してその中で局所的に同定する局所的手法と、滑らかな基底関数を組み合わせて大域的に同定する大域的手法に大別される[23]。

 局所的手法には、さらに区分線形化法[24]、グラムシュミットの直交化法によるもの[25]、シンプレックス分割による方法[26]、テセレーション法[27]などがある。

 局所的手法とファジィ推論を融合させたものには、メンバシップ関数を用いたノンパラメトリック回帰モデルによる手法[28]や局所ファジィ再構成法[29]などがある。

 一方、大域的手法にはシグモイド関数をノード関数に用いる階層型ニューラルネットワーク[30]、深層ニューラルネットワーク[37]、ラジアル基底関数ネットワーク[23],[31],[32],[33],[34]、ファジィ関係を用いた手法[35]、畳み込みニューラルネットワーク[37]などがある。

 階層型ニューラルネットワーク、深層ニューラルネットワーク、ラジアル基底関数ネットワーク、ファジィモデルは、いずれもユニット数やルール数を十分多くとれば、コンパクト集合上の任意の連続関数を任意の精度で近似できることが近似理論の立場から示されているので、これがこれらの関数近似法を利用する根拠となっている[22]。


このコンテンツは会員限定のコンテンツです。
会員登録または、ログインしてください。

あわせて読みたい