ラグ演算子
時系列分析では、 ラグ演算子 (L)またはバックシフト演算子 (B)は時系列の要素を操作して前の要素を生成します。たとえば、ある時系列が与えられると
X = {X1、X2、…} {\ displaystyle X = \ {X_ {1}、X_ {2}、\ dots \} \、}それから
LXt = Xt−1 {\ displaystyle \、LX_ {t} = X_ {t-1}}すべてのt> 1 {\ displaystyle \; t> 1 \、}または、バックシフト演算子Bに関しても同様です。すべてのt> 1 {\ displaystyle \; t> 1 \、}に対してBXt = Xt-1 {\ displaystyle \、BX_ {t} = X_ {t-1}}です。同様に、この定義は次のように表すことができます
Xt = LXt + 1 {\ displaystyle \、X_ {t} = LX_ {t + 1}}すべてのt≥1{\ displaystyle \; t \ geq 1 \、}遅延演算子(およびバックシフト演算子)を任意の整数乗に上げることができるため、
L−1Xt = Xt + 1 {\ displaystyle \、L ^ {-1} X_ {t} = X_ {t + 1} \、}そして
LkXt = Xt-k。{\ displaystyle \、L ^ {k} X_ {t} = X_ {tk}。\、}ラグ多項式
ラグ演算子の多項式を使用できます。これは、ARMA(自己回帰移動平均)モデルの一般的な表記です。例えば、
εt= Xt−∑i = 1pφiXt−i =(1−∑i =1pφiLi)Xt {\ displaystyle \ varepsilon _ {t} = X_ {t}-\ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} = \ left(1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ right)X_ {t} \、}AR( p )モデルを指定します。
例えば、ARMAモデルを簡潔に指定することができ、そのようラグオペレータの多項式はラグ多項式と呼ばれています
φ(L)Xt =θ(L)εt{\ displaystyle \ varphi(L)X_ {t} = \ theta(L)\ varepsilon _ {t} \、}ここで、φ(L){\ displaystyle \ varphi(L)}およびθ(L){\ displaystyle \ theta(L)}はそれぞれラグ多項式を表します
φ(L)= 1−∑i =1pφiLi{\ displaystyle \ varphi(L)= 1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \、}そして
θ(L)= 1 + ∑i =1qθiLi。{\ displaystyle \ theta(L)= 1 + \ sum _ {i = 1} ^ {q} \ theta _ {i} L ^ {i}。\、}ラグ演算子の多項式は、変数の数と多項式と同様の乗算と除算の規則に従います。例えば、
Xt =θ(L)φ(L)εt、{\ displaystyle X_ {t} = {\ frac {\ theta(L)} {\ varphi(L)}} \ varepsilon _ {t}、}と同じことを意味します
φ(L)Xt =θ(L)εt。{\ displaystyle \ varphi(L)X_ {t} = \ theta(L)\ varepsilon _ {t} \ ,.}変数の多項式と同様に、ラグ演算子の多項式は、多項式の長い除算を使用して別の多項式で除算できます。一般に、そのような多項式を別の多項式で除算すると、各多項式が有限次数(最高指数)の場合、無限次数の多項式になります。
+ {\ displaystyle _ {+}}で示される消滅演算子は 、負のべき乗(将来の値)を持つ多項式のエントリを削除します。
φ(1){\ displaystyle \ varphi \ left(1 \ right)}は係数の合計を示すことに注意してください。
φ(1)= 1−∑i =1pφi{\ displaystyle \ varphi \ left(1 \ right)= 1- \ sum _ {i = 1} ^ {p} \ varphi _ {i}}差分演算子
時系列分析では、最初の差分演算子:∇{\ displaystyle \ nabla}
∇Xt= Xt−Xt−1∇Xt =(1−L)Xt。{\ displaystyle {\ begin {array} {lcr} \ nabla X_ {t}&= X_ {t} -X_ {t-1} \ \\ nabla X_ {t}&=(1-L)X_ {t}〜。\ end {array}}}同様に、2番目の差分演算子は次のように機能します。
∇(∇Xt)= ∇Xt−∇Xt−1∇2Xt =(1−L)∇Xt∇2Xt=(1−L)(1−L)Xt∇2Xt=(1−L)2Xt。{\ displaystyle {\ begin {aligned} \ nabla(\ nabla X_ {t})&= \ nabla X_ {t}-\ nabla X_ {t-1} \\\ nabla ^ {2} X_ {t}&=(1- L)\ nabla X_ {t} \\\ nabla ^ {2} X_ {t}&=(1-L)(1-L)X_ {t} \\\ nabla ^ {2} X_ {t}&= (1-L)^ {2} X_ {t}〜。\ end {aligned}}}上記のアプローチは、 i番目の差分演算子∇iXt=(1-L)iXt。{\ displaystyle \ nabla ^ {i} X_ {t} =(1-L)^ {i} X_ {t} \に一般化されます。 }
条件付き期待
確率的プロセスでは、以前の情報セットが与えられた変数の期待値に注意することが一般的です。 Ωt{\ displaystyle \ Omega _ {t}}を、時刻tでの常識であるすべての情報とします(これは、期待演算子の下に添え字が付けられることがよくあります)。 Xの実現の期待値、 j時間ステップ、将来的には、次のように同等に記述できます。
E = Et。{\ displaystyle E = E_ {t} \ ,.}これらの時間依存の条件付き期待値では、予測変数の日付のみを調整するバックシフト演算子( B )と、予測変数の日付と情報セットを等しく調整するラグ演算子( L )を区別する必要があります。 :
LnEt = Et-n、{\ displaystyle L ^ {n} E_ {t} = E_ {tn} \ ,,} BnEt = Et。{\ displaystyle B ^ {n} E_ {t} = E_ {t} \、 。}