logo

確率微分方程式におけるホワイトノイズ 📂確率微分方程式

確率微分方程式におけるホワイトノイズ

モチーブ

ξ(t):=?W˙(t)=dW(t)dt \xi (t) \overset{?}{:=} \dot{W}(t) = {{d W (t)} \over {dt}}

上で見せたようにウィーナー過程の導関数として定義されたξ\xiを想像してみよう。ブラウン運動を考えると、このξ(t)\xi (t)は時点ttにおけるランダムな上下動を表すノイズになるはずだ。見た目はとても直感的で全く奇妙ではないが、残念ながら一般的なセンスではW˙(t)\dot{W}(t)の存在性に問題がある。

ウィーナー過程の微分不可能性 1

Yh:=W(t+h)W(t)h Y_{h} := {{W (t + h) - W(t)} \over {h}}

ウィーナー過程{Wt}t0\left\{ W_{t} \right\}_{t \ge 0}について、上に示すような平均変化率確率過程{Yh}\left\{ Y_{h} \right\}を考えてみよう。当然YhY_{h}は正規分布に従い、その平均と分散は以下のように計算される。 E(Yh)=1hE(W(t+h)W(t))=0Var(Yh)=1h2Var(W(t+h)W(t))=1h2h=1h \begin{align*} E \left( Y_{h} \right) & = {{ 1 } \over { h }} E \left( W (t+h) - W (t) \right) = 0 \\ \Var \left( Y_{h} \right) & = {{ 1 } \over { h^{2} }} \Var \left( W (t+h) - W (t) \right) = {{ 1 } \over { h^{2} }} \cdot h = {{ 1 } \over { h }} \end{align*} したがって、YnY_{n}標準正規分布N(0,1)N(0,1)に従う確率変数ZZに対してYh=1hZ\displaystyle Y_{h} = {{ 1 } \over { \sqrt{h} }} Zとして表される。 この時、適切な定数k>0k > 0に対する確率 P(Yh>k)=P(Zh>k) P \left( \left| Y_{h} \right| > k \right) = P \left( \left| {{ Z } \over { \sqrt{h} }} \right| > k \right) を考えてみよう。kkが何であれZZと一緒に固定されていてh0h \to 0ならば、Zh\left| {{ Z } \over { \sqrt{h} }} \right|は無限大に発散するため、 limh0P(Zh>k)=1 \lim_{h \to 0} P \left( \left| {{ Z } \over { \sqrt{h} }} \right| > k \right) = 1 が成立する。これを言い換えると、平均変化率確率過程と思っていた{Yh}\left\{ Y_{h} \right\}が実は(確率)発散しており、結局W(t)W(t)はどこでも微分できないと分かる。

ビルドアップ

ウィーナー過程と伝統的な導関数の概念ではホワイトノイズを定義するのにやや問題があったため、回避して定義を下ろそうとしている。まず、{Xt}t0\left\{ X_{t} \right\}_{t \ge 0}が常に有限分散正規分布に従う確率過程であるとしよう。つまり、すべてのt0t \ge 0に対して E(Xt2)< E \left( X_{t}^{2} \right) < \infty である。すべてのt1,t20t_{1}, t_{2} \ge 0に対して E(Xt1)=E(Xt2) E \left( X_{t_{1}} \right) = E \left( X_{t_{2}} \right) でありながら、ある関数h=RRh = \mathbb{R} \to \mathbb{R}との共分散Cov(Xt1,Xt2)=E(Xt1Xt2)=h(t2t1) \operatorname{Cov} \left( X_{t_{1}} , X_{t_{2}} \right) = E \left( X_{t_{1}} \cdot X_{t_{2}} \right) = h \left( t_{2} - t_{1} \right) として表れるならば、このガウシアン確率過程{Xt}t0\left\{ X_{t} \right\}_{t \ge 0}広義で定常的stationary in the wide Senseと言われる。これは、一定の平均を持ちながら時差に依存する分散の変化が関数hhを通じて説明されることを表しており、時系列分析での定常性から少し退行した程度の適切な表現であると言える。

ディラック点質量関数: δx0\delta_{x_0}を以下のように定義されたディラック測度としよう。 δx0(E):={1x0E0x0E \delta_{x_0} (E) := \begin{cases} 1 & x_0 \in E \\ 0 & x_0 \notin E \end{cases}

特に、もしX0=0X_{0} = 0でありhhx0=0x_{0} =0のディラック関数であれば、{Xt}t0\left\{ X_{t} \right\}_{t \ge 0}のその直感的意味は以下のすべてを満たすノイズになる。 XtN(0,1)(EX0=0δ0=1    EXt2=1)Xt1Xt2(δ0=0    Cov(Xt1,Xt2)=0) \begin{align*} X_{t} & \sim N \left( 0 , 1 \right) & \left( \because E X_{0} = 0 \land \delta_{0} = 1 \implies E X_{t}^{2} = 1 \right) \\ X_{t_{1}} & \perp X_{t_{2}} & \left( \because \delta_{0} = 0 \implies \operatorname{Cov} \left( X_{t_{1}}, X_{t_{2}} \right) = 0 \right) \end{align*}

これは、ノイズにドリフトがなく―平均が00であり、分散が一定の正規分布に従い、ある時点のノイズは他の時点のどんなノイズとも独立であることを意味する。ウィーナー過程の定義から見て、(i)と(ii)を満たす性質であり、(iii)と(iv)は一点というより一定の区間を考えた時に意味を持つため、ホワイトノイズを論じる時にはあまり意味がない。

ウィーナー過程: s<t<t+us< t < t+uとする時、以下の条件を満たす確率過程{Wt}\left\{ W_{t} \right\}ウィーナー過程という。

  • (i): W0=0W_{0} = 0
  • (ii): (Wt+uWt)Ws\left( W_{t+u} - W_{t} \right) \perp W_{s}
  • (iii): (Wt+uWt)N(0,u)\left( W_{t+u} - W_{t} \right) \sim N ( 0, u )
  • (iv): WtW_{t}のサンプルパスはほとんどどこでも連続である。

これにより、我々は実際のウィーナー過程の導関数としてではなく、各時点のノイズとして十分な次の定義を導入しようとしている。実際、この定義の後で、数式でも自然に以下のような表現を使う。 ξ(t)=dW(t)dtdW(t)=noisedt \begin{align*} \xi (t) =& {{d W (t)} \over {dt}} \\ d W (t) =& \text{noise} \cdot dt \end{align*}

ウィーナー過程の定義を超関数に拡張すると、ウィーナー過程の超関数的導関数ホワイトノイズの定義を満たす。つまり、ホワイトノイズはウィーナー過程の弱導関数である。

定義 2

ガウシアン確率過程{ξ(t)}\left\{ \xi (t) \right\}が以下の二つの条件を満たす方法で広義の定常性を持つならば、白色ノイズwhite noiseと言われる。

  • (i): E(ξ(0))=0E \left( \xi (0) \right) = 0
  • (ii): Cov(ξ(t1),ξ(t2))=δ0\operatorname{Cov} \left( \xi \left( t_{1} \right), \xi \left( t_{2} \right) \right) = \delta_{0}

一緒に見る


  1. Panik. (2017). Stochastic Differential Equations: An Introduction with Applications in Population Dynamics Modeling: p110. ↩︎

  2. Panik. (2017). Stochastic Differential Equations: An Introduction with Applications in Population Dynamics Modeling: p109. ↩︎