logo

伊藤の公式 📂確率微分方程式

伊藤の公式

定理 1

イットウ過程 $\left\{ X_{t} \right\}_{t \ge 0}$ が与えられているとする。 $$ d X_{t} = u dt + v d W_{t} $$ 関数 $V \left( t, X_{t} \right) = V \in C^{2} \left( [0,\infty) \times \mathbb{R} \right)$ に対して $Y_{t} := V \left( t, X_{t} \right)$ としよう。すると $\left\{ Y_{t} \right\}$ もまたイットウ過程であり、次が成り立つ。 $$ \begin{align*} d Y_{t} =& V_{t} dt + V_{x} d X_{t} + {{ 1 } \over { 2 }} V_{xx} \left( d X_{t} \right)^{2} \\ =& \left( V_{t} + V_{x} u + {{ 1 } \over { 2 }} V_{xx} v^{2} \right) dt + V_{x} v d W_{t} \end{align*} $$


  • $C^{2}$ は二度微分可能で、その導関数が連続である関数のクラスだ。
  • $\displaystyle V_{t} = {{ \partial V } \over { \partial t }}$、$\displaystyle V_{x} = {{ \partial V } \over { \partial X_{t} }}$、$\displaystyle V_{xx} = {{ \partial^{2} V } \over { \partial X_{t}^{2} }}$ である。
  • $\left( d X_{t} \right)^{2} = d X_{t} \cdot d X_{t}$ は次のイットウ乗算テーブルに従って計算される。 $$ \begin{align*} \left( dt \right)^{2} =& 0 \\ dt d W_{t} =& 0 \\ d W_{t} dt =& 0 \\ \left( d W_{t} \right)^{2} =& dt \end{align*} $$ したがって、 $$ \begin{align*} \left( d X_{t} \right)^{2} =& \left( u dt + v d W_{t} \right) \left( u dt + v d W_{t} \right) \\ =& u^{2} \left( dt \right)^{2} + 2 uv dt d W_{t} + v^{2} \left( d W_{t} \right)^ {2} \\ =& u^{2} \cdot 0 + 2 \cdot 0 + v^{2} dt \\ =& v^{2} dt \end{align*} $$ を得る。

説明

イットウ公式は、イットウ補題またはイットウ連鎖則とも呼ばれ、確率微分方程式全般で非常に重要に使われる定理である。ほとんどすべての計算で日常的に登場するため、連鎖則と呼ばれる価値は十分にある。

証明はここでは省略されるが、ただ多変数テーラー定理を適用して、高次の項を無視する方法で行われる。

ウィーナー過程でウィーナー過程を積分することは直感的に理解しにくい。形式的にはリーマン積分を思い浮かべた常識通り$\displaystyle \int_{0}^{t} W_{s} d W_{s} = {{ 1 } \over { 2 }} W_{t}^{2}$ のような結果が自然と思われるが、実際に計算してみよう。

イットウ公式を使う前に、与えられたイットウ過程を $u = 0$、$v = 1$ として $$ d X_{t} = 0 dt + 1 d W_{t} $$ のようにセットすると $X_{t} = W_{t}$ である。ここで、$\displaystyle Y_{t} := V \left( t , X_{t} \right) = {{ X_{t}^{2} } \over { 2 }}$ とすると $$ \begin{align*} V_{t} =& {{ \partial } \over { \partial t }} \left( {{ 1 } \over { 2 }} W_{t}^{2} \right) = 0 \\ V_{x} =& {{ \partial } \over { \partial W_{t} }} \left( {{ 1 } \over { 2 }} W_{t}^{2} \right) = W_{t} \\ V_{xx} =& {{ \partial^{2} } \over { \partial W_{t}^{2} }} \left( {{ 1 } \over { 2 }} W_{t}^{2} \right) = {{ \partial } \over { \partial W_{t} }} W_{t} = 1 \end{align*} $$ であるため、$u = 0$、$v = 1$ から $$ \begin{align*} d \left( {{ W_{t}^{2} } \over { 2 }} \right) =& \left( V_{t} + V_{x} u + {{ 1 } \over { 2 }} V_{xx} v^{2} \right) dt + V_{x} v d W_{t} \\ =& \left( 0 + W_{t} \cdot 0 + {{ 1 } \over { 2 }} \cdot 1 \cdot 1^{2} \right) dt + W_{t} \cdot 1 \cdot d W_{t} \\ =& {{ 1 } \over { 2 }} dt + W_{t} d W_{t} \end{align*} $$ 微分形を積分形に変えると $$ {{ W_{t}^{2} } \over { 2 }} = {{ 1 } \over { 2 }} t + \int_{0}^{t} W_{s} d W_{s} $$ を整理すると、次を得る。 $$ \int_{0}^{t} W_{s} d W_{s} = {{ 1 } \over { 2 }} \left( W_{t}^{2} - t \right) $$ 一見すると、リーマン積分にはなかった$1$巻く $-t /2$ が生じ、ごちゃごちゃして不便に見えるかもしれない。しかし、ここで期待値を取ると考えると $$ t = \operatorname{Var} \left( W_{t} \right) = E \left( W_{t}^{2} \right) - 0^{2} $$ よって、 $$ E \left( \int_{0}^{t} W_{s} d W_{s} \right) = {{ 1 } \over { 2 }} \left( t - t \right) = 0 $$ のようにきれいに消えることが確認できる。$1$項は単に計算方法の違いで生じるゴミ項ではなく、それなりの意味があるものだ。ウィーナー過程をウィーナー過程で積分したときの期待値は$0$ になるべきで、それに同意するなら、上の結論を直感的に受け入れることができるだろう。

確率積分 2

$a < b$ であり、$c$ は定数で、$t > 0$ としよう。

$$ \begin{align*} \int_{0}^{t} d W_{s} =& W_{t} \\ \int_{a}^{b} c d W_{s} =& c \left[ W_{b} - W_{a} \right] \end{align*} $$

上記の2つのケースは通常のリーマン積分と同じ結果を出すが、次はイットウ積分特有の結果を出す。

$$ \begin{align*} \int_{0}^{t} W_{s} d W_{s} =& {{ 1 } \over { 2 }} W_{t}^{2} - {{ 1 } \over { 2 }} t \\ \int_{a}^{b} W_{s} d W_{s} =& {{ 1 } \over { 2 }} \left[ W_{b}^{2} - W_{a}^{2} \right] - {{ 1 } \over { 2 }} (b-a) \\ \int_{0}^{t} s d W_{s} =& t W_{t} - \int_{0}^{t} W_{s} ds = (t-1) W_{t} \\ \int_{0}^{t} W_{s}^{2} d W_{s} =& {{ 1 } \over { 3 }} W_{t}^{3} - \int_{0}^{t} W_{s} ds \\ \int_{0}^{t} e^{W_{s}} d W_{s} =& e^{W_{t}} - 1 - {{ 1 } \over { 2 }} \int_{0}^{t} e^{W_{s}} ds \\ \int_{0}^{t} W_{t} e^{W_{s}} d W_{s} =& 1 + W_{t} e^{W_{t}} - e^{W_{t}} - {{ 1 } \over { 2 }} \int_{0}^{t} e^{W_{s}} \left( 1 + W_{s} \right) d W_{s} \\ \int_{0}^{t} s W_{s} d W_{s} =& {{ t } \over { 2 }} \left( W_{t}^{2} - {{ t } \over { 2 }} \right) - {{ 1 } \over { 2 }} \int_{0}^{t} W_{s}^{2} ds \\ \int_{0}^{t} \left( W_{s}^{2} - s \right) d W_{s} =& {{ 1 } \over { 3 }} W_{t}^{3} - t W_{t} \\ \int_{0}^{t} e^{-s/2 + W_{s}} d W_{s} =& e^{-t/2 + W_{t}} - 1 \\ \int_{0}^{t} \sin W_{s} d W_{s} =& 1 - \cos W_{t} - {{ 1 } \over { 2 }} \int_{0}^{t} \cos W_{s} ds \\ \int_{0}^{t} \cos W_{s} d W_{s} =& \sin W_{t} + {{ 1 } \over { 2 }} \int_{0}^{t} \sin W_{s} ds \end{align*} $$

特に期待値と分散に関しては、次の等式が知られている。

$$ \begin{align*} E \left( \int_{0}^{t} d W_{s} \right) =& 0 \\ E \left( \int_{0}^{t} W_{s} d W_{s} \right) =& 0 \\ \operatorname{Var} \left( \int_{0}^{t} W_{s} d W_{s} \right) =& {{ t^{2} } \over { 2 }} \end{align*} $$


  1. Øksendal. (2003). Stochastic Differential Equations: An Introduction with Applications: p48. ↩︎

  2. Panik. (2017). Stochastic Differential Equations: An Introduction with Applications in Population Dynamics Modeling: p125. ↩︎