이토 공식

이토 공식

정리 1

이토 프로세스 $\left\{ X_{t} \right\}_{t \ge 0}$ 가 주어져 있다고 하자. $$ d X_{t} = u dt + v d W_{t} $$ 함수 $V \left( t, X_{t} \right) = V \in C^{2} \left( [0,\infty) \times \mathbb{R} \right)$ 에 대해 $Y_{t} := V \left( t, X_{t} \right)$ 라 두면 $\left\{ Y_{t} \right\}$ 역시 이토 프로세스고, 다음이 성립한다. $$ \begin{align*} d Y_{t} =& V_{t} dt + V_{x} d X_{t} + {{ 1 } \over { 2 }} V_{xx} \left( d X_{t} \right)^{2} \\ =& \left( V_{t} + V_{x} u + {{ 1 } \over { 2 }} V_{xx} v^{2} \right) dt + V_{x} v d W_{t} \end{align*} $$


설명

이토 공식이토 보조정리Itô Lemma 혹은 이토 연쇄법칙Itô Chain Rule으로도 불리는 정리로써 확률미분방정식 전반에서 대단히 중요하게 쓰인다. 거의 대부분의 계산에서 일상적으로 등장하기 때문에 연쇄법칙이라 불릴 자격은 충분하다.

증명 자체는 생략하는데, 그냥 다변수 테일러 정리를 적용한 뒤 고차항을 무시하는 식으로 한다.

예제

위너 프로세스로 위너 프로세스를 적분한다는 것은 직관적으로 이해하기 어렵다. 형식적으로 봤을 땐 리만 적분을 생각하던 상식대로 $\displaystyle \int_{0}^{t} W_{s} d W_{s} = {{ 1 } \over { 2 }} W_{t}^{2}$ 와 같은 결과가 자연스러운듯한데, 과연 그렇게 나오는지 직접 계산해보자.

이토 공식을 쓰기에 앞서 주어진 이토 프로세스를 $u = 0$, $v = 1$ 로 두어 $$ d X_{t} = 0 dt + 1 d W_{t} $$ 와 같이 세팅하면 $X_{t} = W_{t}$ 이다. 여기서 $\displaystyle Y_{t} := V \left( t , X_{t} \right) = {{ X_{t}^{2} } \over { 2 }}$ 라 하면 $$ \begin{align*} V_{t} =& {{ \partial } \over { \partial t }} \left( {{ 1 } \over { 2 }} W_{t}^{2} \right) = 0 \\ V_{x} =& {{ \partial } \over { \partial W_{t} }} \left( {{ 1 } \over { 2 }} W_{t}^{2} \right) = W_{t} \\ V_{xx} =& {{ \partial^{2} } \over { \partial W_{t}^{2} }} \left( {{ 1 } \over { 2 }} W_{t}^{2} \right) = {{ \partial } \over { \partial W_{t} }} W_{t} = 1 \end{align*} $$ 이므로 $u = 0$, $v = 1$ 에서 $$ \begin{align*} d \left( {{ W_{t}^{2} } \over { 2 }} \right) =& \left( V_{t} + V_{x} u + {{ 1 } \over { 2 }} V_{xx} v^{2} \right) dt + V_{x} v d W_{t} \\ =& \left( 0 + W_{t} \cdot 0 + {{ 1 } \over { 2 }} \cdot 1 \cdot 1^{2} \right) dt + W_{t} \cdot 1 \cdot d W_{t} \\ =& {{ 1 } \over { 2 }} dt + W_{t} d W_{t} \end{align*} $$ 미분꼴을 적분꼴로 바꾸면 $$ {{ W_{t}^{2} } \over { 2 }} = {{ 1 } \over { 2 }} t + \int_{0}^{t} W_{s} d W_{s} $$ 정리하면 다음을 얻는다. $$ \int_{0}^{t} W_{s} d W_{s} = {{ 1 } \over { 2 }} \left( W_{t}^{2} - t \right) $$ 언뜻 보기에는 리만 적분에서 없었던 $1$차항 $-t /2$ 이 생겨서 지저분하고 불편할 수 있다. 그러나 여기에 기대값을 취한다고 생각해보면 $$ t = \text{Var} \left( W_{t} \right) = E \left( W_{t}^{2} \right) - 0^{2} $$ 이므로 $$ E \left( \int_{0}^{t} W_{s} d W_{s} \right) = {{ 1 } \over { 2 }} \left( t - t \right) = 0 $$ 와 같이 깔끔하게 사라지는 것을 확인할 수 있다. $1$차항은 단순히 계산 방법의 차이 때문에 생기는 쓰레기항이 아니라 그 나름의 의미가 다 있는 것이다. 위너 프로세스를 위너 프로세스로 적분했을 때 그 기대값은 $0$ 이 되어야한다는 것에 공감한다면 위의 결론을 직관적으로 받아들인 것으로 볼 수 있겠다.

확률적분 2

$a < b$ 이고 $c$ 는 상수고 $t > 0$ 라 하자.

$$ \begin{align*} \int_{0}^{t} d W_{s} =& W_{t} \\ \int_{a}^{b} c d W_{s} =& c \left[ W_{b} - W_{a} \right] \end{align*} $$

위 두가지 경우는 평범한 리만 적분과 같은 결과를 내지만, 다음은 이토 적분만의 독특한 결과를 낸다.

$$ \begin{align*} \int_{0}^{t} W_{s} d W_{s} =& {{ 1 } \over { 2 }} W_{t}^{2} - {{ 1 } \over { 2 }} t \\ \int_{a}^{b} W_{s} d W_{s} =& {{ 1 } \over { 2 }} \left[ W_{b}^{2} - W_{a}^{2} \right] - {{ 1 } \over { 2 }} (b-a) \\ \int_{0}^{t} s d W_{s} =& t W_{t} - \int_{0}^{t} W_{s} ds = (t-1) W_{t} \\ \int_{0}^{t} W_{s}^{2} d W_{s} =& {{ 1 } \over { 3 }} W_{t}^{3} - \int_{0}^{t} W_{s} ds \\ \int_{0}^{t} e^{W_{s}} d W_{s} =& e^{W_{t}} - 1 - {{ 1 } \over { 2 }} \int_{0}^{t} e^{W_{s}} ds \\ \int_{0}^{t} W_{t} e^{W_{s}} d W_{s} =& 1 + W_{t} e^{W_{t}} - e^{W_{t}} - {{ 1 } \over { 2 }} \int_{0}^{t} e^{W_{s}} \left( 1 + W_{s} \right) d W_{s} \\ \int_{0}^{t} s W_{s} d W_{s} =& {{ t } \over { 2 }} \left( W_{t}^{2} - {{ t } \over { 2 }} \right) - {{ 1 } \over { 2 }} \int_{0}^{t} W_{s}^{2} ds \\ \int_{0}^{t} \left( W_{s}^{2} - s \right) d W_{s} =& {{ 1 } \over { 3 }} W_{t}^{3} - t W_{t} \\ \int_{0}^{t} e^{-s/2 + W_{s}} d W_{s} =& e^{-t/2 + W_{t}} - 1 \\ \int_{0}^{t} \sin W_{s} d W_{s} =& 1 - \cos W_{t} - {{ 1 } \over { 2 }} \int_{0}^{t} \cos W_{s} ds \\ \int_{0}^{t} \cos W_{s} d W_{s} =& \sin W_{t} + {{ 1 } \over { 2 }} \int_{0}^{t} \sin W_{s} ds \end{align*} $$

특히 기대값과 분산에 대해서는 다음의 등식들이 알려져있다.

$$ \begin{align*} E \left( \int_{0}^{t} d W_{s} \right) =& 0 \\ E \left( \int_{0}^{t} W_{s} d W_{s} \right) =& 0 \\ \text{Var} \left( \int_{0}^{t} W_{s} d W_{s} \right) =& {{ t^{2} } \over { 2 }} \end{align*} $$


  1. Øksendal. (2003). Stochastic Differential Equations: An Introduction with Applications: p48. ↩︎

  2. Panik. (2017). Stochastic Differential Equations: An Introduction with Applications in Population Dynamics Modeling: p125. ↩︎

댓글