F 의 서브 시그마 필드의 시퀀스{Fn}n∈N 이 다음을 만족하면 필트레이션filtration이라 부른다.
∀n∈N,Fn⊂Fn+1
필트레이션 {Fn}n∈N 이 주어져 있을 때 르벡 적분 가능한 Fn-가측 확률 변수 Xn 의 시퀀스{Xn}n∈N 가 이루는 순서쌍의 시퀀스{(Xn,Fn)} 이 다음을 만족하면 마틴게일이라 한다.
∀n∈N,E(Xn+1∣Fn)=Xn
Fn 가 F 의 서브 시그마 필드라는 것은 둘 다 Ω 의 시그마 필드이되, Fn⊂F 임을 의미한다.
Xn 이 Fn-가측 함수라는 것은 모든 보렐 셋B∈B(R) 에 대해 Xn−1(B)∈Fn 라는 의미다.
설명
참고로 다음을 각각 서브 마틴게일 , 슈퍼 마틴게일이라 한다. 부등호는 우변이 작아지면 서브, 우변이 커지면 슈퍼로 외우는 게 덜 헷갈릴 것이다.
∀n∈N,E(Xn+1∣Fn)≥Xn∀n∈N,E(Xn+1∣Fn)≤Xn
물론 서브 마틴게일이면서 슈퍼 마틴게일인 것은 마틴게일인 것과 동치다. 그래서 서브 마틴게일이든 슈퍼 마틴게일에 대해서 성립하는 정리가 있다면 마틴게일에도 그대로 적용할 수 있다.
마틴게일을 직관적으로 이해하는 것은 시그마 필드를 사건의 집합, ‘정보’로 생각하는 것에서 시작된다:
필트레이션: ∀n∈N,Fn⊂Fn+1, 그러니까 시그마 필드가 더 크다는 말은 그만큼 더 많은 정보가 있다는 의미다. 마틴게일의 정의에서 프로세스Xn 이 Fn-가측이라는 것은 실제 데이터 xn 이 관측됨에 따라 시그마 필드 Fn 도 넓어지며 n 번째까지의 모든 정보는 획득했다고 보아도 무방하다.
마틴게일: ∀n∈N,E(Xn+1∣Fn)=Xn 이란 곧 n 번째까지의 정보 Fn 를 알 때 그 다음 상황인 Xn+1 역시 Xn 과 비슷할 것으로 상정하는 것을 의미한다. Xn+1 의 기대값이 이제까지 얻어놓은 Fn 와 아무 상관없이 구해질거라면 이러한 확률 과정은 백색 잡음이나 다름 없고 통계적 분석의 대상이 되지 못한다. 고로, 마틴게일의 직관적인 정의는 ‘우리가 어떤 유리한 정보를 가져서 수학, 통계적으로 더 좋은 결과를 알 수 있는 확률 과정‘이라고 할 수 있다.
유래
프랑스의 한 마을이었던 ‘마르티그’에서는 소위 말하는 ‘묻고 따블 전략’이 유행했었다고 한다. 한 판을 지면 그 손실을 만회하기 위해 더 큰 베팅을 반복하는 방식인데, 심리적인 측면은 둘째 치고 이게 과연 현명한 방법인가 하는 부분에 대해서는 고민을 해 봐야 한다. 수학적으로 보았을 때 이러한 전략의 본질은
E(Xn+1∣X1,⋯,Xn)=Xn+1
이라는 수식, 다시 말해 마틴게일로 요약될 수 있다. ‘지금까지 계속 졌으니까 이번엔 이기겠지’라는 도박사의 오류를 지적하며, 왜 마틴게일 베팅이 무의미한지를 설명한다.
예시
(1)
ϕ=1 인 자기 회귀 과정 AR(1)Xn+1=Xn+εn 을 생각해보자. 필트레이션이 주어져있다면 Xn 에 대한 모든 정보는 모두 알고 있으므로 조건부 기대값의 성질에 따라
E(Xn+1∣Fn)=====E(Xn+εn∣Fn)E(Xn∣Fn)+E(εn∣Fn)Xn+E(εn∣Fn)Xn+E(εn)Xn
이므로 {(Xn,Fn)} 는 마틴게일이 된다.
(2)
{Xn}n∈N 이 서로 독립이고 E(Xn)=0 이고 Sn:=i=1∑nXi 라고 하자. 그러면
E(Sn+1∣Fn)===Sn+E(Xn+1∣Fn)Sn+E(Xn+1)Sn+0
이므로 {(Sn,Fn)} 는 마틴게일이 된다.
한편 마틴게일과 컨벡스 함수 ϕ 가 주어지면 위와 같이 서브 마틴게일을 만들어낼 수 있다.
정리
마틴게일 {(Xn,Fn)} 과 컨벡스 함수 ϕ:R→R 에 대해 (ϕ(Xn),Fn) 는 서브 마틴게일이다.