측도론과 확률론 요약 정리
개요
이미 측도론과 확률론을 공부한 사람을 위한 정의 및 개념 요약 자료이다. 빠른 복습과 정의를 찾아보는 편리함을 위해 작성되었다.
측도론
대수
$X \ne \varnothing$의 부분집합들의 컬렉션 $\mathcal{A}$가 유한 합집합과 여집합에 대해 닫혀있을 때, 이를 대수라 한다.
가산 합집합에 대해 닫혀있는 대수를 $\sigma$-대수라 한다.
Note:
- 정의에 따라 $\mathcal{A}$는 또한 교집합에 대해서도 닫혀있다 $\big( \because E_{1} \cap E_{2} = \left( E_{1} \cup E_{2} \right)^{c} \in \mathcal{A}$ for $E_{1}, E_{2} \in \mathcal{A} \big)$
- $\mathcal{A}$는 공집합 $\varnothing$과 전체집합 $X$을 포함한다. $\big( \because E \in \mathcal{A}$ $\implies$ $\varnothing = E \cap E^{c} \in \mathcal{A} \text{ and } X = E \cup E^{c} \in \mathcal{A} \big)$
$X$가 위상공간이면, $X$의 열린집합들의 컬렉션으로부터 만들어지는 $\sigma$-대수를 $X$ 상의 보렐 $\sigma$-대수라 하고 $\mathcal{B}_{X}$라 표기한다.
- 보렐 $\sigma$-대수는 모든 열린집합을 포함하는 가장 작은 유일한 $\sigma$-대수이다.
$\mathcal{E}$를 $X$ 상의 $\sigma$-대수라 하자. 순서쌍 $(X, \mathcal{E})$를 가측공간 이라 하고, $E \in \mathcal{E}$를 가측 집합이라 한다.
별다른 언급이 없으면, 아래에서는 고정된 가측 공간 $(X, \mathcal{E})$에 대해서 다룬다.
가측 함수
모든 실수 $\alpha \in \mathbb{R}$에 대해서, 다음을 만족하는 함수 $f : X \to \mathbb{R}$을 ($\mathcal{E}$-)가측이라 한다. $$ \left\{ x \in X : f(x) \gt \alpha \right\} \in \mathcal{E}\qquad \forall \alpha \in \mathbb{R}. $$
일반화
$(X, \mathcal{E})$, $(Y, \mathcal{F})$를 가측공간이라 하자. 함수 $f : X \to Y$가 다음을 만족할 때, 이를 $(\mathcal{E}, \mathcal{F})$-가측이라 한다. $$ f^{-1}(F) = \left\{ x \in X : f(x) \in F \right\} \in \mathcal{E}\qquad \forall F \in \mathcal{F}. $$
Note: $\mathcal{E}$-가측 함수는 위의 정의에서 $(Y, \mathcal{F}) = (\mathbb{R}, \mathcal{B}_{\mathbb{R}})$인 경우와 같다.
측도
$\mathcal{E}$ (혹은 $(X, \mathcal{E})$, $X$) 위의 측도란 다음을 만족하는 함수 $\mu : \mathcal{E} \to [0, \infty]$이다.
- Null empty set: $\mu (\varnothing) = 0$.
- Countable additivity: $\left\{ E_{j} \right\}$가 $\mathcal{E}$의 서로소인 집합들이면, $\displaystyle \mu \left( \bigcup\limits_{j} E_{j} \right) = \sum\limits_{j} \mu (E_{j})$.
트리플 $(X, \mathcal{E}, \mu)$를 측도 공간이라 한다. 별다른 언급이 없으면 아래에서는 고정된 측도 공간 $(X, \mathcal{E}, \mu)$에 대해서 다룬다.
보렐 측도란, 정의역이 보렐 $\sigma$-대수 $\mathcal{B}_{\mathbb{R}}$인 측도를 말한다: $$ \mu : \mathcal{B}_{\mathbb{R}} \to [0, \infty] $$
$(X, \mathcal{E})$, $(Y, \mathcal{F})$ 위의 두 측도 $\mu$, $\nu$에 대해서, 다음을 만족하는 $\mathcal{E} \times \mathcal{F}$ 위의 유일한 측도 $\mu \times \nu$를 $\mu$와 $\nu$의 곱 측도라 한다. $$ \mu \times \nu (E \times F) = \mu (E) \nu (F)\qquad \text{ for all rectangles } E \times F. $$
적분
실함수 $f$가 유한한 함숫값을 가질 때, 이를 단순하다고 한다.
단순 가측함수 $\varphi$는 다음과 같은 꼴로 표현된다. $$ \begin{equation} \varphi = \sum\limits_{j=1}^{n} a_{j}\chi_{E_{j}}, \text{ where } E_{j} = \varphi^{-1}(\left\{ a_{j} \right\}) \text{ and } \operatorname{range} (\varphi) = \left\{ a_{1}, \dots, a_{n} \right\}. \end{equation} $$ 여기서 $\chi_{E_{j}}$는 $E_{j}$의 특성 함수이다. 이를 $\varphi$의 standard representation이라 한다.
$\varphi$가 standard representation $(1)$을 갖는 단순 가측함수일 때, 측도 $\mu$에 대한 $\varphi$의 적분을 다음과 같이 정의한다. $$ \int \varphi d\mu := \sum\limits_{j=1}^{n} a_{j}\mu (E_{j}). $$ Notation: $$ \int \varphi d\mu = \int \varphi = \int \varphi(x) d\mu (x), \qquad \int = \int_{X}. $$
$f$가 $(X, \mathcal{E})$ 위의 가측함수일 때, $\mu$에 대한 $f$의 적분을 다음과 같이 정의한다. $$ \int f d\mu := \sup \left\{ \int \varphi d\mu : 0 \le \varphi \le f, \varphi \text{ is simple and measurable} \right\}. $$
$f : X \to \mathbb{R}$의 양의 부분과 음의 부분을 각각 다음과 같이 정의한다. $$ f^{+}(x) := \max \left( f(x), 0 \right)),\qquad f^{-1}(x) := \min \left(-f(x), 0 \right)). $$ 만약 두 적분 $\displaystyle \int f^{+}$, $\displaystyle \int f^{-}$이 유한하면, $f$가 적분가능하다고 한다. 또한 $\left| f \right| = f^{+} - f^{-}$가 성립한다.
적분가능한 실함수들의 집합은 벡터공간이며 적분은 이 벡터공간 위의 선형 범함수이다. 이 벡터공간을 다음과 같이 표기한다. $$ L = L(X, \mathcal{E}, \mu) = L(X, \mu) = L(X) = L(\mu), \qquad L = L^{1} $$
$L^{p}$ 공간
측도 공간 $(X, \mathcal{E}, \mu)$과 $0 \lt p \lt \infty$에 대해서, $L^{p}$를 다음과 같이 정의한다. $$ L^{p}(X, \mathcal{E}, \mu) := \left\{ f : X \to \mathbb{R} \left| f \text{ is measurable and } \left( \int \left| f \right|^{p} d\mu \right)^{1/p} \lt \infty \right. \right\}. $$
확률론
표기법과 용어
$$ \begin{array}{lll} \text{Analysts’ Term} && \text{Probabilists’ Term} \\ \hline \text{Measure space } (X, \mathcal{E}, \mu) \text{ such that } \mu (X) = 1 && \text{Probability space } (\Omega, \mathcal{F}, P) \\ \text{Measure } \mu : \mathcal{E} \to \mathbb{R} \text{ such that } \mu (X) = 1 && \text{Probability } P : \mathcal{F} \to \mathbb{R} \\ (\sigma\text{-)algebra $\mathcal{E}$ on $X$} && (\sigma\text{-)field $\mathcal{F}$ on $\Omega$} \\ \text{Mesurable set } E \in \mathcal{E} && \text{Event } E \in \mathcal{F} \\ \text{Measurable real-valued function } f : X \to \mathbb{R} && \text{Random variable } X : \Omega \to \mathbb{R} \\ \text{Integral of } f, {\displaystyle \int f d\mu} && \text{Expextation of } f, E(X) \\ f \text{ is } L^{p} && X \text{ has finite $p$th moment} \\ \text{Almost everywhere, a.e.} && \text{Almost surely, a.s.} \end{array} $$
$$ \begin{align*} \left\{ X \gt a \right\} &:= \left\{ w : X(w) \gt a \right\} \\ P\left( X \gt a \right) &:= P\left( \left\{ w : X(w) \gt a \right\} \right) \end{align*} $$
기초 정의
가측공간 $(\Omega, \mathcal{F})$, $(\mathbb{R}, \mathcal{B}_{\mathbb{R}})$에 대해서, $(\mathcal{F}, \mathcal{B}_{\mathbb{R}})$-가측 함수 $X : \Omega \to \mathbb{R}$를 확률 변수라 한다. 다시말해, $$ X^{-1}(B) \in \mathcal{F}\qquad \forall B \in \mathcal{B}_{\mathbb{R}}. $$
$(\Omega, \mathcal{F})$ 위의 확률(혹은 확률 측도)이란, $P(\Omega) = 1$를 만족하는 측도 $P : \mathcal{F} \to \mathbb{R}$이다.
$X$를 확률변수라고 할 때,
- 기댓값: $\displaystyle E(X) := \int X dP$
- 분산: $\sigma^{2}(X) := E\left[ (X - E(X))^{2} \right] = E(X^{2}) - E(X)^{2}$
$X$의 (확률) 분포란, 다음을 만족하는 $\mathbb{R}$ 위의 확률 $P_{X} : \mathcal{B}_{\mathbb{R}} \to \mathbb{R}$이다: $$ P_{X}(B) := P(X^{-1}(B)). $$
$X$의 분포 함수 $F_{X}$는 다음과 같이 정의된다: $$ F_{X}(a) := P_{X}\left( (-\infty, a] \right) = P(X \le a). $$
확률 변수의 수열 $\left\{ X_{i} \right\}_{i=1}^{n}$에 대해서, 확률 벡터 $(X_{1}, \dots, X_{n})$는 다음과 같이 정의되는 함수를 말한다: $$ (X_{1}, \dots, X_{n}) : \Omega \to \mathbb{R}^{n} $$ $$ (X_{1}, \dots, X_{n})(x) := (X_{1}(x), \dots, X_{n}(x)). $$
Note: $(X_{1}, \dots, X_{n})^{-1}(B_{1} \times \cdots \times B_{n})= X_{1}^{-1}(B_{1}) \cap \cdots \cap X_{n}^{-1}(B_{n})$.
$n=2$인 경우를 먼저 보자. $(X, Y) : \Omega \to \mathbb{R}^{2}$에 대해서 다음이 성립한다. $$ (X, Y)^{-1} (a, b) = \left\{ x \in \Omega : X(x) = a \right\} \cap \left\{ x \in \Omega : Y(x) = b \right\}. $$ 따라서, 모든 보렐 집합 $B_{1}$, $B_{2} \in \mathcal{B}_{\mathbb{R}}$에 대해서 다음을 얻는다. $$ (X, Y)^{-1}(B_{1} \times B_{2}) = (X, Y)^{-1}(B_{1}, B_{2}) = X^{-1}(B_{1}) \cap Y^{-1}(B_{2}). $$ 이를 임의의 $\mathbb{R}^{n}$에 대해서 확장하면, $$ \begin{equation} \begin{aligned} (X_{1}, \dots, X_{n})^{-1}(B_{1} \times \cdots \times B_{n}) &= (X_{1}, \dots, X_{n})^{-1}(B_{1}, \dots, B_{n}) \\ &= X_{1}^{-1}(B_{1}) \cap \cdots \cap X_{n}^{-1}(B_{n}). \end{aligned} \end{equation} $$
$X_{1}, \dots, X_{n}$의 조인트 분포란 확률 벡터 $(X_{1}, \dots, X_{n})$의 확률 분포로 정의된다: $$ P_{(X_{1}, \dots, X_{n})} : \mathcal{B}_{\mathbb{R}^{n}} \to \mathbb{R}, $$ $$ P_{(X_{1}, \dots, X_{n})}(B_{1} \times \cdots \times B_{n}) := P\left( (X_{1}, \dots, X_{n})^{-1}(B_{1} \times \cdots \times B_{n}) \right). $$
독립
$P(E) \gt 0$인 사건 $E$에 대해서, $\Omega$ 위의 확률 $$ P_{E}(F) = P(E|F) := P(E \cap F)/P(E) $$ 를 $E$ 위의 조건부 확률이라 한다.
만약 $P_{E}(F) = P(F)$이면, $F$를 $E$와 독립이라고 한다: $$ \text{$F$ is independent of $E$} \iff P(E \cap F) = P(E)P(F). $$ 다음이 성립할 때, $\Omega$의 사건들의 컬렉션 $\left\{ E_{j} \right\}$이 독립이라고 한다: $$ P(E_{1} \cap \cdots \cap E_{n}) = P(E_{1}) P(E_{2}) \cdots P(E_{n}) = \prod \limits_{i=1}^{n} P(E_{j}). $$
$\Omega$ 위의 확률변수들의 컬렉션 $\left\{ X_{j} \right\}$가 독립이라는 것은, 모든 보렐집합 $B_{j} \in \mathcal{B}_{\mathbb{R}}$에 대해서 사건들 $\left\{ X_{j}^{-1}(B_{j}) \right\}$이 독립이라는 것을 말한다. 즉 다음의 식이 성립하는 것을 의미한다: $$ P\left(X_{1}^{-1}(B_{1}) \cap \cdots \cap X_{n}^{-1}(B_{n})\right) = \prod \limits_{j=1}^{n} P(X_{j}^{-1}(B_{j})). $$
확률분포의 정의와 $(2)$에 의해, 위 식의 좌변으로부터 다음을 얻는다. $$ \begin{align*} P\left(X_{1}^{-1}(B_{1}) \cap \cdots \cap X_{n}^{-1}(B_{n})\right) &= P\left( (X_{1}, \dots, X_{n})^{-1}(B_{1} \times \cdots \times B_{n}) \right) \\ &= P_{(X_{1}, \dots, X_{n})} \left( B_{1} \times \cdots \times B_{n} \right). \end{align*} $$ 한편, 곱측도와 확률분포의 정의에 의해, 우변으로부터 다음을 얻는다. $$ \prod \limits_{j=1}^{n} P(X_{j}^{-1}(B_{j})) = \prod \limits_{j=1}^{n} P_{X_{j}}(B_{j}) = \left( \prod \limits_{j=1}^{n} P_{X_{j}} \right) \left( B_{1} \times \cdots \times B_{n} \right). $$ 따라서 $\left\{ X_{j} \right\}$가 독립이면, $$ P_{(X_{1}, \dots, X_{n})} = \prod\limits_{j=1}^{n}P_{X_{j}}. $$
$\left\{ X_{j} \right\}$가 독립인 확률변수의 집합이라는 것은, $\left\{ X_{j} \right\}$의 조인트 분포가 각각의 분포의 곱과 같다는 것과 동치이다.
참고문헌
- Robert G. Bartle, The Elements of Integration and Lebesgue Measure (1995)
- Gerald B. Folland, Real Analysis: Modern Techniques and Their Applications (1999)