단순 가측함수 φ는 다음과 같은 꼴로 표현된다.
φ=j=1∑najχEj, where Ej=φ−1({aj}) and range(φ)={a1,…,an}.
여기서 χEj는 Ej의 특성 함수이다. 이를 φ의 standard representation이라 한다.
φ가 standard representation (1)을 갖는 단순 가측함수일 때, 측도 μ에 대한 φ의 적분을 다음과 같이 정의한다.
∫φdμ:=j=1∑najμ(Ej).Notation:∫φdμ=∫φ=∫φ(x)dμ(x),∫=∫X.
f가 (X,E) 위의 가측함수일 때, μ에 대한 f의 적분을 다음과 같이 정의한다.
∫fdμ:=sup{∫φdμ:0≤φ≤f,φ is simple and measurable}.
f:X→R의 양의 부분과 음의 부분을 각각 다음과 같이 정의한다.
f+(x):=max(f(x),0)),f−1(x):=min(−f(x),0)).
만약 두 적분 ∫f+, ∫f−이 유한하면, f가 적분가능하다고 한다. 또한 ∣f∣=f+−f−가 성립한다.
적분가능한 실함수들의 집합은 벡터공간이며 적분은 이 벡터공간 위의 선형 범함수이다. 이 벡터공간을 다음과 같이 표기한다.
L=L(X,E,μ)=L(X,μ)=L(X)=L(μ),L=L1
Lp 공간
측도 공간 (X,E,μ)과 0<p<∞에 대해서, Lp를 다음과 같이 정의한다.
Lp(X,E,μ):={f:X→Rf is measurable and (∫∣f∣pdμ)1/p<∞}.
확률론
표기법과 용어
Analysts’ TermMeasure space (X,E,μ) such that μ(X)=1Measure μ:E→R such that μ(X)=1(σ-)algebra E on XMesurable set E∈EMeasurable real-valued function f:X→RIntegral of f,∫fdμf is LpAlmost everywhere, a.e.Probabilists’ TermProbability space (Ω,F,P)Probability P:F→R(σ-)field F on ΩEvent E∈FRandom variable X:Ω→RExpextation of f,E(X)X has finite pth momentAlmost surely, a.s.
{X>a}:={w:X(w)>a}P(X>a):=P({w:X(w)>a})
\begin{align*}
\left\{ X \gt a \right\} &:= \left\{ w : X(w) \gt a \right\} \\
P\left( X \gt a \right) &:= P\left( \left\{ w : X(w) \gt a \right\} \right)
\end{align*}
{X>a}P(X>a):={w:X(w)>a}:=P({w:X(w)>a})
기초 정의
가측공간 (Ω,F)(\Omega, \mathcal{F})(Ω,F), (R,BR)(\mathbb{R}, \mathcal{B}_{\mathbb{R}})(R,BR)에 대해서, (F,BR)(\mathcal{F}, \mathcal{B}_{\mathbb{R}})(F,BR)-가측 함수 X:Ω→RX : \Omega \to \mathbb{R}X:Ω→R를 확률 변수라 한다. 다시말해,
X−1(B)∈F∀B∈BR.
X^{-1}(B) \in \mathcal{F}\qquad \forall B \in \mathcal{B}_{\mathbb{R}}.
X−1(B)∈F∀B∈BR.
(Ω,F)(\Omega, \mathcal{F})(Ω,F) 위의 확률(혹은 확률 측도)이란, P(Ω)=1P(\Omega) = 1P(Ω)=1를 만족하는 측도 P:F→RP : \mathcal{F} \to \mathbb{R}P:F→R이다.
XXX를 확률변수라고 할 때,
기댓값:E(X):=∫XdP\displaystyle E(X) := \int X dPE(X):=∫XdP
XXX의 (확률) 분포란, 다음을 만족하는 R\mathbb{R}R 위의 확률 PX:BR→RP_{X} : \mathcal{B}_{\mathbb{R}} \to \mathbb{R}PX:BR→R이다:
PX(B):=P(X−1(B)).
P_{X}(B) := P(X^{-1}(B)).
PX(B):=P(X−1(B)).
XXX의 분포 함수FXF_{X}FX는 다음과 같이 정의된다:
FX(a):=PX((−∞,a])=P(X≤a).
F_{X}(a) := P_{X}\left( (-\infty, a] \right) = P(X \le a).
FX(a):=PX((−∞,a])=P(X≤a).
확률 변수의 수열 {Xi}i=1n\left\{ X_{i} \right\}_{i=1}^{n}{Xi}i=1n에 대해서, 확률 벡터(X1,…,Xn)(X_{1}, \dots, X_{n})(X1,…,Xn)는 다음과 같이 정의되는 함수를 말한다:
(X1,…,Xn):Ω→Rn
(X_{1}, \dots, X_{n}) : \Omega \to \mathbb{R}^{n}
(X1,…,Xn):Ω→Rn(X1,…,Xn)(x):=(X1(x),…,Xn(x)).
(X_{1}, \dots, X_{n})(x) := (X_{1}(x), \dots, X_{n}(x)).
(X1,…,Xn)(x):=(X1(x),…,Xn(x)).
P(E)>0P(E) \gt 0P(E)>0인 사건 EEE에 대해서, Ω\OmegaΩ 위의 확률
PE(F)=P(E∣F):=P(E∩F)/P(E)
P_{E}(F) = P(E|F) := P(E \cap F)/P(E)
PE(F)=P(E∣F):=P(E∩F)/P(E)
를 EEE 위의 조건부 확률이라 한다.
만약 PE(F)=P(F)P_{E}(F) = P(F)PE(F)=P(F)이면, FFF를 EEE와 독립이라고 한다:
F is independent of E⟺P(E∩F)=P(E)P(F).
\text{FFF is independent of EEE} \iff P(E \cap F) = P(E)P(F).
F is independent of E⟺P(E∩F)=P(E)P(F).
다음이 성립할 때, Ω\OmegaΩ의 사건들의 컬렉션 {Ej}\left\{ E_{j} \right\}{Ej}이 독립이라고 한다:
P(E1∩⋯∩En)=P(E1)P(E2)⋯P(En)=∏i=1nP(Ej).
P(E_{1} \cap \cdots \cap E_{n}) = P(E_{1}) P(E_{2}) \cdots P(E_{n}) = \prod \limits_{i=1}^{n} P(E_{j}).
P(E1∩⋯∩En)=P(E1)P(E2)⋯P(En)=i=1∏nP(Ej).
Ω\OmegaΩ 위의 확률변수들의 컬렉션 {Xj}\left\{ X_{j} \right\}{Xj}가 독립이라는 것은, 모든 보렐집합 Bj∈BRB_{j} \in \mathcal{B}_{\mathbb{R}}Bj∈BR에 대해서 사건들 {Xj−1(Bj)}\left\{ X_{j}^{-1}(B_{j}) \right\}{Xj−1(Bj)}이 독립이라는 것을 말한다. 즉 다음의 식이 성립하는 것을 의미한다:
P(X1−1(B1)∩⋯∩Xn−1(Bn))=∏j=1nP(Xj−1(Bj)).
P\left(X_{1}^{-1}(B_{1}) \cap \cdots \cap X_{n}^{-1}(B_{n})\right) = \prod \limits_{j=1}^{n} P(X_{j}^{-1}(B_{j})).
P(X1−1(B1)∩⋯∩Xn−1(Bn))=j=1∏nP(Xj−1(Bj)).
확률분포의 정의와 (2)(2)(2)에 의해, 위 식의 좌변으로부터 다음을 얻는다.
P(X1−1(B1)∩⋯∩Xn−1(Bn))=P((X1,…,Xn)−1(B1×⋯×Bn))=P(X1,…,Xn)(B1×⋯×Bn).
\begin{align*}
P\left(X_{1}^{-1}(B_{1}) \cap \cdots \cap X_{n}^{-1}(B_{n})\right)
&= P\left( (X_{1}, \dots, X_{n})^{-1}(B_{1} \times \cdots \times B_{n}) \right) \\
&= P_{(X_{1}, \dots, X_{n})} \left( B_{1} \times \cdots \times B_{n} \right).
\end{align*}
P(X1−1(B1)∩⋯∩Xn−1(Bn))=P((X1,…,Xn)−1(B1×⋯×Bn))=P(X1,…,Xn)(B1×⋯×Bn).
한편, 곱측도와 확률분포의 정의에 의해, 우변으로부터 다음을 얻는다.
∏j=1nP(Xj−1(Bj))=∏j=1nPXj(Bj)=(∏j=1nPXj)(B1×⋯×Bn).
\prod \limits_{j=1}^{n} P(X_{j}^{-1}(B_{j}))
= \prod \limits_{j=1}^{n} P_{X_{j}}(B_{j})
= \left( \prod \limits_{j=1}^{n} P_{X_{j}} \right) \left( B_{1} \times \cdots \times B_{n} \right).
j=1∏nP(Xj−1(Bj))=j=1∏nPXj(Bj)=(j=1∏nPXj)(B1×⋯×Bn).
따라서 {Xj}\left\{ X_{j} \right\}{Xj}가 독립이면,
P(X1,…,Xn)=∏j=1nPXj.
P_{(X_{1}, \dots, X_{n})} = \prod\limits_{j=1}^{n}P_{X_{j}}.
P(X1,…,Xn)=j=1∏nPXj.
{Xj}\left\{ X_{j} \right\}{Xj}가 독립인 확률변수의 집합이라는 것은, {Xj}\left\{ X_{j} \right\}{Xj}의 조인트 분포가 각각의 분포의 곱과 같다는 것과 동치이다.
참고문헌
Robert G. Bartle, The Elements of Integration and Lebesgue Measure (1995)
Gerald B. Folland, Real Analysis: Modern Techniques and Their Applications (1999)