logo

피타고리안 승률 유도 📂세이버메트릭스

피타고리안 승률 유도

공식

특정 종목 스포츠 리그의 팀 하나가 주어져 있다고 하자. 팀 득점scores $S$ 와 팀 실점allows $A$ 가 각각 베이불 분포를 따르는 확률변수 $$ \begin{align*} S & \sim \text{Weibull} \left( \alpha_{S} , \beta , \gamma \right) \\ A & \sim \text{Weibull} \left( \alpha_{A} , \beta , \gamma \right) \end{align*} $$ 면서 서로 독립이라 하자. 이 팀의 시즌 기대 승률 $p$ 는 $\gamma > 0$ 에 대해 다음과 같다. $$ p_{\gamma} = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }} $$ 여기서 $\mu_{S} := E (S)$ 와 $\mu_{A} := E (A)$ 는 각각 기대 득점, 기대 실점이다.

유도 1

전략: 이는 피타고리안 승률에 대한 수리통계적인 유도다. 그냥 정직하게 조인트 확률 밀도 함수로 연역한다. 함수 $\Gamma : \mathbb{R} \to \mathbb{R}$ 는 감마함수를 나타낸다.


베이불 분포의 평균과 분산: 스케일scale 파라미터 $\alpha > 0$ 와 로케이션location 파라미터 $\beta > 0$ 와 쉐이프shape 파라미터 $\gamma > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 확률분포세 모수 베이불 분포three-parameter Weibull distribution라 한다. $$ f(x) = {{ \gamma } \over { \alpha }} \left( {{ x-\beta } \over { \alpha }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha \right)^{\gamma}} \qquad , x \ge \beta $$ 만약 $X \sim \text{Weibull} (\alpha, \beta, \gamma)$ 면 그 평균과 분산은 다음과 같다. $$ \begin{align*} E(X) =& \alpha \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right) + \beta \\ \operatorname{Var} (X) =& \alpha^{2} \left[ \Gamma \left(1 + {{ 2 } \over { \gamma }} \right) - \left( \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right)^{2} \right) \right] \end{align*} $$

$$ \begin{align*} \mu_{S} =& E \left( S \right) = \alpha_{S} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \\ \mu_{A} =& E \left( A \right) = \alpha_{A} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \end{align*} $$ $S$ 와 $A$ 의 모평균을 위와 같이 각각 $\mu_{S}$ 와 $\mu_{A}$ 라 나타내면, 베이불 분포의 첫번째 모수 $\alpha_{S}$, $\alpha_{A}$ 는 $$ \begin{align*} \alpha_{S} =& {{ \mu_{S} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \\ \alpha_{A} =& {{ \mu_{A} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \end{align*} $$ 와 같이 나타나고, 전개 상의 편의를 위해 다음을 만족하는 $\alpha$ 를 정의하자. $$ {{ 1 } \over { \alpha^{\gamma} }} = {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} = {{ \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} }} $$

이제 본격적으로 기대승률을 계산해야할 때다. 대부분의 스포츠에서 승리는 득점 $S$ 가 실점 $A$ 보다 큰 사건으로 정의되므로, 기대 승률은 곧 $P \left( S > A \right)$ 이다. $S$, $A$ 각각의 확률밀도함수를 $f_{S}$, $f_{A}$ 라 하면, $S$ 와 $A$ 가 독립이라는 가정에 따라 그 조인트 확률밀도함수가 $f_{S} f_{A}$ 이다. $$ \begin{align*} & P \left( S > A \right) \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} f_{S} (x) f_{A} (y) dy dx \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x-\beta } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y-\beta } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( (y - \beta) / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} \int_{0}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ \int_{0}^{x} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy \right] dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ 1 - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 + \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - x^{\gamma} \left( {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} \right) \right) dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - \left( {{ x } \over { \alpha }} \right)^{\gamma} \right) dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \int_{0}^{\infty} {{ \gamma } \over { \alpha }} \left( {{ x } \over { \alpha }} \right)^{\gamma-1} e^{- \left( x / \alpha \right)^{\gamma} } dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \cdot 1 \\ =& 1 - {{ 1 } \over { \alpha_{S}^{\gamma} }} {{ \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& 1 - {{ \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \alpha_{S}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \left( \mu_{S} - \beta \right)^{\gamma} } \over { \left( \mu_{S} - \beta \right)^{\gamma} + \left( \mu_{A} - \beta \right)^{\gamma} }} \end{align*} $$ 여기서 $\beta$ 는 실점과 득점의 최소값을 의미하므로 $\beta = 0$ 이라 두어도 무방하고, 결과적으로 다음을 얻는다. $$ P \left( S > A \right) = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }} $$


  1. Miller. (2005). A Derivation of the Pythagorean Won-Loss Formula in Baseball. https://doi.org/10.48550/arXiv.math/0509698 ↩︎