logo

피타고리안 승률 유도 📂세이버메트릭스

피타고리안 승률 유도

공식

특정 종목 스포츠 리그의 팀 하나가 주어져 있다고 하자. 팀 득점scores SS팀 실점allows AA 가 각각 베이불 분포를 따르는 확률변수 SWeibull(αS,β,γ)AWeibull(αA,β,γ) \begin{align*} S & \sim \text{Weibull} \left( \alpha_{S} , \beta , \gamma \right) \\ A & \sim \text{Weibull} \left( \alpha_{A} , \beta , \gamma \right) \end{align*} 면서 서로 독립이라 하자. 이 팀의 시즌 기대 승률 ppγ>0\gamma > 0 에 대해 다음과 같다. pγ=μSγμSγ+μAγ p_{\gamma} = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }} 여기서 μS:=E(S)\mu_{S} := E (S)μA:=E(A)\mu_{A} := E (A) 는 각각 기대 득점, 기대 실점이다.

유도 1

전략: 이는 피타고리안 승률에 대한 수리통계적인 유도다. 그냥 정직하게 조인트 확률 밀도 함수로 연역한다. 함수 Γ:RR\Gamma : \mathbb{R} \to \mathbb{R}감마함수를 나타낸다.


베이불 분포의 평균과 분산: 스케일scale 파라미터 α>0\alpha > 0 와 로케이션location 파라미터 β>0\beta > 0 와 쉐이프shape 파라미터 γ>0\gamma > 0 에 대해 다음과 같은 확률 밀도 함수를 가지는 확률분포세 모수 베이불 분포three-parameter Weibull distribution라 한다. f(x)=γα(xβα)γ1e((xβ)/α)γ,xβ f(x) = {{ \gamma } \over { \alpha }} \left( {{ x-\beta } \over { \alpha }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha \right)^{\gamma}} \qquad , x \ge \beta 만약 XWeibull(α,β,γ)X \sim \text{Weibull} (\alpha, \beta, \gamma) 면 그 평균과 분산은 다음과 같다. E(X)=αΓ(1+1γ)+βVar(X)=α2[Γ(1+2γ)(Γ(1+1γ)2)] \begin{align*} E(X) =& \alpha \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right) + \beta \\ \operatorname{Var} (X) =& \alpha^{2} \left[ \Gamma \left(1 + {{ 2 } \over { \gamma }} \right) - \left( \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right)^{2} \right) \right] \end{align*}

μS=E(S)=αSΓ(1+γ1)+βμA=E(A)=αAΓ(1+γ1)+β \begin{align*} \mu_{S} =& E \left( S \right) = \alpha_{S} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \\ \mu_{A} =& E \left( A \right) = \alpha_{A} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \end{align*} SSAA모평균을 위와 같이 각각 μS\mu_{S}μA\mu_{A} 라 나타내면, 베이불 분포의 첫번째 모수 αS\alpha_{S}, αA\alpha_{A}αS=μSβΓ(1+γ1)αA=μAβΓ(1+γ1) \begin{align*} \alpha_{S} =& {{ \mu_{S} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \\ \alpha_{A} =& {{ \mu_{A} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \end{align*} 와 같이 나타나고, 전개 상의 편의를 위해 다음을 만족하는 α\alpha 를 정의하자. 1αγ=1αSγ+1αAγ=αSγ+αAγαSγαAγ {{ 1 } \over { \alpha^{\gamma} }} = {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} = {{ \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} }}

이제 본격적으로 기대승률을 계산해야할 때다. 대부분의 스포츠에서 승리는 득점 SS 가 실점 AA 보다 큰 사건으로 정의되므로, 기대 승률은 곧 P(S>A)P \left( S > A \right) 이다. SS, AA 각각의 확률밀도함수를 fSf_{S}, fAf_{A} 라 하면, SSAA독립이라는 가정에 따라 그 조인트 확률밀도함수가 fSfAf_{S} f_{A} 이다. P(S>A)=ββxfS(x)fA(y)dydx=ββxγαS(xβαS)γ1e((xβ)/αS)γγαA(yβαA)γ1e((yβ)/αA)γdydx=00xγαS(xαS)γ1e(x/αS)γγαA(yαA)γ1e(y/αA)γdydx=0γαS(xαS)γ1e(x/αS)γ[0xγαA(yαA)γ1e(y/αA)γdy]dx=0γαS(xαS)γ1e(x/αS)γ[1e(x/αA)γ]dx=1+0γαS(xαS)γ1e(x/αS)γ[e(x/αA)γ]dx=10γαS(xαS)γ1exp(xγ(1αSγ+1αAγ))dx=10γαS(xαS)γ1exp((xα)γ)dx=1αγαSγ0γα(xα)γ1e(x/α)γdx=1αγαSγ1=11αSγαSγαAγαSγ+αAγ=1αAγαSγ+αAγ=αSγαSγ+αAγ=(μSβ)γ(μSβ)γ+(μAβ)γ \begin{align*} & P \left( S > A \right) \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} f_{S} (x) f_{A} (y) dy dx \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x-\beta } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y-\beta } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( (y - \beta) / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} \int_{0}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ \int_{0}^{x} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy \right] dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ 1 - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 + \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - x^{\gamma} \left( {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} \right) \right) dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - \left( {{ x } \over { \alpha }} \right)^{\gamma} \right) dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \int_{0}^{\infty} {{ \gamma } \over { \alpha }} \left( {{ x } \over { \alpha }} \right)^{\gamma-1} e^{- \left( x / \alpha \right)^{\gamma} } dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \cdot 1 \\ =& 1 - {{ 1 } \over { \alpha_{S}^{\gamma} }} {{ \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& 1 - {{ \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \alpha_{S}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \left( \mu_{S} - \beta \right)^{\gamma} } \over { \left( \mu_{S} - \beta \right)^{\gamma} + \left( \mu_{A} - \beta \right)^{\gamma} }} \end{align*} 여기서 β\beta 는 실점과 득점의 최소값을 의미하므로 β=0\beta = 0 이라 두어도 무방하고, 결과적으로 다음을 얻는다. P(S>A)=μSγμSγ+μAγ P \left( S > A \right) = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }}


  1. Miller. (2005). A Derivation of the Pythagorean Won-Loss Formula in Baseball. https://doi.org/10.48550/arXiv.math/0509698 ↩︎