logo

ピタゴラス勝率の導出 📂セイバーメトリクス

ピタゴラス勝率の導出

公式

特定競技リーグのチームが一つあるとする。チーム得点scores SSチーム失点allows AA はそれぞれ ワイブル分布に従う 確率変数 SWeibull(αS,β,γ)AWeibull(αA,β,γ) \begin{align*} S & \sim \text{Weibull} \left( \alpha_{S} , \beta , \gamma \right) \\ A & \sim \text{Weibull} \left( \alpha_{A} , \beta , \gamma \right) \end{align*} とし、お互い 独立であるとする。このチームのシーズン期待勝率 ppγ>0\gamma > 0 に対して次のようになる。 pγ=μSγμSγ+μAγ p_{\gamma} = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }} ここで μS:=E(S)\mu_{S} := E (S)μA:=E(A)\mu_{A} := E (A) はそれぞれ期待得点、期待失点を示している。

導出 1

戦略:これは ピタゴラス勝率に対する数理統計的な導出である。ただ正直に ジョイント確率密度関数を通じて導かれる。関数 Γ:RR\Gamma : \mathbb{R} \to \mathbb{R}ガンマ関数を表している。


ワイブル分布の平均と分散:スケールパラメータ α>0\alpha > 0 とロケーションパラメータ β>0\beta > 0、形状パラメータ γ>0\gamma > 0 に対して以下のような確率密度関数を持つ 確率分布三パラメーターワイブル分布three-parameter Weibull distributionと呼ぶ。 f(x)=γα(xβα)γ1e((xβ)/α)γ,xβ f(x) = {{ \gamma } \over { \alpha }} \left( {{ x-\beta } \over { \alpha }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha \right)^{\gamma}} \qquad , x \ge \beta もし XWeibull(α,β,γ)X \sim \text{Weibull} (\alpha, \beta, \gamma) であれば、その平均と分散は以下の通りである。 E(X)=αΓ(1+1γ)+βVar(X)=α2[Γ(1+2γ)(Γ(1+1γ)2)] \begin{align*} E(X) =& \alpha \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right) + \beta \\ \operatorname{Var} (X) =& \alpha^{2} \left[ \Gamma \left(1 + {{ 2 } \over { \gamma }} \right) - \left( \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right)^{2} \right) \right] \end{align*}

μS=E(S)=αSΓ(1+γ1)+βμA=E(A)=αAΓ(1+γ1)+β \begin{align*} \mu_{S} =& E \left( S \right) = \alpha_{S} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \\ \mu_{A} =& E \left( A \right) = \alpha_{A} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \end{align*} SSAA母集団平均をそれぞれ μS\mu_{S}μA\mu_{A} として示すと、ワイブル分布の第一パラメーター αS\alpha_{S}αA\alpha_{A}αS=μSβΓ(1+γ1)αA=μAβΓ(1+γ1) \begin{align*} \alpha_{S} =& {{ \mu_{S} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \\ \alpha_{A} =& {{ \mu_{A} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \end{align*} のように表され、導出の便宜上、次を満たす α\alpha を定義しよう。 1αγ=1αSγ+1αAγ=αSγ+αAγαSγαAγ {{ 1 } \over { \alpha^{\gamma} }} = {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} = {{ \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} }}

これで、期待勝率の計算が本格的に必要になる時だ。ほとんどのスポーツでは、勝利は得点 SS が失点 AA より大きい 事象として定義されるため、期待勝率は本質的に P(S>A)P \left( S > A \right) である。もし SSAA のそれぞれの確率密度関数が fSf_{S}fAf_{A} であり、SSAA独立であるという仮定に従えば、そのジョイント確率密度関数は fSfAf_{S} f_{A} である。 P(S>A)=ββxfS(x)fA(y)dydx=ββxγαS(xβαS)γ1e((xβ)/αS)γγαA(yβαA)γ1e((yβ)/αA)γdydx=00xγαS(xαS)γ1e(x/αS)γγαA(yαA)γ1e(y/αA)γdydx=0γαS(xαS)γ1e(x/αS)γ[0xγαA(yαA)γ1e(y/αA)γdy]dx=0γαS(xαS)γ1e(x/αS)γ[1e(x/αA)γ]dx=1+0γαS(xαS)γ1e(x/αS)γ[e(x/αA)γ]dx=10γαS(xαS)γ1exp(xγ(1αSγ+1αAγ))dx=10γαS(xαS)γ1exp((xα)γ)dx=1αγαSγ0γα(xα)γ1e(x/α)γdx=1αγαSγ1=11αSγαSγαAγαSγ+αAγ=1αAγαSγ+αAγ=αSγαSγ+αAγ=(μSβ)γ(μSβ)γ+(μAβ)γ \begin{align*} & P \left( S > A \right) \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} f_{S} (x) f_{A} (y) dy dx \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x-\beta } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y-\beta } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( (y - \beta) / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} \int_{0}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ \int_{0}^{x} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy \right] dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ 1 - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 + \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - x^{\gamma} \left( {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} \right) \right) dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - \left( {{ x } \over { \alpha }} \right)^{\gamma} \right) dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \int_{0}^{\infty} {{ \gamma } \over { \alpha }} \left( {{ x } \over { \alpha }} \right)^{\gamma-1} e^{- \left( x / \alpha \right)^{\gamma} } dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \cdot 1 \\ =& 1 - {{ 1 } \over { \alpha_{S}^{\gamma} }} {{ \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& 1 - {{ \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \alpha_{S}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \left( \mu_{S} - \beta \right)^{\gamma} } \over { \left( \mu_{S} - \beta \right)^{\gamma} + \left( \mu_{A} - \beta \right)^{\gamma} }} \end{align*} ここで、β\beta は失点と得点の最小値を意味するので、β=0\beta = 0 と置いても問題なく、結果的に次を得る。 P(S>A)=μSγμSγ+μAγ P \left( S > A \right) = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }}


  1. Miller. (2005). A Derivation of the Pythagorean Won-Loss Formula in Baseball. https://doi.org/10.48550/arXiv.math/0509698 ↩︎