logo

ピタゴラス勝率の導出 📂セイバーメトリクス

ピタゴラス勝率の導出

公式

特定競技リーグのチームが一つあるとする。チーム得点scores $S$ と チーム失点allows $A$ はそれぞれ ワイブル分布に従う 確率変数 $$ \begin{align*} S & \sim \text{Weibull} \left( \alpha_{S} , \beta , \gamma \right) \\ A & \sim \text{Weibull} \left( \alpha_{A} , \beta , \gamma \right) \end{align*} $$ とし、お互い 独立であるとする。このチームのシーズン期待勝率 $p$ は $\gamma > 0$ に対して次のようになる。 $$ p_{\gamma} = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }} $$ ここで $\mu_{S} := E (S)$ と $\mu_{A} := E (A)$ はそれぞれ期待得点、期待失点を示している。

導出 1

戦略:これは ピタゴラス勝率に対する数理統計的な導出である。ただ正直に ジョイント確率密度関数を通じて導かれる。関数 $\Gamma : \mathbb{R} \to \mathbb{R}$ は ガンマ関数を表している。


ワイブル分布の平均と分散:スケールパラメータ $\alpha > 0$ とロケーションパラメータ $\beta > 0$、形状パラメータ $\gamma > 0$ に対して以下のような確率密度関数を持つ 確率分布三パラメーターワイブル分布three-parameter Weibull distributionと呼ぶ。 $$ f(x) = {{ \gamma } \over { \alpha }} \left( {{ x-\beta } \over { \alpha }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha \right)^{\gamma}} \qquad , x \ge \beta $$ もし $X \sim \text{Weibull} (\alpha, \beta, \gamma)$ であれば、その平均と分散は以下の通りである。 $$ \begin{align*} E(X) =& \alpha \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right) + \beta \\ \operatorname{Var} (X) =& \alpha^{2} \left[ \Gamma \left(1 + {{ 2 } \over { \gamma }} \right) - \left( \Gamma \left( 1 + {{ 1 } \over { \gamma }} \right)^{2} \right) \right] \end{align*} $$

$$ \begin{align*} \mu_{S} =& E \left( S \right) = \alpha_{S} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \\ \mu_{A} =& E \left( A \right) = \alpha_{A} \Gamma \left( 1 + \gamma^{-1} \right) + \beta \end{align*} $$ $S$ と $A$ の 母集団平均をそれぞれ $\mu_{S}$ と $\mu_{A}$ として示すと、ワイブル分布の第一パラメーター $\alpha_{S}$、$\alpha_{A}$ は $$ \begin{align*} \alpha_{S} =& {{ \mu_{S} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \\ \alpha_{A} =& {{ \mu_{A} - \beta } \over { \Gamma \left( 1 + \gamma^{-1} \right) }} \end{align*} $$ のように表され、導出の便宜上、次を満たす $\alpha$ を定義しよう。 $$ {{ 1 } \over { \alpha^{\gamma} }} = {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} = {{ \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} }} $$

これで、期待勝率の計算が本格的に必要になる時だ。ほとんどのスポーツでは、勝利は得点 $S$ が失点 $A$ より大きい 事象として定義されるため、期待勝率は本質的に $P \left( S > A \right)$ である。もし $S$ と $A$ のそれぞれの確率密度関数が $f_{S}$ と $f_{A}$ であり、$S$ と $A$ が 独立であるという仮定に従えば、そのジョイント確率密度関数は $f_{S} f_{A}$ である。 $$ \begin{align*} & P \left( S > A \right) \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} f_{S} (x) f_{A} (y) dy dx \\ =& \int_{\beta}^{\infty} \int_{\beta}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x-\beta } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( (x - \beta) / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y-\beta } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( (y - \beta) / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} \int_{0}^{x} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ \int_{0}^{x} {{ \gamma } \over { \alpha_{A} }} \left( {{ y } \over { \alpha_{A} }} \right)^{\gamma-1} e^{- \left( y / \alpha_{A} \right)^{\gamma}} dy \right] dx \\ =& \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ 1 - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 + \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} e^{- \left( x / \alpha_{S} \right)^{\gamma}} \left[ - e^{- \left( x / \alpha_{A} \right)^{\gamma}} \right] dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - x^{\gamma} \left( {{ 1 } \over { \alpha_{S}^{\gamma} }} + {{ 1 } \over { \alpha_{A}^{\gamma} }} \right) \right) dx \\ =& 1 - \int_{0}^{\infty} {{ \gamma } \over { \alpha_{S} }} \left( {{ x } \over { \alpha_{S} }} \right)^{\gamma-1} \exp \left( - \left( {{ x } \over { \alpha }} \right)^{\gamma} \right) dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \int_{0}^{\infty} {{ \gamma } \over { \alpha }} \left( {{ x } \over { \alpha }} \right)^{\gamma-1} e^{- \left( x / \alpha \right)^{\gamma} } dx \\ =& 1 - {{ \alpha^{\gamma} } \over { \alpha_{S}^{\gamma} }} \cdot 1 \\ =& 1 - {{ 1 } \over { \alpha_{S}^{\gamma} }} {{ \alpha_{S}^{\gamma} \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& 1 - {{ \alpha_{A}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \alpha_{S}^{\gamma} } \over { \alpha_{S}^{\gamma} + \alpha_{A}^{\gamma} }} \\ =& {{ \left( \mu_{S} - \beta \right)^{\gamma} } \over { \left( \mu_{S} - \beta \right)^{\gamma} + \left( \mu_{A} - \beta \right)^{\gamma} }} \end{align*} $$ ここで、$\beta$ は失点と得点の最小値を意味するので、$\beta = 0$ と置いても問題なく、結果的に次を得る。 $$ P \left( S > A \right) = {{ \mu_{S}^{\gamma} } \over { \mu_{S}^{\gamma} + \mu_{A}^{\gamma} }} $$


  1. Miller. (2005). A Derivation of the Pythagorean Won-Loss Formula in Baseball. https://doi.org/10.48550/arXiv.math/0509698 ↩︎