logo

ハードスレッショルディングとソフトスレッショルディングの関数として 📂関数

ハードスレッショルディングとソフトスレッショルディングの関数として

定義 1

閾値threshold λR\lambda \in \mathbb{R} が与えられているとする。

ハードスレッショルディング

以下のように定義された ηH(x;λ):RR\eta _{H} \left( x ; \lambda \right) : \mathbb{R} \to \mathbb{R}ハードスレッショルディングhard thresholdingという。 ηH(x;λ)=x1{xλ}={x,if x[λ,λ]0,if x[λ,λ] \begin{align*} \eta _{H} \left( x ; \lambda \right) =& x \cdot \mathbf{1}_{\left\{ \left| x \right| \ge \lambda \right\}} \\ =& \begin{cases} x & , \text{if } x \in [-\lambda, \lambda] \\ 0 & , \text{if } x \notin [-\lambda, \lambda] \end{cases} \end{align*} ここで、1\mathbf{1}_{\cdot}指示関数である。

ソフトスレッショルディング

以下のように定義された ηS(x;λ):RR\eta _{S} \left( x ; \lambda \right) : \mathbb{R} \to \mathbb{R}ソフトスレッショルディングsoft thresholdingという。 ηS(x;λ)=sign(x)ReLU(xλ)={λx,if x<λ0,if x[λ,λ]xλ,if x>λ \begin{align*} \eta _{S} \left( x ; \lambda \right) =& \operatorname{sign} (x) \cdot \operatorname{ReLU} \left( \left| x \right| - \lambda \right) \\ =& \begin{cases} \lambda - \left| x \right| & , \text{if } x < - \lambda \\ 0 & , \text{if } x \in [-\lambda, \lambda] \\ \left| x \right| - \lambda & , \text{if } x > \lambda \end{cases} \end{align*} ここで、sign\operatorname{sign}符号ReLU\operatorname{ReLU}ReLUである。

説明

紹介された関数の形状は、次のようになっている2

スレッショルディングthresholdingは、アルゴリズムの観点から見れば、大したことのない値を削除する、デノイジングdenoisingの意味がある。

ハードとソフトの違いは主に数学的に目立つのが、±λ\pm \lambda での連続性であり、それ以外では[λ,λ]\left[ - \lambda , \lambda \right] から00 への点や、同じ擬似関数を使うなどほとんど類似している。通常は、用途に合わせてどちらか一方を選んで使うことが多く、両方を使うことはほとんどなく、表記もηλ(x)\eta_{\lambda} (x)HH、またはSS を省略して、下付き文字の位置に閾値λ\lambda を記すことが多い。


  1. Gavish. (2014). The Optimal Hard Threshold for Singular Values is 4/√3: https://doi.org/10.1109/TIT.2014.2323359 ↩︎

  2. https://www.mathworks.com/help/wavelet/ref/wthresh.html ↩︎