logo

ソフトプラス関数とは? 📂機械学習

ソフトプラス関数とは?

説明

2001年にDugasらによる論文『Incorporating Second-Order Functional Knowledge for Better Option Pricing』で紹介された。

x+=max(0,x)x^{+} = \max (0, x)のなめらかなバージョンで、これが名前のモチーフである。x+x^{+}は10年後にReLUとして知られるようになる。00で述べられているように、微分可能なReLUと考えればよい。区間(3,3)(-3, 3)の外では、ReLUとほぼ同じである。

softplus_vs_lin.png

また、ロジスティックシグモイドの逆関数であり、シグモイドといくつかの関係式を持つ。

性質

  • 凸関数である。
  • 微分可能であり、ζ>0\zeta^{\prime} \gt 0がそれである。

σ\sigmaロジスティックシグモイドとする。

logσ(x)=ζ(x)\log \sigma (x) = -\zeta (-x) ddxζ(x)=σ(x)\dfrac{d}{dx}\zeta (x) = \sigma (x) ζ1(x)=log(ex1),x>0\zeta^{-1}(x) = \log\left( e^{x} - 1 \right), \quad \forall x > 0 ζ(x)=xσ(y)dy\zeta (x) = \int_{-\infty}^{x}\sigma (y)dy ζ(x)ζ(x)=x\zeta (x) - \zeta (-x) = x