logo

소프트플러스 함수란? 📂머신러닝

소프트플러스 함수란?

정의1

다음의 함수를 소프트플러스softplus라고 한다.

ζ(x)=ln(1+ex) \zeta (x) = \ln (1 + e^{x})

softplus.png

설명

2001년에 Dugas 외 4명의 논문 『Incorporating Second-Order Functional Knowledge for Better Option Pricing』에서 소개되었다.

x+=max(0,x)x^{+} = \max (0, x)의 부드러운 버전이며, 이것이 이름의 모티브이다. x+x^{+}는 10년 뒤 ReLU라는 이름을 갖게된다. 00에서 미분가능한 ReLU라고 받아들이면 된다. 구간 (3,3)(-3, 3) 밖에서는 ReLU와 거의 같다.

softplus_vs_lin.png

또한 로지스틱 시그모이드의 역도함수이며, 시그모이드와 여러 관계식을 갖는다.

성질

  • 볼록함수이다.
  • 미분가능하며, ζ>0\zeta^{\prime} \gt 0이다.

σ\sigma로지스틱 시그모이드라고 하자.

logσ(x)=ζ(x)\log \sigma (x) = -\zeta (-x) ddxζ(x)=σ(x)\dfrac{d}{dx}\zeta (x) = \sigma (x) ζ1(x)=log(ex1),x>0\zeta^{-1}(x) = \log\left( e^{x} - 1 \right), \quad \forall x > 0 ζ(x)=xσ(y)dy\zeta (x) = \int_{-\infty}^{x}\sigma (y)dy ζ(x)ζ(x)=x\zeta (x) - \zeta (-x) = x


  1. Ian Goodfellow, Deep Learning, p68 ↩︎