logo

서브그래디언트 📂최적화이론

서브그래디언트

정의 1 2

함수 f:RnRf : \mathbb{R}^{n} \to \mathbb{R}에 대해서, 다음을 만족하는 gRn\mathbf{g} \in \mathbb{R}^{n}를 점 x\mathbf{x}에서의 ff서브그래디언트subgradient라고 한다.

f(y)f(x)+gT(yx)yRn f(\mathbf{y}) \ge f(\mathbf{x}) + \mathbf{g}^{T}(\mathbf{y} - \mathbf{x}) \qquad \forall \mathbf{y} \in \mathbb{R}^{n}

설명

컨벡스 함수 ffx\mathbf{x}에서 미분가능하면, g=\mathbf{g} = f(x)\nabla f(\mathbf{x})로 유일하다. 반대로 f(x)={g}\partial f(\mathbf{x}) = \left\{ \mathbf{g} \right\}이면 ffx\mathbf{x}에서 미분가능하고 f(x)=g\nabla f (\mathbf{x}) = \mathbf{g}이다.

x\mathbf{x}에서의 ff의 서브그래디언트들의 집합을 대체 미분subdifferential이라하고 다음과 같이 표기한다.

f(x):={g:g is subgradient of f at x} \partial f(\mathbf{x}) := \left\{ \mathbf{g} : \mathbf{g} \text{ is subgradient of } f \text{ at } \mathbf{x} \right\}

f(x)\partial f(\mathbf{x}) \ne \varnothing이면, ffx\mathbf{x}에서 대체미분가능하다subdifferentiable고 한다.

성질

  • Scaling: a>0a \gt 0에 대해서, (af)=af\partial (af) = a \partial f
  • Addition: (f+g)=f+g\partial(f + g) = \partial f + \partial g
  • Affine composition: g(x)=f(Ax+b)g(\mathbf{x}) = f(A \mathbf{x} + \mathbf{b})이면, g(x)=ATf(Ax+b) \partial g(\mathbf{x}) = A^{T}\partial f(A \mathbf{x} + \mathbf{b})
  • Subgradient optimality condition: 임의의 함수 ff에 대해서, f(x)=minxf(x)    0f(x) f(\mathbf{x}_{\ast}) = \min\limits_{\mathbf{x}} f(\mathbf{x}) \iff 0 \in \partial f(\mathbf{x}_{\ast})

같이보기


  1. Rockafellar, R. Tyrrell. Convex analysis. Vol. 11. Princeton university press, 1997. p214~215 ↩︎

  2. https://www.stat.cmu.edu/~ryantibs/convexopt-F16/lectures/subgrad.pdf ↩︎