logo

サブグラディエント法 📂最適化理論

サブグラディエント法

定義1

目的関数 f:RnRf : \mathbb{R}^{n} \to \mathbb{R}凸関数だとしよう。点x(k)\mathbf{x}^{(k)}でのffサブグラディエントg(k)\mathbf{g}^{(k)}としよう。以下の方法でx(k)\mathbf{x}^{(k)}をアップデートしてffに対する最適化問題を解く方法をサブグラディエント法subgradient methodという。

x(k+1)=x(k)αg(k) \mathbf{x}^{(k+1)} = \mathbf{x}^{(k)} - \alpha \mathbf{g}^{(k)}

説明2

勾配降下法でグラディエントがサブグラディエントに置き換えられた形だ。

gradient descent: x(k+1)=x(k)αf(x(k)) \text{gradient descent: } \mathbf{x}^{(k+1)} = \mathbf{x}^{(k)} - \alpha \nabla f(\mathbf{x}^{(k)})

ffが微分可能なら勾配降下法を使えばいいので、目的関数が微分可能ではない時に選べる最適化方法だ。ただし収束速度が遅いという欠点がある。