logo

圧縮センシングとは何か? 📂統計的分析

圧縮センシングとは何か?

定義

y=Θs \mathbf{y} = \Theta \mathbf{s} ΘRn×p\Theta \in \mathbb{R}^{n \times p} に対して npn \ll p の時、つまり上の行列方程式を満たす解 s\mathbf{s} が無数に存在するとしよう。この行列方程式を満たすことを制約条件とする最適化問題についてのスパース回帰圧縮センシングcompressed Sensingという。 Minimizes0subject toy=Θs \begin{matrix} \text{Minimize} & \left\| \mathbf{s} \right\|_{0} \\ \text{subject to} & \mathbf{y} = \Theta \mathbf{s} \end{matrix} ここで、0\left\| \cdot \right\|_{0}00-ノルムにより、ベクトル00 でない成分の数で定義される。

解説

圧縮センシングにおける圧縮Compressive Sensingとも書かれる。

モチーフ

圧縮センシングのモチーフはもちろんスパース回帰そのもので、通常の回帰分析と異なり、デザインマトリクス Φ\Phi測定行列measurement matrix回帰係数のベクトル s\mathbf{s}シグナルsignalと呼ぶこともある1

上の図は、一般的な行列方程式の解法と圧縮センシングを視覚化したもので、ピクセルの色はその成分の大きさを示している。2 色が薄いほど00に近く、白は完全に00を意味する。s\mathbf{s}を何とか見つけ出すことはできるが、左の図と違って、右の図のように00を最も多く含むs\mathbf{s}を見つけたいわけだ。

行列の積を考えると、s\mathbf{s}のある成分が00であることは、それに対応するΘ\Thetaのカラムなしでもy\mathbf{y}を説明できるという意味だ。s\mathbf{s}00が増えることは Θ\Thetaが横に細くなるという意味で圧縮、ある成分が00でないということは必要なカラムを感知したということなので、圧縮センシングというネーミングは適切だと言えるだろう。

難しさ 3

問題は、先に述べたように単にy=Θs\mathbf{y} = \Theta \mathbf{s}を満たせばいいわけではなく、その中でs0\left\| \mathbf{s} \right\|_{0}が最も小さくなる最適解s^\hat{\mathbf{s}}を見つけなければならないということだ。考えられる最も単純な方法は、すべての場合を試すこと、つまりO(2p)O \left( 2^{p} \right)だけの計算をすることで、これはNPハードな問題である。

もちろん、すべての場合を試すよりも、もっと賢く問題を解く必要があるが、そのアイディアの一つはl0l_{0}-ノルム 0\left\| \cdot \right\|_{0} の代わりに他のノルムを使用してみることだ。まずは、最も簡単なl2l_{2}-ノルムとl1l_{1}-ノルムを考えてみよう。

圧縮センシング問題を上の図のように幾何学的に考えると、y=Θs\mathbf{y} = \Theta \mathbf{s}直線の方程式を見つけながら、右のようにできるだけ多くの成分を00にする解を見つけなければならない。これは、ラッソ回帰がリッジ回帰とどのように異なるかを幾何学的に説明するのと似ている。少なくともこれら二つを見た限りでは、l2l_{2}-ノルムよりもl1l_{1}-ノルムが圧縮センシングに適しているように見えるが、それでl0l_{0}-ノルムを正当な理由なしにl1l_{1}-ノルムに置き換えるわけにはいかない。

いろいろなq0q \ge 0に対してlql_{q}-ノルムを視覚化してみると、一目でq1q \le 1の時、sq\left\| \mathbf{s} \right\|_{q}s0\left\| \mathbf{s} \right\|_{0}に似ているような感じがする。必ずしもすべての0q10 \le q \le 1を考慮する必要はなく、ただl0l_{0}-ノルムとl1l_{1}-ノルムの違いをうまく狭めるだけで、圧縮センシングの問題はずっと簡単に解けそうだ。

実際に、Θ\Theta限定等距離条件に従う場合、圧縮センシング問題は簡単に解けることが証明され、2023年現在でも様々な分野に応用されている独自の地位を確立している。


  1. Needell, D., Vershynin, R. Uniform Uncertainty Principle and Signal Recovery via Regularized Orthogonal Matching Pursuit. Found Comput Math 9, 317–334 (2009). https://doi.org/10.1007/s10208-008-9031-3 ↩︎

  2. Brunton. (2022). Data-Driven Science and Engineering : Machine Learning, Dynamical Systems, and Control(2nd Edition): p103. ↩︎

  3. Brunton. (2022). Data-Driven Science and Engineering : Machine Learning, Dynamical Systems, and Control(2nd Edition): p110. ↩︎