全結合層(線形層, 密接続層)
📂機械学習全結合層(線形層, 密接続層)
定義
L:Rn→Rmをレイヤーとする。WをLの行列表現とする。Wが0でない成分だけを持つとき、Lを完全結合層fully connected layerと呼ぶ。
説明
完全結合層は人工神経ネットワークにおける最も基本的なレイヤーだ。ディープラーニングで多くのレイヤーは線形だが、単に線形層と言うと完全結合層を意味する場合が多い。密集層dense layerという言葉もよく使われる。
関数値の各成分がすべての変数に依存するため完全結合と呼ばれ、以下のような図で表現されることが多い。

具体的に、完全結合層は以下のような関数である。
L:Rnxx1x2⋮xn→Rm↦Wx↦w11w21⋮wm1w12w22⋮wm2⋯⋯⋱⋯w1nw2n⋮wmnx1x2⋮xn
実際に神経ネットワークを構成するときは、バイアスbias b∈Rmを追加して以下のようにアフィン変換となるようにする。
L:x↦Wx+b
もちろんこの場合でも、x=[x1]、W=[Wb]とすれば依然として以下のような線形変換であることがわかる。
x↦Wx=[Wx+b]
機械学習/ディープラーニングの本質は、我々が望む関数を人工神経ネットワークという構造でうまく近似approximateすることだ。完全結合層と活性化関数を何度も(=深く=deep)合成した関数をアプロキシメーターとして使用したのが初期のディープラーニングだ。これを(多層)パーセプトロンと呼ぶ。現在では画像に関する問題には畳み込み層を主に使用するが、分類作業のためには依然として最後の層で線形層を使用する。