見出し画像

「Deep Learning」って何? -- ニューラルネットワーク。

まずネットワークです。ニューラルネットワークでは、入力層、中間層(隠れ層)、出力層と3 層に分かれます。


単純なパーセプトロンからニューロンへ変化させていきます。

2つの入力信号"x1","x2"を受けて"y"を出力することを考えます。そこにはバイアス"b"とx1,x2には重み"w1","2"がついています。そして出力する動作を関数"h(x)"で表します

y = h(b + x1w1 + x2w2)

h(x)については入力が"0"を超えたら"1"を返し、そうでなければ"0"を返します。

このh(x)を活性化関数と呼びます。

活性化関数とは、ニューラルネットワークにおいて、入力信号の総和を出力信号に変換する関数のことを言います。
閾値を境にして出力が切り替わる関数です。

中間層では活性化関数で処理します。その仕組みは?

そして最後に出力層へと移行していきます。

出力層で使われる活性関数としては、恒等関数、ソフマックス関数へと変更する。恒等関数は回帰問題、ソフトマックス関数は分類問題に使われる。

ニューラルネットワークをまとめると、

入力層、隠れ層(中間層)、出力層で構成される。
入力層から中間層、または中間層から隠れ層への流れる課程でデータそれぞれの"重み"を付け加える。
入力層から中間層、または隠れ層から出力層への流れる課程で"バイアス"と呼ばれるパラメーターを追加することでニューロンの発火のしやすさをコントロールする。
重みとバイアスを負荷されたデータが隠れ層に移行した時には入力信号の総和により出力信号に変換される。変換する関数を活性化関数といいニューロンの発火をコントロールする。
隠れ層の活性化関数にはシグモイド、ステップ、ReLu関数がある。ハーセプトロンとの違いは活性化関数があること。
出力層の活性化関数は恒等、ソフトマックス関数がある。

入力されるデータは重みとバイアス、そして活性化関数で制御された伝達信号が最後出力層でソフトマックス関数などで最終判定として選別、確定される。その仕組みを司るのがニュートラルネットワーク。


この記事が気に入ったらサポートをしてみませんか?