マガジンのカバー画像

G検定

162
運営しているクリエイター

#活性化関数

G検定 ニューラルネットワークと活性化関数 #4

株式会社リュディアです。G検定対策として G検定 ニューラルネットワーク #3 に続き活性化関数についてまとめていきたいと思います。活性化関数まとめの最後として ReLU についてまとめます。

ReLUについて一言で書くと f(x) = max(0, x) が ReLU です。何を言ってるかというと入力 x が負の値の場合は f(x) = 0、入力 x が 正の値の場合は f(x) = x と

もっとみる

G検定 ニューラルネットワークと活性化関数 #3

株式会社リュディアです。G検定対策として G検定 ニューラルネットワーク #2 に続き活性化関数についてまとめていきたいと思います。

G検定 ニューラルネットワーク #2 では活性化関数としてステップ関数についてまとめました。ステップ関数は出力が 1 または 0 になる関数なので、もしすべてのニューロンにステップ関数を適用するとニューラルネットワーク全体の出力として 1 または 0、つまり入力

もっとみる

G検定 ニューラルネットワークと活性化関数 #2

株式会社リュディアです。G検定対策として G検定 ニューラルネットワーク #1 に続きまとめていきたいと思います。

ニューロンとシナプスによるニューラルネットワークによるモデリングを説明しました。また各ニューロンが刺激を伝搬する際の刺激の強さの計算方法についても説明しました。今回はあるニューロンが受けた刺激の強さに対して「自分が発火すべきかどうか」を判断する方法についてまとめたいと思います。

もっとみる

G検定 ニューラルネットワークと活性化関数 #1

株式会社リュディアです。G検定対策としてニューラルネットワークについてまとめていきたいと思います。

G検定公式テキスト(初版7刷)の p102 に記載されているようにニューラルネットワークは機械学習を実現するための手法の1つです。ディープラーニングという用語は、ディープニューラルネットワークを用いた機械学習手法であり包含関係は以下の図のようになります。

研究者がディープラーニングに至った背景に

もっとみる