見出し画像

誤差逆伝播法とは?~G検定頻出用語~

いつも読んでいただきありがとうございます✨
今日からはG検定で良く出題されるが、イメージがつかみづらい・理解に
苦労する用語について参考となるサイトを紹介
していきたいと思います。


はじめに

なぜ動画を紹介するか?

・AIを専門的に学習したことがある人は別ですが、そうでない場合G検定で出てくる専門的な用語を理解するのはなかなか難しいと思います。(実際に私も最初勉強した時は理解が進まず苦労した記憶があります💧)
・一方でG検定では難解な数式を解きながらディープラーニングの手法を理解することは求められておりません。ビジネスにAIを活用するにあたって必要な知識を学習する事が求められています。
・そのためG検定で出てくる専門用語を図などを活用して視覚的に理解するのが最も効果的と考えています💡
・現在はYou tubeで様々な動画を見ることができ、その中で特に役に立つと思った動画を紹介していこうと思います💻

勉強方法としてどのように活用するか?

・G検定のテキスト・問題集を読み進める中で、どうしても理解が進まないと思った用語に絞って動画を見て理解を深める活用方法が非常に効果的です!

新シラバス上の分類

・本日紹介する誤差逆伝播法も言葉で説明を受けてもなかなか理解が進まない用語の1つです。
・新シラバスではディープラーニングの概要のカテゴリに含まれております。

説明動画紹介

・スタビジで解説されている誤差逆伝播法の紹介がわかりやすかったので
紹介いたします!


動画サマリー
・誤差逆伝播法(バックプロパゲーション)は、ニューラルネットワークの学習プロセスで欠かせないアルゴリズムであり、モデルのパラメータ(重み)を最適化するために使用されます

・ニューラルネットワークには、入力層、中間層(隠れ層)、そして出力層があり、誤差逆伝播法は出力層から入力層に向かって、勾配(誤差の変化率)を計算しながら、誤差を最小化する方向に重みを調整していきます。この過程は、損失関数という概念に基づいて行われます。損失関数とは、予測結果と正解データの間に生じる誤差を表すものであり、この損失を最小化することがニューラルネットワークの目的となります。損失関数の勾配を計算し、その勾配に基づいてパラメータを更新していくことで、ネットワークの精度が向上します。

・ここで疑問として、なぜ入力層から順に重みを更新しないのかが出てきます。実際に入力層から順に重みを更新しようとすると、例えば入力層と中間層の一層目の間の重みを少し動かしただけで、その後ろに続く中間層および出力層のすべての値が変わってしまいます。これをあらゆる組み合わせで行おうとすると、膨大な計算時間がかかることが予想されます。しかし、出力層から逆向きに重みを更新していくことで、影響を受けるのは一つの出力層のみとなり、計算負荷が圧倒的に軽くなります。これが誤差逆伝播法の大きな特徴であり、名前の由来にもなっています。

出典:スタビジ

スタビジでは図を使いながら、視覚的にわかりやすく解説されています!
また約5分という短時間でまとめられておりポイントに絞って効果的に学習したい方におススメです😊

他の動画の紹介

・もう少し数式も理解しながら、誤差逆伝播法を理解したい方向けには下記の動画がおすすめです。

・大学の数学・物理を解説してくれるヨビノリで誤差逆伝播法が取り上げられています📚
・50分を超える動画ですが、深く理解したい方にはおススメです!

以上本日は誤差逆伝播法についてわかりやすく解説している動画を紹介いたしました。次回も楽しみにしていてください📝


この記事が気に入ったらサポートをしてみませんか?