見出し画像

ラビットチャレンジ:応用数学レポート

第一章:線形代数

機械学習、ディープラーニングの基礎である応用数学の学習。講義動画からのまとめ、知らなかった用語の解説を踏まえつつ記載していく。

第一章:線形代数

●行列はスカラが表のようにまとまったもの。

スカラ:数の大きさ、数字それがより集まったもの。

●連立方程式を解くことにも応用が可能

加減法を使って解くことが可能。これは逆行列(A×Bが単位行列)を求めていることでもある。

●逆行列の計算

逆数の計算は掃き出し方でも可能だが、2×2の場合は別の方法もある。そして、逆行列が存在しないものも有る。

画像7

●固有値、固有ベクトル

正方行列Aとベクトルとスカラーは以下の条件を満たす場合。ベクトルはAはの固有ベクトルλはAはの固有値と言う。

画像8

●【固有値分解】としてまとめて書くと。。。

画像9

●【特異値特異ベクトル】

画像10

画像11

第二章:確率・統計

●集合の復習

画像2

これらが理解できているか。

●条件付き確率

ベイズの法則

画像1

例題を自分なりに解説。

笑顔の母数は街の子供1/3が分母。飴をもらって笑顔になった子供が、1/4×1/2 = 1/8 が分子。

(1/8)/(1/3) = 3/8 となる。

●確率変数確率分布期待値

サイコロの出る目で例えるなら

画像3

期待値はこの場合出る目(確率変数)と確率の掛け算の合計

画像4

●分散標準偏差

データの二乗の平均-平均の二乗

画像5

分散にルートを付けると標準偏差になる。

第三章:情報理論

●自己情報量

画像6

概念的に、確率が低い事象程、自己情報が大きくなる。

●シャノンエントロピー

自己情報の期待値

●カルバック ライブラー ダイバージェンス

同じ事象の確率分布の違いを表したもの。

とある低い確率で起きる事象があった場合の分布と、実際に起きた場合の分布の違いを表す。

●交差エントロピー

カルバック ライブラー ダイバージェンスの一部を取り出す

Pについて取り出したものの平均を取っている。



この記事が気に入ったらサポートをしてみませんか?