[備忘録] 事前学習動画 脱ブラックボックス講座 中級: 自走できるAI人材になるための6ヶ月長期コース
自走できるAI人材になるための6ヶ月長期コースには事前学習の動画が9時間ついております。今回は中級編 (4.5h) についての備忘録です。
なお、この中級編はUdemy のこの講座と同じ内容とのことです。
備忘録
セクション1: はじめに
セクション2: イントロダクション
セクション3: 線形代数
3-1: スカラー・ベクトル・行列
3-2: 行列の演算
足し算、引き算、掛け算(行列積)
3-3: 練習問題
3-4: サイズ感
3-5: 転置 (Transpose)
3-6: 単位行列・逆行列 (Inverse matrix)
3-7: ベクトルで微分
「The Matrix Cookbook」2.4章
セクション4: 重回帰分析
4-1: Step1「モデル」を決める
4-2: Step2「評価関数」を決める
4-3: Step3 評価関数を「最小化」する - 式変形を行う
4-4: Step3 評価関数を「最小化」する - 最適なパラメータを求める -
4-5: よくある質問
逆行列の条件
多重共線性(マルチコ)
セクション5: 重回帰分析の実装
5-1: 行列演算の基礎(Numpy)
ベクトルの定義、行列の定義、転置、逆行列、行列積
5-2: よくある間違い(Numpy)
5-3: 演習問題
5-4: Scikit-learnで実装
セクション6: 実データで演習
6-1: データの読み込み
6-2: 分布の確認
sns.distplot(df['x4'], bins = 50)
# bins = グラフの横幅のこと
相関係数
# 相関係数 (correlation) の算出
# 1 強い相関、-1 負の相関
# 絶対値が1 に近い方が良い精度が出そう
# 相関係数が低いものでディープラーニングしている会社もいる
6-3: 入力変数と出力変数の切り分け
6-4: モデル構築と検証
6-5: 訓練データと検証データ
shift + tab で関数の使い方がpop upされる
6-6: 予測値の計算とモデルの保存・読み込み
6-7: パラメータの確認
セクション7: 統計
7-1: 主な統計量
平均、分散、標準偏差
7-2: 練習問題
7-3: 正規分布と3σ法
平均値ベース: 3σ法
中央値ベース: Hample 判別法 (Identifier)
7-4: スケーリング
Standart Scaling データの標準化
セクション8: 外れ値・スケーリングを考慮した重回帰分析
8-1: データの読込・分布の確認
8-2: 外れ値除去(3σ法) - 1変数に適用 -外れ値除去(3σ法) - 1変数に適用 -
8-3: 外れ値除去(3σ法) - 全変数に適用 -
対処法
外れ値は取り除く
外れ値を平均もしくは中央値で埋める
主成分分析等を使って、潜在変数に変換した後に3σ方を適用 ← 高度
8-4: モデル構築
8-5: スケーリングとパラメータの確認
セクション9: ボーナスレクチャー
ビジネス活用(9: 現場で機械学習を導入できる人材とは?)
セクション10: ボーナスレクチャー
AI人材としてプロフェッショナルになるための教育とは?