見出し画像

Coursera Machine Learning 【2週目】

coursera machine learning 講座2週目の記録です。お盆休にガンガン進めていたら、2週目のまとめ書きが遅くなってしまいました。ほぼ、メモですね📝


内容

勾配降下法の基礎:勾配降下の損失関数と行列式、ベクトルの関係

正規化:特徴量毎の値レンジがバラバラだと、収束に時間がかかり、かつ収束方向が安定しないため、特徴量を正規化してあたいレンジを揃える上手く収束しやすいらしい

学習率:学習率が小さすぎると収束が遅い。(収束までのiterationが多すぎる)。学習率が大きすぎると収束しない(損失関数がうまく下がらず、むしろ増えてovershootする)

単回帰と重回帰分析

勾配降下法と正規方程式の違い: 

-勾配降下法: 学習率の設定が必要、イテレーションが多く必要、特徴数が多い場合は楽

-正規方程式:学習率がいらない、イテレーションがいらない、でも計算で直接解を求める必要があるため、特徴数が多いときつい

不可逆性について:わかりませんでした・・・


所感


・2週目位ということで、結構本格的な内容に入ってきました。数式や行列式も多く出ますし、添字もたくさん出てきて数学の授業感が出てきました。

・日本語で受講する点についてですが、日本語字幕ももちろん出せますが、動画内の資料は当然全て英語ですし、先生がPowerPointに書き込みながら説明しますが、書き込みも当然英語ですし(ここは字幕もない)、数学的な単語もたくさん出てきますので、日本語訳もスラスラ読める文ではありません。ですので、できれば簡単な英語文を読める程度で参加した方が無難ではあると思います。日本語だけで臨もうとする場合は、目安時間よりも時間がかかると想定しておいた方がいいでしょう。

事前知識なし、完全日本語のみ、でいく場合はかなりハードモードだと思われます。。。

・Octave 提出課題が登場します。これが一番厄介!基本文法は確認しておきましょう。

・2週目に来て早く難しくなってきました、、、

この記事が気に入ったらサポートをしてみませんか?