マガジンのカバー画像

古典機械学習を学ぶ

19
線形回帰、ロジスティック回帰、正則化、決定木、サポートベクトルマシン、クラスタリング、次元削減などの機械学習の仕組みを解説していく予定です。
運営しているクリエイター

2024年3月の記事一覧

scikit-learn機械学習⑧グリッド・サーチと交差検証

前回は、ロジスティック回帰を使ってL1・L2正則化を実装しました。今回は、ロジスティック回帰を使ってグリッド・サーチ(Grid Search)を行います。これらのテクニックはロジスティック回帰に限ったものではないので、知っておくと今後に登場するモデルでも役に立ちます。 グリッド・サーチは、機械学習モデルのハイパーパラメータを最適化するための一般的な手法です。この方法では、各ハイパーパラメータに対して候補となる値のリストを指定します。ハイパーパラメータが複数ある場合、全ての値

scikit-learn機械学習⑦L1・L2正則化

前回は、ロジスティック回帰を実装しました。もっと以前には、線形回帰を実装しました。 両方のモデルに共通するのは、一つまたは複数の独立変数(特徴量)と、それらに依存する従属変数(目的変数、ラベル)との関係をモデリングすることにあります。その際に、特定の特徴が目的変数に与える影響の大きさがモデルの重み(傾き)によって表現されていました。 特に前回行ったようなデータの正規化を行なっている場合は、データの分散はどれも同じようになるので、各特徴量に対する重みがその特徴量の重要度を反

scikit-learn機械学習⑥ロジスティック回帰:実践編

前回は、ロジスティック回帰の理論的な側面を解説しました。今回は、scikit-learnを使ってロジスティック回帰を実装してみます。 今回は、scikit-learnの乳癌のデータセットを扱います。目的は、各患者に対して30個ある数値の入力データからその人が悪性の癌を患っているのかどうかを予測することです。つまり、ロジスティック回帰を使って悪性のガンである確率を予測します。 いつものように訓練用とテスト用にデータを分け、訓練用のデータで簡単な分析を行います。さらに、モデル