マガジンのカバー画像

古典機械学習を学ぶ

26
線形回帰、ロジスティック回帰、正則化、決定木、サポートベクトルマシン、クラスタリング、次元削減などの機械学習の仕組みを解説していく予定です。
運営しているクリエイター

2024年8月の記事一覧

scikit-learn機械学習㉔SVM理論3:カーネル・トリック

前回までにマージンの最大化とソフト・マージンによるサポート・ベクトル分類器について紹介してきました。 ただし、これまでずっと線形分離が可能なケースを取り上げてきました。 例えば、下図は2次元データにおいてマージンの最大化による分割を行ったものです。この境界は直線となっています。 また、下図はソフト・マージンを導入したケースです。 マージンの中にデータポイントが入り込んでいますが、ある程度の線形分離が可能であればそれなりに良い分類予測が行えます。また、過学習を防ぐ効果も

scikit-learn機械学習㉓SVM理論2:ソフト・マージンの導入

前回は、マージンの最大化によるデータの分類について解説しました。 しかし、その手法の問題点としてハイパープレーンで完全に2分割できないケースに対応できないことも浮かび上がってきました。 そこで今回はソフト・マージンが登場します。その理論的な仕組みと、scikit-learnにおける実装のされ方や過学習への影響などを解説します。

scikit-learn機械学習㉒SVM理論1:マージンの最大化

前回は、scikit-learnのk-NN(KNeighborsClassifier)を使った分類の実験を行いました。今回から、数回の記事に分けてサポート・ベクトル・マシン(Support Vector Machine、SVM)による分類の理論を解説します。 今回は、マージンの最大化による分類について紹介します。また、サポート・ベクトルとは何かなど関連する概念について解説します。 そのために具体例としてデータを2つのクラスに分類することを考えます。 下図を見て下さい。