マガジンのカバー画像

教師あり学習(scikit-learn)

5
運営しているクリエイター

2022年2月の記事一覧

K近傍法【K-NearestNeighbor】

〇特徴区間におけるもっとも近い訓練例に基づいた分類アルゴリズムの1つ

 -分類や回帰のためのアルゴリズム
 -K-NNと頻繁に呼ばれる。
 -似たようなデータをK個集め、それらの多数決から目的とする値を求める。

〇以下の4つの流れでクラスを判別していきます。

 1.学習データを赤と青の丸としてプロット
 2.Kの数を指定しておく(K=3とする)
 3.未知のデータが得られたら、隣接している点

もっとみる

サポートベクターマシン【SupportVectorMachine】

〇教師あり学習を用いるパターン認識モデルの1つ

 -分類や回帰のためのアルゴリズム
 -SVMと頻繁に呼ばれる
 -クラスを明確に分ける境界線を引くための手法
 -マージン最大化と呼ばれる方法で境界線を推定

〇4つの工程
#1ライブラリのインポート

from sklearn.svm import SVM
#2インスタンス作成

clf = LinerSVC( )
#3モデル学習

cl

もっとみる

ランダムフォレスト

〇決定木を弱学習器とする集団学習アルゴリズムの1つ

 -分類や回帰のためのアルゴリズム
 -決定木をたくさん作って多数決を取る手法

〇決定木分析とは

観測された変数の中から”目的変数”に影響する”説明変数”を明らかにし、樹木状のモデルを作成する分析手法のことです。
・利用シーン → いろんなパターンのクロス集計を見るのは大変。
・結果の見方 → 上から順番に説明変数を確認する。

ー過学習に

もっとみる

ロジスティック回帰

〇ベルヌーイ分布に従う変数の統計的回帰モデルの1つ

 -分類のためのアルゴリズム(2値分類)
 -シグモイド関数を使って、自称が起こる確率を0から1の範囲で算出。
 -3クラス分類でロジスティック回帰を行う場合、確率値は3種類算出される。

【ベルヌーイ分布とは】
→2種類のみの結果しか得られないような実験。
 結果を0と1で表した分布。

LogisticRegression
ー線形回帰はsc

もっとみる

線形回帰【LinearRegression】

〇回帰問題の予測を行うアルゴリズムの1つ

 ー連続値をとる目的変数yと説明変数の線形関係をモデル化
 ー説明変数が1つの場合は単回帰
 -説明変数が複数の場合は重回帰

〇scikit-learnに実装されているモジュールを使用

 -sklearn.linear_model.LinearRegressionのクラスを使用
 ー大きく分けて工程が4つ存在

①ライブラリのインポート

from

もっとみる