見出し画像

📐アンサンブル学習関連の用語


  1. アンサンブル学習(Ensemble Learning): 複数の学習モデルを組み合わせて、より強力な予測モデルを構築する手法。

  2. バギング(Bagging): ブートストラップ(ランダムにサンプルを複数回抽出)を用いて、複数のモデルを並列に学習させ、その平均や多数決で最終的な予渲を行う。ランダムフォレストが代表例。

  3. ブースティング(Boosting): 複数の弱学習器を順番に学習させ、間違った予測をしたデータに対する重みを増やしながら学習を進める。最終的には、これらの学習器の予測を組み合わせて強学習器を作る。代表的なアルゴリズムにAdaBoost、Gradient Boostingがある。

  4. ランダムフォレスト(Random Forest): バギングの一種で、多数の決定木をランダムな特徴量のサブセットを使って学習させ、その予測を平均化する。

  5. 勾配ブースティング(Gradient Boosting): 損失関数の勾配を用いて弱学習器を順番に改善していくブースティングの手法。XGBoost、LightGBM、CatBoostが有名。

  6. スタッキング(Stacking): 複数の異なるモデルを学習させ、その予測を入力として別のモデル(メタ学習器)を学習させる手法。モデル間の強みを組み合わせることができる。

  7. 弱学習器(Weak Learner): 予測性能がランダムより少し良い程度の学習モデル。ブースティングで用いられる。

  8. 強学習器(Strong Learner): 単体で高い予測性能を持つ学習モデル。アンサンブル学習の目標は、複数の弱学習器を組み合わせて強学習器を作ることにある。



お願い致します