【AI】パターン認識の種類
全数記憶方式
全てのデータパータンと、それら各自の正解ラベルを参照テーブル上で表現する方法。あまりにも非効率。
ex: ) 10*10の2値化画像があるとする。この画像が取りうる全てのパターンは2^100ある。この全てに何の文字や数字を表しているかをテーブル上で管理。
→ 10*10の2値化画像でもデータ量は膨大
最近傍決定則(NN法)
入力データとの距離が最も近い学習データ(プロトタイプ)が属するクラスを、入力データが属するクラスにする手法。
ここで注意なのが、プロトタイプを選ぶ手法がいくつか考えれること。
・クラスの重心
・入力データから最も近い学習データ
など
プロトタイプと入力データとの距離もいくつか考えられるがユーグリッド距離を使うことが多い。
ユーグリッド距離を利用すると、ボロイノ境界で可視化できる。(直線で上下どちらにいるかで識別できる)
可視化すると発見できやすいが、プロタイプの選び方で識別する関数が変わってしまう。その関数が確実に識別できていないことがあり得てしまう。
赤線で識別してしまったら、一部の緑や青が別の色と識別されてしまう。
【参考】とても分かりやすいスライド
https://www.slideshare.net/moa108/5-kknn
k近傍法(K-NN法)
NN法をK回行って多数決をする方法。(一度扱ったプロトタイプは次の識別では利用しない)
線形識別関数
NN法やK-NN法、後述で紹介するパーセプトロンなど、入力データを引数に持つ関数で識別を行う方法。
パーセプトロン
識別するための関数を学習データを使って調整していく手法。
NN法では識別関数がクラスのプロトタイプに依存しているため、そのプロトタイプの選び方よってより正確に識別できる関数が発見できれば嬉しかった。パーセプトロンでは、その識別関数をプロトタイプではなく、学習データとの誤差から調整する。(一般的に重みの調整)
全体の流れ
学習データ群L(正解ラベル付き)、ランダムに識別関数を準備
Lから学習データDnを取り出し、識別関数を用いて判定
正解ラベルと一致していなければ、識別関数が正しく判定できる方向に移動させる(ただしρ倍(小さい値)しか行わない
この記事が気に入ったらサポートをしてみませんか?