見出し画像

嵐のメンバーの画像認識をやってみました

目次

初めに
実行ツール
作業内容
終わりに

はじめに

初めまして。
機械学習を勉強している初心者です。
今回は人を識別するアプリを作ってみたいと思い、嵐のメンバーを識別するWebアプリを作ってみました。

実行ツール

Python
Visual Studio Code

作業内容

データ収集

機械学習で画像を識別する精度を上げるために、学習に使用するデータの数が数多く必要されています。
それを全部手動でダウンロードするのは効率が悪いので、今回はicrawlerツールを利用してでーたの収集を行いました。

  • icrawler

icrawlerは検索サイトで画像データをキーワード検索で自動収集できるpythonライブラリです。
私はキーワードのそれぞれ5人のメンバの名前を設定し、Bingキーワード検索によって画像を自動ダウンロードさせました。

from icrawler.builtin import BingImageCrawler
import glob
 #検索リストの生成 
search_words = ["二宮和也","櫻井翔",'相葉雅紀','松本潤','大野智']#検索したい単語
dir_names = ["nino","sakurai",'aiba','matujyun','oono']#保存するときのフォルダ名

for search_word,dir_name in zip(search_words,dir_names):
  # Bing用クローラーの生成
  bing_crawler = BingImageCrawler(
      downloader_threads=4,           # ダウンローダーのスレッド数
      storage={'root_dir': dir_name}) # ダウンロード先のディレクトリ名

  # クロール(キーワード検索による画像収集)の実行
  bing_crawler.crawl(
      keyword=search_word,   # 検索キーワード(日本語もOK)
      max_num=200)           # ダウンロードする画像の最大枚数

データの前処理

AIに学習させる場合、学習データとラベルが対応されています。
icrawlerでダウンロードされたデータの中には、メンバ名を検索して出てきた画像にも、本人ではない画像が混ざっていますので、学習結果に影響しないように、本人ではない画像をを手動で削除しました。
また、人を識別する精度をさらに上げるために、データ量を増やす必要があります。
そこで、元のデータに変換を加えるデータの水増しを行いました。
また、5人のメンバーそれぞれのデータの中、8割を学習データ、2割を検証データとして設定しました。

  • データの水増し

データの水増しはデータ量を増やすことで、AI学習の精度を上げるためによく使われています。
水増しには、画像の左右反転、閾値処理などの方法があり、私のコードには、前述二つ方法に加え、画像のぼかしと収縮も行い、画像を9000枚ほど増やしました。

    scratch = np.array([
       
        #画像の左右反転 
        lambda x: cv2.flip(x, 1),
        
        #閾値処理 
        lambda x: cv2.threshold(x,100,255,cv2.THRESH_TOZERO)[1],
        
        #ぼかし 
        lambda x: cv2.GaussianBlur(x,(5,5),0),
        
        #モザイク処理 
        lambda x: cv2.resize(x, (x.shape[1] // 5 * 5, x.shape[0] // 5 * 5 )),
                
        
        #収縮 
        lambda x: cv2.erode(x,filter1)
        
    ])

データ学習

ここでは、まず既存のVGG16というモデルを利用し、転移学習を行ったモデルを構築しました。
転移学習とは、既存の学習済みのモデルをインポートし、そこで、自分のモデルのためのデータを追加することで、新しいモデルを作成する方法です。
VGG16とは、100万枚以上の画像の学習ずみの、深さが16層の畳み込みニューラルネットワークです。データ規模が大きいので、画像分類を行う際、よく使われます。
VGGモデルを結合後、特徴抽出部分の重みが更新させると崩れてしまう、そのため、layer.trainable = Falseを使って固定しました。
モデルの学習を行う際は様々なパラメータを指定しましたが、それぞれ下記意味を持っています。

X_train, y_train:学習用データとラベルデータ
batch_size:同時に学習させるデータ数
epochs:学習する回数
verbose:ログ出力の指定
validation_data:評価用データ

#VGGモデルを結合する
model = Model(inputs=vgg16.input,outputs=top_model(vgg16.output))

for layer in model.layers[:15]:
    layer.trainable = False

#モデルのコンパイル
model.compile(loss='categorical_crossentropy',
              optimizer='adadelta',
              metrics=['accuracy'])

#モデルの学習
model.fit,
          batch_size=30,
          epochs=35,
          verbose=1,
          validation_data=(X_test, y_test))

モデルの検証

水増しなしモデルの検証結果:
テストロス:1.56
テスト精度:0.33

水増しなしモデルの検証結果

水増し処理後のモデル検証結果:
テストロス:0.40
テスト精度:0.98

水増しありモデルの検証結果

今回は学習用データを水増しする前はそれぞれのメンバの学習用データが200枚程度しかなかったため、0.33という低い精度でした。
水増しを利用し、それぞれのメンバの学習用データを9000枚程度に増やし、もう一度学習させた結果、精度が0.98に上がりました。

改善
今後はデータ学習時のパラメータをより最適に変更することで、精度をさらに高める方法が考えられます。

model.fit(X_train, y_train,
          batch_size=30,
          epochs=35,
          verbose=1,
          validation_data=(X_test, y_test))

Webアプリ画面

写真をsubmitした結果

終わりに

AIの勉強を始めてから半年が経ちました。
勉強を始める前までは、自分がAIアプリなんて作れないでしょうと思いました。
今回のAIアプリはAidemyでの最終成果物の課題として作成することになりました。
AIは初めてですが、質問ができる講師の方々がいて、勉強がうまく進めることができました。
これからもこの半年間勉強したことを忘れないように、自分が興味あるアプリやコードを書いてみたいと思います。


この記事が気に入ったらサポートをしてみませんか?