深層学習の誤解
深層学習に関する記事は日経などでよく見かけるが,ちょっと昔の話を聞きかじって誤解しているケースが多々ある.ここでは,fast.aiの講義をもとにその誤解を解いておこう.
1)ブラックボックスなので,使いにくい.洞察が得られない.
機械学習の中には,結果を導いた理由を解釈可能なのがたくさんある.DLでも活性化関数や途中の層の様子を可視化する技術が進んでいるので,ある程度の解釈が可能である.特に,実務でよく出てくる埋め込み層を,主成分分析などで2次元に落とし込んだものからは,様々な洞察が得られる.
2)大量のデータが必要だが,それを集めるのが大変,もしくは不可能である.
最近の転移学習やデータ増大の技術を用いれば,少量のデータでもある程度の分析ができるようになってきている.
3)博士をとった人でないと分からない.
ある程度のプログラミングと高校生程度の数学の知識をもっていれば,誰も簡単に最新技術を使うことができるようになってきている.
4)画像認識にしか使えない.
自然言語処理へのDLの応用は最近急速に実用化されており,また,構造データに対する回帰や分類(特に需要予測)では,ランダム木などのアンサンブル法よりDLの方が良い成績を上げることが増えている.
5)大量のGPUを必要とするので,予算があるところでしか使えない.
DLにおける最適化技術の進歩によって,より短時間で訓練することができるようになってきた.最先端の研究で大量の計算機資源を使用するのでなければ,安価なGPU付きクラウドで十分な成果を期待できる.
6)そもそも深層学習(統計的機械学習)でしていることは,本当の人工知能からはほど遠い物だ.
知ったこっちゃない,役に立てば良いのだ.
この記事が気に入ったらサポートをしてみませんか?