見出し画像

2/8 高知はたまたまハマった?

今、機械学習やAIといえばつまりそれはDeepLearningの事と言ってもいいんじゃないでしょうか。

確かに私のようなライト層にも実感できる程強力なアルゴリズムなのは間違いないです。


ここからは、何の根拠も無いただの個人的な見解ですが、私が自分用に用意したデータを元に自分向けの競馬AIを作るにあたっては、DeepLearningは扱い辛いというのが本音です。


競馬も綺麗な関数にはならない

DeepLearningは関数と接線の傾き、つまり微分(偏微分)の世界です。今回の高知のように、サラッと都合良い推論まで辿り着くのはほぼ不可能です。綺麗な関数になるような問題であれば、傾き0の最適解に辿り着くのは容易ですが、上がったり下がったりを繰り返すような現実の問題に対しては、その一つ一つの偽最適解=局所解(後述)を乗り越えて、真の最適解に上手く導いてやらねばなりません。これはパラメータ調整の範疇です。

今回の高知にしても、局所解(本来辿り着きたい最適解ではなく、部分的に存在する偽最適解の谷の様なモノにハマってしまい真最適解であるようにそこで収束させてしまう)なのかもしれないし、検証は慎重にしなければいけません。


体感でとにかく人気に寄ってしまう

これはもちろん私の至らぬ部分が多いからだと思いますが、執拗に穴サイドでの回収率を狙うべく入力データを整形しても、推論で出てくる答えは人気寄り。というなんとも不可解で解決が厄介な問題が頻発します。

ちょっとやり過ぎたら即過学習(学習データに過剰にフィットしてしまい、推論させたい未知のデータに対して有効に機能しない)でまともな推論が行われない。

そして、誤差逆伝播というロジックによる説明可能性の低さ。



なんとも私にはピーキー過ぎて扱い辛い武器の様に感じて仕方ない。



結論

高知は本当にたまたまです。



この記事が気に入ったらサポートをしてみませんか?