見出し画像

福島先生の講演@GPU2019で、進化を続けるネオコグニトロンの話を聴けた

1. PSC2019 & GPU2019

2019年12月5日 PSC2019@東京日本橋に参加してきました。
PSC : Prometech Simulation Conference
https://www.prometech-sc.com/

PSCは、流体や粉体の高度なシミュレーションに関するカンファレンス。
シミュレーション⇒大量な演算処理⇒GPU必須⇒GPUといえばnvidia。
と、nvidia関連の展示多数。 (個人的に見慣れた光景なので写真なし)
そして最近は、
"GPUといえばnvidia" と並んで "GPUといえばDeep Learning"。

ということで、今回のお目当ては併催の、GPU2019。

2. 2018年と2019年の概要比較

2年分の資料集が手元にあるので比較してみた。

・厚み 2018年: 約8mm/2019年: 約10mm (ページ数記載無し)

画像4

・スポンサー数 2018年: 25/2019年: 28 (表紙掲載ロゴ数)

画像4

・セッション数
 2018年 共通: 8/PSC: 4 tracks, 32 sessions/GPU: 1 tracks, 9 sessions
 2019年 共通: 3/PSC: 4 tracks, 24 sessions/GPU: 3 tracks, 17 sessions
https://www.prometech-sc.com/files/theme/program_pscgpu209_ver0913.pdf

3. まずは午前の主講演

とはいえまずは、Prometech Software 角家氏の主催講演。

画像1

流体シミュレーションの可視化、つまりアニメーションがすごく綺麗でわかりやすくなっていて、見ていて楽しい。エンジンへのオイルデリバリーや冷却など、もっとじっくり見たい!と思える出来栄え。可視化ってほんと大事。

「EVが増えては来ているが、2030年でも80%はICE(= Internal Combustion Engine : 内燃機関)車という予測もあり、内燃機関の効率化追求はまだまだ必要である。」という話であった。(これは別セッションで聴いた話だったかも……)
けれど、「80%だとしてもその大半は旧い車だろうからなぁ……」
さらには、「EVの普及はもっと速いんじゃないかなぁ」と、ひと月前からTesla Model3に乗り始めてEVの優位性を実感している身としては思ったり。

今後、研究費用だけでなく、計算資源をどこに割り当てるかは、今まで以上に国全体、産業全体で考えていかないと。

続いては、JAXA 森田氏のイプシロン・ロケットに関する招待講演。

ロケットと聴くだけでワクワクするので楽しく聴けた。いろいろとコンパクトに設計されている点はさすがJapan Made。(大きさはH-2の半分以下)
https://fanfun.jaxa.jp/topics/detail/10467.html

次は、特別講演。JDLA理事&NVIDIAの井﨑氏。

JDLAのことはよく知っているのでさらりと聴きつつ、毎回アップデートがたくさんあって楽しいNVIDIAの最新実装事例集を堪能。https://www.youtube.com/watch?v=GWL1HNHDSq4

4. 午後はディープラーニングセッションへ

有料の資料集におまけの(?)ランチをいただいてから午後のセッションへ。

シミュレーション中心のカンファレンスだが、さすがディープラーニングも注目度高し。シミュレーション関連とAI関連のセッション数を前年と比較すると、2018=6:4、2019=5:5

「AI案件の進め方」「PoCだけで終わらないために」といった、AI導入時のありがちな困りごと対策ノウハウを聞けるセッションがいくつかあり、また人気も高いが、これらは聴講機会も多くだいたい内容は予想できるので、イメージングAIのテクニカルセッションを中心に聴く。

劇的ではないものの、毎回聴くごとに確実に進歩している部分があるので、よく聴いていないといけないが、メモを取り出すと話を聴き逃しがちなので「あとで資料をじっくり見ればよし」と、「ほー。なるほどー。」とライブ感重視で聞き入る。
陸上競技の短距離走での分析事例が興味深く、単カメラ、屋外、マーカーなし、複数同時での姿勢推定が可能になっていた。

精度も速度も向上し、画像認識を適用できる課題は確実に増えている。
もっと使いまくるには、"エンジニアではない人"がこの技術を理解することが大事。開発している人が思いも寄らないところへ適用範囲が拡大できるはず。
なのでエンジニアではないみなさんも、JDLAのG検定勉強しましょう!

5. 福島先生の講演

個人的に本日のメインディッシュ。この講演を聴きたいがために今回申込んだ。福島先生がどれくらい凄い方なのかはこちらの記事でおわかりいただけるかと。

「ディープラーニングの父」に会ってきた
神経回路モデル「ネオコグニトロン」

画像2

せっかくの講演なのにブレブレの写真一枚だけで申し訳ない……

講演内容は、想像していたよりずっと刺激的なもので、「ネオコグニトロンとは、こういうものです。」というような話を直接聴けるだけでも満足だと思っていたが、現役エンジニアとして、"改良を続けている" "最新の" 情報であった。
特に興味深かった部分がこれ。

「内挿ベクトル法(IntVec)はなぜ強力か?」
・CNNの認識率は、学習パターン数を増やすことによって向上する。
・十分多数の学習パターンが得られないときは、データ拡張によって認識率を向上させることができる。

・内挿ベクトル法ではこの状態を、学習時ではなく認識時に作り出している。比較すべき特徴の数を、学習パターン数を増やさずに実質的に増やしている。

「データ拡張のように入力パターンを増やすのではなく、抽出された特徴量に対して変形パターン生成を行う」ということだそうだが、このような手法は初めて聴いたし、学習コスト削減と認識率向上にかなりの効果が期待できるのではないかと感じた。

※こちらの論文に詳しく書かれているようです。
https://www.sciencedirect.com/science/article/abs/pii/S0893608019302497

この記事が参加している募集

イベントレポ

この記事が気に入ったらサポートをしてみませんか?