論文輪読トレーニング!1日目「Dynamic Routing Between Capsules」①(タイトル周辺)
こんにちは、aki@Osakaです。フリーランスプログラマーをやっています。
本日の記事は論文概要の中の冒頭、タイトルの周辺情報です!
まずは、論文のサイトのトップから見ていきましょう。どんどん解説していきますよ!
初めての方はこちらの記事をご一読ください。(^-^)🔰
論文輪読トレーニング! Dynamic Routing Between Capsules (CapsNet)|aki@Osaka|note(ノート)
現在取り上げている論文
現在、取り上げている論文はトロント大学教授ジェフリーヒントン先生が2017年11月7日にarXiv.orgに投稿した「Dynamic Routing Between Capsules」です。
★タイトルについて
以下に、タイトル周辺を抜粋しますね。
タイトルは、「Dynamic Routeing Between Capsules」です。日本語訳をすると、複数のカプセル間における動的な経路制御となります。いったいどういう意味でしょうか。文字を分解して見ていきます。
まず、動的 (dynamic)って意味わかりますでしょうか? ざっくりした言葉の意味は、必要になった時にその都度作っていくというような意味です。詳しくは以下のサイト様を参考にしていただければと思います。サイトの名前通り、分かった気になれます(笑)
動的 (dynamic)とは|「分かりそう」で「分からない」でも「分かった」気になれるIT用語辞典
次に、経路制御(routing)という言葉のイメージも確認しておきますね!ルーティングとは、通信において、どの道を行けば良いか教えてくれる仕組みです(下記サイト様引用)。それが転じて、今回は、コンピュータ間のやり取りではなく、カプセル間のやり取りを制御してくれるというような意味になると思われます。
ルーティング (routing)とは|「分かりそう」で「分からない」でも「分かった」気になれるIT用語辞典
ふむふむ、ということは、このタイトル(「Dynamic Routeing Between Capsules」)から考察するに、「カプセルという概念があって、それらは複数存在していて、それぞれのカプセルが何者かによって動的(流動的)に接続の制御をされている」という意味に捉えられますね。なんとなくイメージが湧きますでしょうか。
★著者について
次に、著者がかかれています。青字のところですね。執筆者 (author) はSara SabourさんとNicholas Frosstさん、Geoffrey E Hinton(ジェフリー・ヒントン)先生となっていますね。Sara SabourさんとNicholas Frosstさんはヒントン先生の研究室のアシスタントだと思います。(多分ものすごく優秀なお二人だと思います。)
基本的に、論文の執筆者のなかで偉い人(教授などの責任著者、代表者)は後ろに書かれる傾向にあります。また、†マーク(ダガーマーク)や*マーク(アスタリスクマーク)が打たれることもあります。
ちなみにヒントン先生は、ディープラーニングの父とも呼ばれる権威で、畳み込みニューラルネットワーク(CNN)の生みの親のお一人でもあります。(CNNが何か分からない方は、ゼロから作るディープラーニングを参照してください。)
実際に、2012年のISLVRC(画像認識の世界的なコンペティション)において、ディープラーニング(CNN)を使って参戦し、他の従来の機械学習を使ったチームより約10%の精度の大差をつけて勝利しました。それにより、この第三次AIブーム(2012~)が起きたと言っても過言ではありません。
その方がCNNの悪い点を自ら挙げて、CNNに代わるアイデアを発表したのがこのカプセルネットワーク(CapsNet)です。なので、今後の発展に非常に期待されている知識であります。
ヒントン先生はCNN(畳み込みニューラルネットワーク)について以下のように語っています。
Hinton: “The pooling operation used in convolutional neural networks is a big mistake and the fact that it works so well is a disaster.”
「畳み込みニューラルネットワーク (CNN) で使われているプーリング処理は大きな過ちであった。そして、それがうまく動いてしまったということも災難であった。」
プーリング処理が何かわからない!という方は、ゼロから作るディープラーニングを参考にしてくださいね!CNNの悪い点に関して具体的な内容は記事本文で記述します。
★論文の提出の日付について
2017年の8月26日にこの論文がarXiv.orgに提出 (submit) されて、それが初版(version.1)、2017年の11月7日に改定 (revise) されてそれが第二版(現在もこれ, = this version)ということもわかります。
少し話がそれますが、NIPS2017(機械学習界隈の有名な国際学会の2017年度大会)にて、本論文はポスター発表され、助手のどなたかが説明に当たられていたとのことです。質問は長蛇の列で20分待ちとかだったようです!
今日はタイトル周辺を解説しました!
このあたりとしようと思います!
また数日後に会いましょう('◇')ゞ
終わりに
こちらの記事は、初心者でも論文を読めるようになるべくわかりやすく解説していくことを目標とするマガジンです。その点、正確性に関しては少し目をつぶっていただけると幸いです。
もしこの記事に興味があれば、ぜひスキボタンやフォローしていただけると助かります。どのくらい読みたい人がいらっしゃるのかによって、更新頻度を変える予定です。🙂
また希望やご意見などございましたら、お気軽にコメントいただければと思います。皆様のご意見とともにこのマガジンがより良いものとなって行けば嬉しい限りです。
Twitter も良ければフォローお願いいたします(^-^)
aki@Osaka (@n_aki_039827)さんをチェックしよう https://twitter.com/n_aki_039827?s=09
この記事が気に入ったらサポートをしてみませんか?