AIブームを科学史的にたどる~ロボット~

前回は画像認識系を見ましたが、お次はロボット系。

ロボットとAIの切っても切れない関係

「機械学習」の機械という単語からもあるようにオートメーションと最適化の自律化というのが元々の目的になります。その意味でおおよそ全ての人工知能はロボットがモチベーションにあります。

皆さんがロボットと言って想像するようなドラえもん、アトム等「人間の友達」となるロボットの存在はSFで多く書かれ、そして日本人の1980年代の産業発展に大きく貢献しています。その意味で人工知能は常にこれらのロボットのイメージをもって開発されています。
ですので、音声認識や自然言語はロボットとの会話、画像認識はロボットの目として開発されてきたと言っても過言ではない。

ロボットと人工知能の密接な関係とそこにグーグルがどう関わってきたのか?

ロボットの歴史も長いので2000年代あたりから始めていきます。

ロボットにおけるAIの使い方

歴史的に見てもコンピュータよりもロボットの方が人工知能との関わりが長い。考えたら当然で「賢いロボット=人間と同等の知能をもっている=人工知能」なので、昔から人工知能を取り入れようとしてきました。

これまでのコンピュータの役割である情報処理よりもより高度で複雑な情報処理と制御が必要なため、よりAIに対してのニーズが強い傾向があります。

資料をあさっていると2003年時点ですでに人工知能への興味が書かれています。予測では今後20年で運動制御のみが実現可能としていて、そのほかのトピックのブレイクスルーとしてすでに新たな計算方法としての人工知能がこの時点で注目されているのがわかります。

この段階でのロボット技術の到達点としてはASIMOやAIBOといった「我々がSFで思い描いた」ロボットが登場したというのが2000年代のレベル感でして、世間ではこんなものが開発されていました。何だろう、、、このいまいち感は。。。

https://www.mhlw.go.jp/stf2/shingi2/2r9852000000qx1i-att/2r9852000000qxax.pdf

https://www.meti.go.jp/shingikai/mono_info_service/robot_shakaihenkaku/pdf/20190724_report_01.pdf

とはいえ、現状としてもロボットに関してはこんなもんと言っちゃこんなもんではあります。

ただ、それ以前と大きく異なるのは「産業向けの特化型のロボット」から「サービスとしてのロボット」という形にシフトしているのが伺えます。

おそらくこれらの「ある程度形になった」ロボットに対しての投資需要があったのは確かだと思われます。これらのロボットが形になった2010年代からGoogleやソフトバンクなどがロボット企業の買収を行っています。

さて、ロボットには環境認識,行動計画,運動制御の3つが必要なんですがこれらについてどのような技術があったのかというと「機械学習」で習う多くの技術たちが登場します。

先にもあったように運動制御の部分はある程度の技術が整っていましたが、
その中には遺伝アルゴリズムや強化学習等も含まれていましたし、ファジー制御やエキスパートシステムもこの文脈で発展していきました。
行動計画については最適化を発展させていきましたし、画像についても昔の特徴量解析などなどが行われてました。

また、新たな情報処理チップとしてニューロモーフィックチップの開発なども数多く行われてました。

つまり「ほとんどすべての機械学習の技術」はロボット制御のために開発されてきたといっても過言ではないし、2000年代から比較的様々なところで機械学習が使われていました。

若い人は知らないと思いますが、様々な家電に「ファジーニューロ制御」なんてのが書いてあったくらいです。

つまり、機械学習や深層学習は「常に身近」な技術として存在していた。ただ、ロボットという制約上ある程度リアルタイムで装置に乗っかる(サーバー等が必要でない)、売り物にした際のコストという制限があったため、基本的には研究レベルであって、それが高度な技術にできると誰も思っていませんでした。

画像認識における学問の呪縛

逆に画像認識分野はどういう状況であったか?

2000年というとメールに写真が添付できるようになったのが2001年、デジカメの本格的な普及も2000年代です。ですのでそもそも2000年代にはまともな画像認識は不可能でした。
そのため、画像エンジンのような「専用ハードウェア」を設計する必要がありました。ビッグデータを使えるわけもありません。
画像処理のプロセスを考えたり、圧縮や効率の良いデータ変換方法等そういうことをしていたのが画像処理屋だったのでしょう。まともにアルゴリズム的なことができるるようになったのはおそらく2010年ごろからです。

https://web.wakayama-u.ac.jp/~wuhy/CV/CV2007/CV02-1.pdf

https://www.jstage.jst.go.jp/article/cigjsrt/33/2/33_KJ00006912784/_pdf/-char/ja

2010年頃の画像処理においては「過去の伝統」もあり幾何学的な表現、人間の視覚とのインタラクション等現在の機械学習とは少々趣が違います(今でいうVR・ARの趣味が強い)。

それ故、普通のソフトウェアのように「アルゴリズム」を重視します。まあ考え方の違いです。そもそも分類だけに特化させる気もそんなになく、汎用的な技術で乗り越えようとしていた感があります。それゆえ、同じようなことをしていてもロボットの目と情報処理としての画像処理は微妙に目的も手法も異なってきます。

ロボットに置いては「ブラックボックスを扱う」ことは結構よくあります。

例えばS行列。こちらは実はハイゼンベルグまで遡るんですが、入射波と反射波の関係性のみから理論を構築します。理由は簡単。ロボットの世界では「とにかく動いてくれたら良い」というプラグマティズムがあるからです。

一方で画像認識系はそもそもが「学問としての体系の構築」という部分が多々あるために説明可能で(視覚効果として)ロジカルな理論を重視します。

つまり「プラグマティズム」にのっとり「画像分類」に特化させたいロボット系と「視覚効果」の工学として汎用的な技術としての「画像分類」でそもそも土台が異なっていた。

画像認識系においてのパラダイムシフトはこの意味で大きい。そして、おそらく今でも「プラグマティズム派」と「アルゴリズム派」で異なる動きをしている部分はあると思われますが、どちらがいいかというのは価値観の問題です。

ある意味で現在様々なところで起きている「AIによるプラグマティックな予測 vs 学問としての体系構築」というトラブル(例えば犯罪予測と犯罪学)の最初の犠牲者とだったともいえるかもしれません。

Googleのロボット戦略

ところでなぜGoogleや大手IT企業はロボットへの投資を始めたのか?

2009年のリーマンショックは確実にあると思われます。Googleの稼ぎ頭は「広告」です。広告や検索事業の次の一手を模索していた。

一つはGoogleがAndroidを作った際にヘッドハントしたアンディ・ルービン氏がロボットへの戦略を立てたからというものです。
元々Androidは様々なデバイス上のOSとして設計したようでその拡張としてのロボットをやりたがっていたようです。

ロボットにおいてもプラットフォーマーとなることで利益を上げることを狙っているのもあります。

そのルービン氏は2014年あたりでGoogleを退職してしまい、その後のGoogle内のロボットのプレゼンスもどんどん下がったように感じます。奇しくもなのか必然なのか以前の記事にあったように2012年のAI隆盛とタイミング的には一致しています。

もう一つは当時のロボットのシェアは日本が強く、Googleとしては「いいねらい目」だったというのも大きいでしょう。

https://rp.kddi-research.jp/article/RA2014003

近年のGoogleではロボット産業にはさほど力を入れていません。
ロボット産業はIT産業と違ってインフラや装置そのものへの投資がかかるため、基本的に想像以上に利益率が低い。
さらには現実世界に合わせるには結構な泥臭い作業が必要ですが、それがGoogleの価値観と一致しないというのもあるのでしょう。

AIの発展をもって「データのプラットフォーマー」にシフトチェンジしたというのが経営的にもあり得そうです。

さて、2011年にGoogle Brainが設立されます。その中心人物がNgさんですが、以下の通り元々ロボットにおける人工知能屋さんです。

His early work includes the Stanford Autonomous Helicopter project, which developed one of the most capable autonomous helicopters in the world.[34][35] He was the leading scientist and principal investigator on the STAIR (STanford Artificial Intelligence Robot) project,[36] which resulted in Robot Operating System (ROS), a widely used open source software robotics platform. His vision to build an AI robot and put a robot in every home inspired Scott Hassan to back him and create Willow Garage.[37] He is also one of the founding team members for the Stanford WordNet project, which uses machine learning to expand the Princeton WordNet database created by Christiane Fellbaum.[10][38]

https://en.wikipedia.org/wiki/Andrew_Ng

つまりはロボットにおける制御としてのAIが当初計画されていたということがここからもわかります。

そして、そこからはNgさんとGoogle首脳陣の「ビジネス感度のよさ」によってAIが「主力」として開発を加速させていくことになります。

これがAIの第三次ブームの作られ方になります。もちろん、他のBigTechの事情もあるかとは思いますが、ひとまずは粗方説明がつけられます。

ロボット技術の「思想的な」展開

まとめますと

1.そもそもロボット系では人工知能への興味が高く画像認識を含め、継続的に研究が続けられていたし、適応も進んでいた。
2.Googleは当初構造改革としてロボットに興味を持っていた。それはアンドロイドの大元の設計思想であるモバイルOSの拡張としてであった。
3.ロボット制御の「プラットフォーマー」となるべく、制御システムへの注力とその一環としてロボット工学的な意味で人工知能の研究を開始した。

そこにAlexNetが渡りに船でやってきて、、、あとは皆さんがご存じの展開になります。そして、

4.当初の戦略を変更して適切に豊富な資金を提供した

というのも最後の重要なピースです。

量子コンピュータや核融合も話題にはなりますが、ここまですそ野が広がっていないのに対してAIだけはものすごく広がっています。

なぜここまでAIが受けたかというのは「単一技術」と「プラグマティズム」という軸で様々な世界に切り込んでいけるという夢を与えたことも大きい。

ニューラルネットワークという単一技術であるにも関わらず、様々に適応できる「便利さ」、特定分野の「難渋な学問体系」を理解せずとも「精度という軸」で勝負を挑める「とっつきやすさ」が大いに受けた。

このプラグマティズムの弊害についてはここでは触れませんが、これらの特徴とBigTechによる多額の投資故に多くの人の参入を生んだ。

皆さんが思うほどにAI発展の「必然性」はありません。
教科書ではいかにも「必然」のように語られますが、実際の現場では「偶然」と「戦略」がものをいう世界があるわけです。

最後にAIのもう一つの軸である自然言語についても見ていきます。こちらも「人工知能」として独自に発展を遂げていたのかいなかったのか?

それが現在のAIブームとどのように関係したのか?を見ていきます。

この記事が気に入ったらサポートをしてみませんか?