AIブームを科学史的にたどる~まとめ~

人工知能 vs 機械学習 vs 統計 vs ニューラルネット

前回まででロボット、自然言語処理、画像認識とみてきましたが、ロボットと自然言語処理etcでは「毛色」が違うと指摘しました。

一つは思想としてのプラグマティズムと言いましたが、今やほぼ同じものとしてとらえられている上記の4つの概念の違いがあります。

ロボットに限らずいたるところで(ITでない)エンジニアリングでは「データ」を取り扱い、それぞれの分野でそれぞれの手法が開発されてきました。データ分析の際に仮説検定や関数フィット等は必須のため、統計的手法は「教養」としてすでに存在していましたし、データ分析の際に「近似関数」として多項式フィットしたりと「形式的な」関数を使うことも多かった。

特にロボット系では簡単にモデルとして扱えない場合もあり早いころからブラックボックスしての関数や機械学習の手法を扱うことが多かった。

ニューラルネットも一応出所的には人工知能ではあるのですが、「AIとして」のニューラルネットというよりは「便利な関数」として使われていた。一応は人工知能という名前を与えられながらも「知能」については無頓着であった。

考えたら当たり前ですが、脳細胞を10個持ってきて「これが知能です」といっても意味がわからない笑

逆に機能を重視して「人工知能」を銘打って取り組んでいた知識システム派の方が「知能」というものにまじめに取り組んでいたのかもしれませんし、今でも一定の正当性を持っていると思います。
実際に生成AIなどでおかしな出力が出てくることはありますが、どういう「知識」を元にしているのかという理解をすることができません。

つまり、人工知能ブームというのは機械学習や統計のことをその性能をもって「人工知能」と自らを呼び始めたというのに近い。

そこには「知識」というものについての議論をすっ飛ばして「バズワード」として独り歩きしたというのが「人工知能」のブームの本質的な問題点だと思います。

革命よりは派閥争い

実は一連の調査は最近クーンの「科学革命の構造」の新装版が出たのがきっかけです。

人工知能を科学と呼ぶには抵抗がありますが、人々が「革命」というからには革命のような雰囲気なんでしょう。しかし、個人的には(以前から技術をある程度知っていたため)全く持って革命の様には見えない。どちらかと言うと「宗教」ですね笑

また、人工知能ブームは比較的近年のためネットを漁れば前後の社会の状況や言説も比較的誰でもアクセスしやすい。

それ故、その革命性を見るためにクーンの議論をベースにしらべてみたのですが、人工知能には特に「科学の危機」が起きているわけでも革命が起きているわけでもなかった。

その意味で(AIを殊更強調したがる人を除いて)技術者的にはパラダイムシフトが起きているわけでもない。
現に「旧来の人工知能」での問題が今の人工知能で解決しているわけでもないし、説明性やロバスト性などの文脈で「旧来の人工知能」を組み合わせる取り組みは山程ある。

繰り返しになりますが、「伝統的に毛色が違うが同じ対象についての技術開発をしていた分野」が「人工知能の名の下」に経済的な理由をきっかけに同じ分野として統一されたに過ぎない。

つまりは「王政が民主制」になったというようなフランス革命のようなものではなくスターリンがトロツキーを追放し、独裁体制を築いたような派閥争いのようなものが、AIブームにおける革命です。

個人的に興味深いのは10年もたたないうちにこれだけ「革命後」のような認識の言説に満ち溢れていることです。この歴史解釈の変更は「科学革命」の常ではありますが、関係者(特にエンジニアたち)の都合の良い歴史解釈に若干の恐怖すら感じます。

この様に科学というものをつぶさに見ていくと科学は過分に「イデオロギー的」な性質を含んでいます。それがクーンやその後の科学史が解き明かしたことであり、このイデオロギー性が問題にならないのは人間の政治に不干渉であるからに過ぎません。

それ故、(微妙に間違えた)科学的な考え方を人間の世界に持ち込むことは(敢えて)スターリンに例えているように過分にイデオロギーによる恐怖政治が始まる可能性を十二分に持っています。

プラグマティズムの呪い

元々の人工知能の発展には「動けばそれで良い」というプラグマティズムが根底にありました。プラグマティズム的な技術が「知識をコンピュータとして表現するには?」という比較的お堅い思想を持った分野に参入し、旧来勢力を駆逐した。

一方ですべての分野が「動けばいい、正確に予測できればいい」という思想をもっているわけではありません。「予測そのもののメカニズムや原理、論理の正統性」を求める分野にはプラグマティズムによる予測は害になります。

「犯罪学」と「犯罪予測」では犯罪学の範疇では「予測の正確さ」を求めていません。その犯罪を犯す上でのメカニズムや心理的状況等に興味を持っているわけです。

それが、AIが正義になったことで「メカニズムへの興味や趣向」が否定される文化が出来上がりました。ふと思い返すとこの手の浸食は今に始まったことではなく社会学や人文系での科学志向やデータ至上主義的な風潮がより厳しくなっており、自然な成り行きではある気はします。

このプラグマティズム志向はある種の「学問への資本主義の浸食」とも言えますが、これが良いかどうかといわれるとまあ間違いなく害になります。

稚拙な経験至上主義

AIブームによって「データをたくさん集めればOK」というパラダイムが出来上がりました。データさえ集めて「賢いAI」で学習すれば万事解決すると。

しかし、「経験主義」のみでは人間は知識を獲得できないことは昔から議論されてきました。古くはカントから、ヘーゲル、ウィトゲンシュタイン、ハンソン等「経験に先立つ」ものの存在を指摘してきました。

データにも同じことが言えます。データをとった瞬間に何らかの「経験に先立つモノ」の元にその他のデータを切り落としていることになります。

再び犯罪予測を例に挙げると、そもそもデータを集める際の変数(年齢、人種、犯罪歴etc)を集めた時点で「これらの要素が犯罪に関連するだろう」という「経験に先立つ勘コツ」によってデータが作られる。

例えば幼少期のトラウマや家庭環境みたいな要素はなんか説明になりそうですが犯罪予測では「データ」として扱いにくいため、切り捨てられます。

つまり「データ」自体にも「バイアス」が存在している。それ故「データのみ」で何かを情報を引き出すことは非常に危険です。

また、データというものは非常に容易に改ざんが可能であるという点もあります。生物学の実験ではデータの改ざんが容易なため、アナログなノートを用いて「データの信ぴょう性」を担保するなど「データの質」について非常に気を使っているくらいです。

その意味において「安直なデータ取得」と安直な人工知能活用は様々な害をもたらします。

人工知能に非ずんば科学にあらず

最大の懸念は以前も書きましたが「猫も杓子も人工知能」な状態にある点です。最近は様々な分野で人工知能な研究室が立ち上がってます。

なぜこれだけの動きがあるかと言うとその生まれからして「GAFA」製だからであって、「学問的な興味」よりも「資本」が重要視されているからです。

まあ流行りの学問ですし笑、お金のために魂を売る人間が一定数いるのは仕方ない。

しかし、全員が魂をうる時代になるとこれらの「プラグマティズム至上主義」と「似非経験至上主義」が蔓延し「批判的合理主義」な学問は消滅し、「〇〇理論」は全て人工知能の言葉と知識で置き換えられます。

もう一点、大学に多くの学部が作られていますが、これ本質的には「体の良い天下り先」づくりです笑
大学や学問から「GAFA」を崇拝するシステムを作り上げているわけです笑

学問の歴史上「とある組織の思想」によって科学が歪められた歴史は多くあります。それがユダヤ人科学であり、マルクス主義科学と呼ばれるものです。

おそらく数百年後にはこの時期の科学は「グーグル主義科学」と呼ばれるようになるかもしれません。

まとめのまとめ

というわけで、歴史的に「人工知能ブーム」を眺めて見ました。

おそらく人工知能信者や若い人にとっては「悪意のある歴史」に感じるでしょう。

そう思った人は自分の研究室の取り組みについて教授にきいてみるといいかもしれませんし、現状について、なぜ現在深層学習に取り組んでいるのかなどなどを聞いてみると良いでしょう。

彼らは歴史の生き証人であって「その感覚」がどうかはわかるでしょう。

歴史というものも「一つの解釈」に過ぎません。歴史はご存知のように「勝者」によって作られます。

ひょっとするとこれらの歴史も様々な意図と無意識の下に「栄光」として語られる未来がやってくるのかもしれません。





この記事が気に入ったらサポートをしてみませんか?