AI アブダクション

最近のディープラーニングの進歩により、人間のように考え行動する機械、すなわち人工知能の実現が間近に迫っているとの関心が再び高まっています。より大きく、より優れたニューラルネットワークを構築する道を歩むことで、人間の脳のデジタル版を作ることにどんどん近づけるという考え方だ。

しかし、これは神話だとコンピューター科学者のエリック・ラーソンは主張する。すべての証拠が、人間と機械の知能は根本的に異なることを示唆している。ラーソンの新著『人工知能の神話』(原題:The Myth of Artificial Intelligence)。なぜコンピューターは私たちと同じように考えることができないのか」では、知能や推論に関する広く知られた誤解が、いかにAI研究を狭い道へと導き、イノベーションや科学的発見を制限しているかについて論じています。
科学者、研究者、そして彼らの研究を支援する組織が方向転換しない限り、彼らは「機械の国の忍び寄り、本物の発明はおざなりにされ、しばしば凝り固まった利害関係者が主張する現在のアプローチを未来的な話として支持する」運命にあるとラーソンは警告している。
科学的な観点から見ると、AIの神話は、画像の分類、音声コマンドの理解、ゲームのプレイといった狭い範囲のアプリケーションを進展させることで、人工知能(AGI)を実現することを想定しています。しかし、こうした狭い範囲のAIシステムの基礎となる技術は、基本的な会話をする、家の中で簡単な家事をこなすなど、常識を必要とする作業など、一般的な知能能力を実現するために解決しなければならない幅広い課題には対応していないのです。

「より高速なコンピュータと大量のデータの恩恵を受ける、より単純で狭い範囲の知能の適用に成功したとき、私たちは漸進的な進歩を遂げるのではなく、むしろ低いところにある果実を摘んでいるのです」と、ラーソンは書いている。
AI神話の文化的帰結は、知能の科学的謎を無視し、ディープラーニングやその他の現代技術で進行中の進歩について延々と語り続けることです。この神話は、科学者が知性という課題に取り組む新しい方法を考える意欲を失わせる。

"核となる謎を直視するのではなく、無視することを選択した場合、イノベーションは得られそうにありません "とラーソンは書いています。"イノベーションのための健全な文化は、既存の方法の拡張を誇示するのではなく、未知のものを探求することを強調します。"AIで必然的に成功するという神話は、真の進歩に必要な発明文化そのものを消滅させる傾向にあります。

自宅から外に出てみると、道路が濡れていることに気づく。まず、雨が降ったのだろうと思った。しかし、晴れているし、歩道は乾いているので、雨の可能性はすぐに排除した。横を見ると、洗車用のタンカーが停まっている。あなたは、道路が濡れているのはタンカーが洗ったからだと結論づけます。

これは「推論」の一例で、観察から結論へと導く行為であり、知的生物の基本的な機能である。私たちは常に、自分が知っていることや知覚したことに基づいて、物事を推論しているのです。そのほとんどは、集中したり直接的に注目したりすることなく、心の奥底で無意識に行われている。

「推論を行うシステムには、何らかの基本的な知性がなければならない。なぜなら、既知のことや観察されたことを利用して信念を更新するという行為そのものが、我々が知性と呼ぶものと不可避的に結びついているからだ」とラーソンは書いている。

AI研究者は、演繹的推論と帰納的推論の2種類の推論機に基づいてシステムを構築している。演繹的推論では、事前の知識を用いて世界について推論を行う。これは、人工知能の初期に研究者たちが主に取り組んでいた「記号的人工知能」の基礎となるものだ。エンジニアは、あらかじめ定義されたルールと事実のセットを与えることによって記号システムを作成し、AIはこの知識を使用して、受信したデータについて推論する。

帰納的推論は、過去10年間にAI研究者や技術系企業の間でより多くの支持を得たもので、経験を通じて知識を獲得するものである。機械学習アルゴリズムは帰納的推論エンジンである。関連する例で訓練されたMLモデルは、入力を出力に対応付けるパターンを見つけることができる。近年、AI研究者は、機械学習、ビッグデータ、および高度なプロセッサを使用して、シンボリックシステムの能力を超えていたタスクのモデルを訓練してきました。

3つ目の推論は、19世紀にアメリカの科学者チャールズ・サンダース・ペアーズが提唱した「帰納推論」である。帰納的推論とは、直感や仮説を思いつく認知能力であり、真実をランダムに突き止めるよりも優れた推測をすることである。
例えば、道路が濡れている理由は数多く考えられるが(今まで直接経験したことのないものも含む)、帰納的推論によって、最も有望な仮説を選択し、間違った仮説を素早く排除し、新しい仮説を探し、信頼できる結論に達することができるのだ。ラーソンは『人工知能の神話』の中で、「私たちは、事実上無限にある可能性の中から、どの仮説がありそうであるか、あるいはもっともらしいかを推測する」と述べている。

帰納的推論とは、多くの人が「常識」と呼ぶものである。これは、事実やデータを見るための概念的な枠組みであり、他のタイプの推論をまとめる接着剤のようなものである。これによって、頭の中に存在する膨大な情報と、感覚的に受け取る膨大なデータの中から、何が適切なのかにいつでも焦点を合わせることができるのです。

問題は、AIコミュニティが帰納的推論に十分な注意を払っていないことです。
AIとアブダクション推論
アブダクションは、1980年代から1990年代にかけて行われたアブダクティブ・ロジック・プログラミングの試みによってAIの議論に参入したが、これらの試みには欠陥があり、後に放棄された。「2010年代には、因果関係を計算する推論エンジンであるベイジアンネットワークとして、アブダクションに再びチャンスが訪れました。しかし、以前のアプローチと同様に、新しいアプローチも真のアブダクションを捉えられないという欠点があるとラーソン氏は指摘し、ベイジアンやその他のグラフィカルモデルは「帰納法の亜種である」と付け加えた。人工知能の神話』の中で彼は、それらを「名ばかりのアブダクション」と呼んでいる。「AIの歴史は、ほとんどの場合、演繹と帰納に支配されてきた。

「アラン・ニューウェル、ハーバート・サイモン、ジョン・マッカーシー、マーヴィン・ミンスキーといった初期のAI先駆者たちは、人工推論(AIの中核)の問題を取り上げたとき、知的思考や行動を生み出すには演繹的スタイルのルールを書けば十分だと考えていました」とラーソンは述べています。「科学のあり方についての議論では、もっと早くから認識されていたはずですが、実際には決してそうではなかったのです」。
何十年もの間、研究者達は、手動で書かれたルールと事実を与えることによって、記号的AIシステムの力を拡張しようとしました。その前提は、人間が知っている知識をすべてAIシステムに与えれば、人間と同じように賢く行動できるようになる、というものだった。しかし、純粋な記号的AIは、さまざまな理由で失敗してきました。記号的なシステムは、新しい知識を獲得したり追加したりすることができないので、硬直したものになってしまう。記号的なAIを作ると、新しい事実やルールを追加しても、システムが新たな間違いを犯し、それを修正できないことに気づくという、終わりのない追跡になってしまうのです。また、私たちの知識の多くは暗黙的なものであり、ルールやファクトで表現して記号的なシステムに与えることができない。

"ここで不思議なのは、誰も明確に立ち止まって『待て』と言わなかったことです。これはうまくいかないぞ!" とラーソンは言っています。そうすれば、アブダクションや仮説生成、あるいは「文脈依存推論」へと研究が直接的に移行したことでしょう」。

過去20年間、データと計算資源の利用可能性が高まるにつれ、機械学習アルゴリズム、特にディープニューラルネットワークは、AIコミュニティで注目されるようになった。ディープラーニング技術は、これまでコンピュータの限界を超えていた多くのアプリケーションを解き放ちました。そして、世界で最も裕福な企業のいくつかから関心と資金を集めています。

「ワールドワイドウェブの出現で、経験的あるいは帰納的(データ中心)アプローチが支配的になり、演繹と同様にアブダクションはほとんど忘れ去られたと思います」とラーソンは言う。

しかし、機械学習システムには、因果関係の欠如、エッジケースの扱いの悪さ、多すぎるデータの必要性など、厳しい限界もある。そしてこれらの限界は、研究者が医療や金融といったセンシティブな分野に機械学習を適用しようとするにつれ、より明らかになり問題になってきているのだ。

帰納的推論とAIの未来像

強化学習のパイオニアであるリチャード・サットンをはじめとする一部の科学者は、データや計算の利用可能性に応じて拡張できる手法、すなわち学習と探索にこだわるべきだと考えています。例えば、ニューラルネットワークが大きくなり、より多くのデータで訓練されるようになれば、いずれ限界を超え、新たなブレークスルーにつながるだろう。

ラーソンは、データ駆動型AIの大規模化を "知能のモデルとして根本的な欠陥がある "と断じている。検索も学習も有用なアプリケーションを提供できるが、それらは非生産的な推論に基づくものであると彼は繰り返す。

"検索は、推論に関する考え方に革命が起きない限り、常識的な推論や帰納的推論にスケールすることはなく、それはまだ起きていないのです。機械学習も同様で、データ駆動型の学習アプローチは、いわば推論がデータの中になければならないことを意味します。「私たちは、例えば、大規模なデータセットで捕捉された過去を見て、将来について何を結論付け、考え、推論すべきかを判断するのではありません」。
他の科学者たちは、記号システムとニューラルネットワークを一緒にしたハイブリッドAIが、ディープラーニングの欠点に対処することをより大きく期待できると考えています。その一例が、ジョパディ!で世界チャンピオンを倒したことで有名になったIBM Watsonだ。より最近の概念実証済みのハイブリッドモデルは、記号AIやディープラーニングだけではパフォーマンスが低い用途で有望な結果を示している。

ラーソンは、ハイブリッドシステムは、機械学習のみ、あるいはルールベースのみのアプローチのギャップを埋めることができると考えています。自然言語処理の分野の研究者として、彼は現在、GPT-3のような事前に学習された大規模な言語モデルと、知識グラフの形でセマンティックウェブの古い研究を組み合わせて、検索、質問応答、その他のタスクでより良いアプリケーションを作ることに取り組んでいます。
しかし、演繹-帰納の組み合わせではアブダクションには至らない。なぜなら、3種類の推論は形式的に異なるため、互いに還元されず、組み合わせて3つ目を得ることができないからだ」と彼は述べている。

ラーソンは『人工知能の神話』の中で、アブダクションを回避しようとする試みを "推論の罠 "と表現している。

機械学習のような純粋に帰納的な手法では、コンピューターがどんなに高速化しても不十分なままであり、ワトソンのようなハイブリッドシステムも一般的な理解には及ばない」と書いています。「言語理解のように、世界についての知識を必要とするオープンエンドなシナリオでは、アブダクションが中心であり、かけがえのないものです。このため、演繹的手法と帰納的手法を組み合わせる試みは、常に失敗する運命にある...この分野にはアブダクションの基礎理論が必要だ。それまでは、私たちは罠にはまったままなのだ。

AIコミュニティは、データ駆動型アプローチに焦点を絞っているため、膨大なデータの蓄積と深いポケットを持つ少数の組織に研究とイノベーションが集中しています。深層学習がデータを収益性の高い製品に変える有用な方法となったことで、大手ハイテク企業はAI人材の採用競争に巻き込まれ、研究者に有利な給与を提示してアカデミアから引き離すようになりました。

このシフトにより、非営利の研究所や小規模な企業がAI研究に携わることは非常に難しくなっています。

ラーソンは、「AIの研究開発を、非常に大きなデータセットの所有と管理に結びつけると、データを所有しない新興企業にとっては参入障壁となります」と述べ、データ駆動型AIは本質的に商業分野で「勝者総取り」シナリオを生み出すと付け加えた。

AIの独占は、かえって科学研究を阻害している。大手ハイテク企業は、競合他社に対する優位性を保つために、膨大なデータ資源を活用できるアプリケーションの開発に注力しており、AIに代わるアプローチを模索するインセンティブはほとんどない。この分野の研究は、狭い範囲での収益性の高いアプリケーションに偏り始め、新しい発明につながる取り組みが犠牲になってしまうのです。

「このような巨大な中央集権的データセットがない場合、AIはどうなるのか、現時点では誰も知らない。したがって、より強力なAIを設計して競争しようとする起業家にとって、本当に提供できるものは何もない」とラーソンは述べている。

ラーソンは著書の中で、"AI神話を紡ぎ続けながら、低いところにある果実から利益を搾り取る "という現在のAI文化について警告している。人工一般知能の進歩という幻想は、再びAIの冬をもたらす可能性があると彼は書いている。

しかし、AIの冬は、深層学習やデータ駆動型AIへの関心を低下させるかもしれないが、新しい世代の思想家が新しい道を模索するための道を開くことができるのだ。ラーソンは、科学者が既存の手法にとらわれずに研究を始めることを望んでいる。

ラーソンは『人工知能の神話』の中で、この分野が現在直面している課題に光を当てる推論フレームワークを提供し、AGIやシンギュラリティへの進展に関する大げさな主張を読者が見抜く手助けをしています。

「また、私の同僚や他のAI研究者が、この本を、この分野が直面している非常に現実的な問題に取り組むための警鐘として捉えてくれることを願っています」とラーソンは述べています。

Ben Dicksonはソフトウェアエンジニアであり、TechTalksの創設者です。テクノロジー、ビジネス、政治について執筆している。

この記事が気に入ったらサポートをしてみませんか?