考える機械 ~人工知能研究とロボットSFの変遷~

【投げ銭システム:有料に設定されていますが、無料で最後まで読めます。最後まで読んで「気に入ったから投げ銭あげてもいいよ」と思ったら、購入してやってください】

 2001年、早川書房の『SFマガジン』に書いたもの。
 一応、関大工学部の修士時代と、NTTデータ勤務7年間のうち2年ほど、人工知能の研究をしていたので、(なんちゃってエンジニアだったんで偉そうなことは言えないのですが)、研究分野を概観できる程度の知識はあったので、たまにこういう原稿依頼もあったりしたのでした。今じゃすっかり錆びついてますが。(^_^;)

 ちなみに、このときは末尾に「残念ながら、ここ数年、あっと驚かされるようなロボットSFは書かれていない」と書いて締めたのですが、この数年後(2005年)、瀬名秀明さんが『デカルトの密室』という超弩級の傑作ロボット(人工知能)SFを発表されて、度肝を抜かれたりしたのでした。
『デカルトの密室』と、同じ主人公が活躍する短編集『第九の日』は、ロボットSF史上に屹立する大傑作なので、未読の人はぜひ挑戦して欲しいと思います(amazonに載ってる見当違いのレビューとかを見てがっくりしてたりするのでした。ここまで「人工知能」について深く踏み込んだSFはちょっと他にないのになあ)。

--------------------------------

 ホンダのP2、ソニーのAIBOが相次いで公表されて以来、日本では高機能な自律(自分で判断して自動的に動くこと)型ロボットが現実のものとして注目されるようになった。ロボット研究に関する一般向け解説書も多数刊行されている。
 ただ、ここのところの技術的進歩がそのまま実用的な自律型ロボットの開発につながるかというと、まだまだ課題は山積みとなっていると言わざるをえないだろう。その最たるものが、複雑な周囲の環境に対応して自律的に行動するための判断を行う人工知能、いわゆるAI(アーティフィシャル・インテリジェンス)の開発である。
 たとえば、P2、P3、ASIMOといったホンダのロボットたちには、自律型と操縦型の二種類が存在し、観客の前でのデモンストレーションではたびたび操縦型が使われていて、二足歩行という運動制御に関しては長足の進歩を遂げたものの、完全な自律制御はまだまだらしいところをうかがわせている。また、先頃三代目がお目見えしたソニーのAIBOは、完全な自律型ロボットではあるものの、ペットとして勝手に行動することが前提であり、人間の指示によって何か仕事をさせることができるようには作られていない。いずれにしても、それこそ映画「A.I.」(2001)に登場する人間そっくりなロボットたちを作るには、AIの研究はまだまだ多くの問題を抱えたままだ。
 本稿では、そんなAI研究の歴史とロボットSFの変遷を、なるべく時系列にそって対比していきたい。

1.ロボットの定義
 さて、本題に入る前に、まずは本稿における「ロボットとは何か」をはっきりさせておこう。
 たとえば、先ほど書いたように、人が操縦するものもあれば自律的に行動するものもある。また、人型をしているか否かという問題もある。AIBOは人ではないにしても動物を模して作られているが、マーズ・サーベイヤーのように台車のようなかたちをしたものや、オートメーション工場などにある腕だけの工業用ロボットなど、まったく生き物とは似ても似つかないものも、自動制御ならばロボットと呼ばれている。したがって、この言葉を広い意味で捉えると、イメージが散漫になってしまうのだ。
 元々「ロボット」という言葉を初めて使ったのは、チェコの劇作家カレル・チャペックで、これは彼が自らの戯曲『ロボット』(1921)に登場させた人造人間を表すために作り出した造語だった。ただし、この作品の中でのロボットは、人体構造を単純化することによって大量生産できるようになった人間、つまりバイオテクノロジーによって作り出された人工生命で、現在我々が「ロボット」という言葉を聞いて思い浮かべるものとはずいぶん違っている。どちらかといえば、中世ヨーロッパの錬金術師たちが作ったとされるホムンクルスや、メアリ・シェリーの『フランケンシュタイン』(1883)に登場する怪物のような、生化学的な人造人間たちの後継者だったのである。
 現在のように、ロボットといえばメカニカルなものであるというイメージへと変化したのは、産業革命以降、社会の工業化が進み、巨大な機械仕掛けが存在する光景が、人々の日常に入り込んできたためだろう。
 その典型と言っていいのが、フリッツ・ラング監督の映画「メトロポリス」(1926)に登場する美少女ロボットのマリアだ。そのメタリックな輝きに満ちた外観は、いまだに女性型ロボットのデザインに多大な影響を与えている。
 ともあれ、以上のような歴史的経緯から考え、本稿におけるロボットとは、
・完全に自律的に動作する。
・人に似た姿をしている。
・機械でできている。
という三つの条件を満たしているものを指すこととしたい。

2.コンピュータの開発(一九四〇年代)
 加減乗除のいわゆる四則演算を自動的に計算する機械の発明は、17世紀にまでさかのぼることができる。フランスのパスカル、ドイツのライブニッツといった数学者や哲学者が、それぞれ歯車などを用いた機械式の計算機を発明している。さらに、十九世紀に入りイギリスのバベッジが階差機関(ディファレンス・エンジン)と呼ばれる蒸気機関駆動による歯車式計算機、さらには解析機関(アナリティカル・エンジン)と呼ばれるプログラム可能な逐次制御型の機械式計算機の開発を行うが、当時の技術力ではバベッジの構想を実現することが出来ず、部分的な試作のみに終わってしまっている。
 この状況が一変するのは、一九〇六年、フォレストによって三極真空管が発明され、三〇年代以降、この真空管を用いた電子式計算機、略して電子計算機の開発が始まったからだ。世界最初の汎用電子計算機は、第二次世界大戦中の四三年からアメリカのペンシルバニア大学でエッカートらによって開発が始まり、四六年に完成したENIACである。
 この機械は全重量は三〇トン、床面積は二〇〇平方メートル、使用している真空管が一八〇〇〇本という巨大なもので、十進数を採用、スイッチのオン・オフやケーブルの抜き差しを手動で行うことでプログラミングを書き換えていた。
 そんなわけで、四〇年代にはまだまだ今日のBASICやC言語のような高度なプログラミング言語も存在せず、ハードウェアとソフトウェアも完全に分離できていなかったのだが、このときすでにプログラミングの重要性を念頭においたロボットSFが登場していた。それが、アイザック・アシモフの短編「われ思う、ゆえに……」(1941)だった。この作品はロボットがその論理的な思考の末に誤動作を起こしてしまうというものだが、その中でアシモフはロボットの思考原理として〈ロボット工学三原則〉を考え出したのである。
 これは、以下のような「ロボットの行動規則」とでもいうべきものだ。

第一条 ロボットは人間に危害を加えてはならない。また危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 ロボットは人間に与えられた命令に服従しなければならない。ただし、第一条に反する場合はこのかぎりではない。
第三条 ロボットは第一条および第二条に反するおそれのないかぎり、自己を守らなければならない。

 実はこの三原則の内容自体には重要な意味はない。現実のロボットをこの原則に従って作る必要はないし、実際にそのようなことにはならないだろうからだ。
 アシモフが偉大だったのは、この三原則を導入することでロボットを「プログラミングに従って作動する機械」としてきちんと定義したところにある。アシモフは、ENIACが完成する何年も前に、自律的に動作する機械には論理的なプログラミングが必要であることを見抜いていたのだ。
 さらにアシモフは、プログラムにはバグが存在しうることも理解していた。条件をなるべく具体的に書いておかないと、コンピュータは判断を誤るだろうということがわかっていたのである。アシモフは「われ思う、ゆえに……」以降、次々にロボットSFを発表していくが、その中でロボットたちは、〈ロボット工学三原則〉の持つあいまいさのために判断ミスを犯したり思考停止に陥ってしまうのである。その最たる例が『鋼鉄都市』(1953)で、ここではロボット工学三原則の裏をかいたトリックを用いた完全犯罪がもくろまれている。

2.AI研究の始まり(一九五〇年代)
 ENIAC開発中から、そのコンサルタントでもあった数学者/物理学者のフォン・ノイマンは、ENIACの問題点であるプログラミングの手間を簡便にするプログラム内蔵方式を提案した。これは、演算手順をデータと一緒に記憶装置内に記憶し、データ同様、自由に変更できるようにするものだった。さらに、演算自体も二進数を用い、電子式スイッチのオンとオフだけで表現するデジタル方式を採用すること、演算は一度に一つずつ行う逐次処理であることも提案。そして機械自体の構造は、この方式を実現するため、演算処理を行う中央処理装置(CPU)、プログラムとデータを記憶しておく記憶装置、プログラムとデータを読み書きするための入出力装置の三つの構成要素から成る方式を提案した。こうして、現在のコンピュータのほとんどを占めるノイマン型アーキテクチャが完成したのだった。
 そして、五〇年代に入ると、UNIVACIやIBM701といったノイマン型のコンピュータが商用として登場、コンピュータが本格的に社会に普及し始めるようになる。それと同時に、コンピュータに純粋な計算をさせるだけでなく、もっと高度で複雑な判断を行わせられないかと考える人々が現れた。
 一九五六年、ダートマス大学にそのような人々が集まった。情報理論を構築したシャノン、後に「心の社会」理論を展開するミンスキー、ニューラルネット研究の先駆者ローゼンブラット、記号処理による知能プログラムの基礎を築いたサイモンとニューウェルら、そうそうたるメンバーだった。そして、そのうちの一人、マッカーシーが「人工知能」という名前をつけ、本格的なAI研究が始まったのだった。
 ENIACに先立つこと数年、イギリスでドイツの暗号解読用の計算機COLOSSUSを開発・使用していた数学者アラン・チューリングは、このときすでに死亡していたが、50年代初頭、AI研究に関する重要な提言をおこなっていた。
 それが、AIの性能をチェックするための、チューリング・テストと呼ばれる模倣試験だった。これは、コンピュータと人間をそれぞれ外から見えない部屋に入れておき、外部から質問をしてみて、返答がコンピュータのものか人間のものか区別がつけられない場合、そのコンピュータは真のAIを実現したと考えるべきだというものだ。
 チューリングは、「機械は思考することができるか」という設問自体に意味がないと考え、有効な知性テストとして人間の真似をさせてみることを主張したのである。ただし、あるコンピュータがチューリング・テストに合格したとしても、そのコンピュータが「思考している」とはチューリングは言っていない。このテストは、あくまでコンピュータが知性を持つように「見える」かどうかを判定するだけなのだ。つまり、本当に知性があるのか、そのふりをしているだけなのか、区別がつかない場合、そのコンピュータには知性があると見なしてもよいという考え方なのだ。
 こうした考えと全く正反対の立場からロボットに対する嫌悪感を表明し続けたのがフィリップ・K・ディックだ。ディックは数々の作品に「シミュラクラ(にせもの)」と名づけた人型ロボットを登場させては、それがいかに人間の真似が上手であろうと、しょせんはまがい物であることを描き続けた。
 特に、彼の代表作の一つでもある『アンドロイドは電気羊の夢を見るか』(1968)(映画化タイトル「ブレードランナー」(1982))では、人間とロボットとを見分けるための方法として、フォークト・カンプフ検査というテストが出てくる。これは、試験官が相手に質問を繰り返し、その反応を機械で測定することで人間かロボットかを見分けるというもので、まさに高度なチューリング・テストといった代物である。
 この作品に登場する新型ロボットはこのテストにも合格するのだが、それでもディックは人間とロボットのあいだには厳然とした違いがあると主張する。人間には他人の気持ちを推し量れる「共感」という力があるが、ロボットにはそれがない。どんなに人間の行動をシミュレートし、人間そっくりに行動できるロボットを作ったとしても、どこまでいってもそれは「真似」でしかなく、そこには心情が伴わないため、結局は非人間性が浮かび上がってくるというのである。

3.AI研究の発展(一九六〇~七〇年代)
 六〇年代にはいると、五六年にダートマスでの会議に集まった人々を中心としたAI研究が成果を生み出し始めた。
 ダートマスの会議では、AIの研究に関して、二つの対照的なアプローチが主張された。その一つは、サイモンとニューウェルが中心になって唱えた説で、知性とは脳の中で行われている記号処理であり、論理的に記述できるという考え方だった。したがって、知性を作るには、人間の脳の生理学的な特徴は無視してもよく、ノイマン型のコンピュータ上に脳内で行われている記号処理のルールとデータをプログラミングしてやればよいというのである。
 もう一方の説は、ローゼンブラットが主張した、実際の神経構造を重視しなければいけないというものだった。知性や認知の機能には、現実にそれを行っている人間の脳の構造が重要な役割を持っており、機械で人工的にそれを複製するには、構造面から人間の脳を模倣していく必要があるというのである。
 二つの説のうち、記号処理型のアプローチの方が、急速に進歩していたノイマン型コンピュータ技術との相性も良く、先に成果を上げ始めた。
 それが、一九六五年、スタンフォード大学で開発されたDENDRALと、それに続いて続々と開発されたエキスパート・システムと呼ばれるプログラムだった。
 エキスパート・システムとは、数式化されないような〈知識〉をデータ化して論理演算に組み込むことで、コンピュータに高度な判断を行わせようというものである。たとえば、七〇年代半ばにスタンフォード大学で開発されたMYCINは、感染症の患者の病状診断用のエキスパート・システムである。約四五〇のルールと約一千の医学的事実という〈知識〉をデータ化して持っており、利用者はシステムの質問に回答していくことで、患者の病状を診断できる。
 一方、この時期のSFにおいては、巨大なコンピュータが人類に対して反乱を起こすという物語が続々と書かれていた。たとえば「地球爆破作戦」(1970)として映画化されたD・F・ジョーンズの『コロサス』(1966)(原作は実は三部作で、映画のあの結末からさらに人類対コロサスの死闘が描かれていく)や、マーティン・ケイディンの『神の機械』(1968)、さらにはあまりにも有名なクラークの『2001年宇宙の旅』(1968)(映画も六八年公開)、そして今ではベストセラー作家となったディーン・R・クーンツの『悪魔の種子』(1973)(映画化タイトル「デモン・シード」(1977))など、枚挙にいとまがない。
 ロボットではなく、手足を持たないコンピュータが流行ったのは、やはり当時のコンピュータがどれも大きかったからだろう。ENIACのように三〇トンとは言わないまでも、まだまだコンピュータといえば広い部屋を占領するくらい大きなものであり、そのくせ演算能力は今日とは比べものにならないくらい低かったから、人間並みの思考能力を持つコンピュータといったとき、小山ほどもある巨大なものを想像した人が多かったのはしかたのないことだろう。そんなものが人間大のロボットのボディのどこかにおさまるはずもない。
 ある種当然のことではあるが、未来を描いたSFといえども、やはり同時代性の産物であり、どうしても当時の技術レベルや文化的背景の影響を受けてしまうことのよい例だと言えよう。
 だが、そんな中で異色だったのが、ジェイムズ・P・ホーガンの『未来の二つの顔』(1979)だった。この小説もまた、巨大なコンピュータが暴走する話なのだが、ホーガンはその理由を「コンピュータ内のAIは、外部との接触をきちんと持っていないため、世界を正しく認識できていない」からだと言ってのけた。つまり、このAIにとっては、現実の出来事もプログラムも等しくデータでしかないため、その違いがわからないのである。本書でホーガンは、正常な知性の構築のためには、身体性もまた必要であることを看破したのだ。

4.パソコンとネットワークの時代(一九八〇~九〇年代)
 七七年、アップルからAPPLE-Ⅱ、79年にNECからPC-8001が発売され、個人向けコンピュータ(パーソナル・コンピュータ)いわゆるパソコンが人々のあいだに普及し始める。さらに、アメリカの大学や研究機関を中心にインターネットが緩やかに形成されはじめ、様々な商用パソコン通信ネットワークが開設されるようになり、八〇年代はまさに個人がコンピュータを身近に利用する時代となった。
 そんな時代の到来をいち早く予言したのが、ジョン・ブラナーの『衝撃波を乗り切れ』(1975)だ。この中でブラナーは、世界中に張り巡らされたコンピュータ・ネットワークと、その中を自在に移動するワーム・プログラムによるハッキングを描き、インターネットとコンピュータ・ウィルスの出現を同時に予言している。
 その後の作品であるウィリアム・ギブスンの『ニューロマンサー』(1984)や、ジョゼフ・ディレーニイ&マーク・スティーグラーの『ヴァレンティーナ』(1985)では、そしてデイヴィッド・ブリンの『ガイア』(1990)などでは、AIプログラム自体がコンピュータ・ウィルスのようにネットワーク内を自在に行き来する存在として描かれている。SFの世界におけるAIは、完全にハードウェアから切り離されたソフトウェアだけの存在として描かれるようになったのである。

 しかし、現実のAI研究は八〇年代に入って逆に行き詰まりを見せていた。たとえば、人間と違ってプログラミング外の知識が要求されると対応できないことや、新たな知識を自動的に学習させることが難しいこと、知識の数が増えれば増えるほど計算に時間がかかってしまうことなど、初期から課題とされていたいくつかの問題がいっこうに解決されなかったのである。
 そこで再び脚光を浴びたのが、人間の神経回路を模倣しようという考え方だった。八〇年代半ば、スタンフォード大学のラメルハートらによって「並列分散処理」と名づけられて再出発したこの手法は、「ニューラルネットワーク」「コネクショニズム」などとも呼ばれ、九〇年代のAI研究の主流の一つとなった。
 これは人間の神経に似た構造を機械的に作り上げ、それに問題を解かせようというものだ。まず、膨大な数の単純な「ユニット」を相互に階層的なネットワークとして結合する。このユニット同士は、単純な抑制もしくは興奮の信号を、調整可能な「重みづけ」を行いながら伝えあうようにしておく。そして、そこに入力を与え、ネットワーク全体が相互に干渉しながら安定した状態へと落ち着くのを待って出力を読みとることで、1か0かといったデジタルではないアナログな回答を得られるというのである。ノイマン型コンピュータではきれいに二分されていたハードウェアとソフトウェアが、再び不可分なものとなったという意味では、先祖帰り的とも言える構造だ。
 かくして九〇年代のAI研究では、ハードウェアの重要性が再認識されるようになったのだが、それと呼応するかのように現れたのがエイミー・トムスンの『ヴァーチャル・ガール』(1993)である。この物語に登場するAIのマギーは、ソフトウェア単体としても存在し得るものとして描かれているが、その自我がきちんと芽生えるのは、ロボットの筐体の中にインストールされてからである。つまり、この作品におけるAIは、外界と自分の体を別個のものとして認識して、初めて自分という存在をきちんと把握するのだ。そして、そのためには、様々なセンサが内蔵されたロボットの体が不可欠だというのである。これは、ホーガンの『未来の二つの顔』よりもさらに一歩進んだAI/ロボット観だろう。

 残念ながら、ここ数年、あっと驚かされるようなロボットSFは書かれていない。AI研究の方もまたしかりである。だが、冒頭にも書いたとおり、ここ数年における機械工学/制御工学的な意味でのロボットの進歩は計り知れない。願わくば、その進歩が、新たなAI研究、そして新たなロボットSF誕生のきっかけとなってほしいものだ。

【本文はここでおしまいです。内容を気に入っていただけたなら、投げ銭に100円玉を放ってるところをイメージしつつ、購入ボタンを押してやっていただけると、すごく嬉しいです。よろしく~】

ここから先は

0字

¥ 100

この記事が気に入ったらサポートをしてみませんか?