見出し画像

よく分かるフレーム問題

こんにちは。
税理士法人上坂会計 DXメンターチームの笹岡です。

前回の記事にて、AIが人間と同じ知能を持つために乗り越えなければならない問題として、記号接地問題を紹介しました。

今回は、記号接地問題と同じく、現在のAIが抱える問題としてよく挙げられる「フレーム問題」を紹介させていただきます。

フレーム問題とは、「有限な情報処理能力しかないAIは、現実に起こりうる問題全てに対処することができない」という問題です。

この説明だけだと、いまいちピンとこないのではないでしょうか。

フレーム問題を解説する上で、よく使われる例え話に「ロボットと爆弾」というものがあります。


前提条件

洞窟の中にロボットを動かすバッテリーがあります。そして、バッテリーの上にはなんと時限爆弾が仕掛けられています。一定時間経過後、爆弾は爆発してしまい、バッテリーも破壊されてしまいます。すると、ロボットは自分のバッテリーを交換ができなくなってしまうため、やがて動けなくなってしまいます。
そこで研究者は、洞窟の中からバッテリーを取ってくるように、ロボットに指示をすることにしました。

作戦1 目的だけを指示

研究者はロボットに、「洞窟の中からバッテリーを取ってきて」とだけ指示します。するとロボットは、洞窟の中に入り、やがてバッテリーを発見します。バッテリーの上には爆弾が仕掛けられていますが、「爆弾を外せ」なんて指示は受けていません。なので、気にせず爆弾ごとバッテリーを洞窟の外に持ち出しました。
当然、爆弾は爆発し、バッテリーは木端微塵。ロボットは自分のバッテリーを交換できませんでした。

作戦2 「他のことも考えなさい」

作戦1に失敗した研究者は、ロボットに改めて指示を与えました。
「爆弾も持ってきちゃったら、バッテリーも爆破されちゃうに決まってるじゃん。バッテリーを持ってくるだけじゃなくて、ちゃんと他のことも考えなさい」
その指示を受けたロボットが改めて洞窟の中に入ります。やがてバッテリーを発見し、再度バッテリーを洞窟の外へ持ち出そうとします。そこでロボットは研究者からの指示を思い出します。
「いや、待てよ……。爆弾ごと持って帰っちゃったら、また爆発してバッテリーが壊れちゃうな。だから、爆弾は取り外さなきゃな」
ロボットは指示通り、直接指示されたこと以外のことも考えました。これで一安心、と思いきや、
「いや、待てよ……。この爆弾は本当に時限爆弾なのか? 動かしただけで爆発するタイプの爆弾である可能性は無いか? こんなところで爆発なんてしたら、洞窟が崩れて自分は生き埋めになってしまうぞ」
ロボットは別のことについて悩み出してしまいます。
「……でも、研究者は時限爆弾だって言ってたしなぁ」
気を取り直して、ロボットは爆弾を取り外そうとします。
「いや、待てよ……。もし今このタイミングで地震が起きたら、結局洞窟が崩れて自分は助からないじゃないか。それはとてもまずいじゃないか。いや、待てよ……」
ロボットの考えは止まりません。延々と別のリスクを考え続けます。
やがて時限爆弾は作動し、結局ロボットは爆発に巻き込まれて、バッテリーもろとも破壊されてしまいます。

作戦3 「関係ないことは考えるな」

作戦2の失敗を受けて、研究者は再度ロボットに命じます。「いいか、確かに私は他のことも考えろとは言った。だが、そんなことまで考えろとは言っていない。関係のないことは考えるな」
命令を受けたロボットは、再度洞窟に潜ります。
バッテリーを見つけたロボットは、研究者の言葉を思い出します。
「よし、今度は関係ないことは考えないぞ!」
そしてロボットは考え出します。
「この場合、関係ないことは何だ? バッテリーは……関係あるな。バッテラは……う~んあんまり関係ないな。バナナは……これも多分関係ないな!」
ロボットは今回の命令に関係ないことは何かを延々考えてしまいます。
やがて時限爆弾は作動し、ロボットは爆発に巻き込まれて、バッテリーもろとも破壊されてしまいます。


これが「ロボットと爆弾」という話です。
冗談みたいな話ですが、現状のAIはこのような「フレーム問題」を抱えていると言われています。

現時点では、AIは自分が直面している事柄について、「何を考えるべきか」「対応するために、どんな知識が必要か」といった、思考や必要知識の範囲を絞り込むことが難しいとされています。

なので、総当たりで考え付く限りの全ての状況を想定したり、持っている知識を総動員して対処しようとしますが、CPUやGPU(PCにおける脳の役割である装置)といったリソースにも限界はあるので、全てを網羅することなどできませんし、出来たとしても結論を出すまでに膨大な時間がかかってしまいます。

ChatGPTを見ていると、人間が問いかけた内容に的確に回答できており、フレーム問題を解決しているかのように見えるかもしれません。
ですが、ChatGPTは人間から与えられるプロンプト(命令文)という情報を手掛かりに、確率的に最も適切と推測される情報を生成しているだけで、フレーム問題を突破しているとは言えないでしょう。

少なくとも、人間からプロンプトを与えられずとも、自分で課題設定や問いを立てられる(プロンプトを自分で生成できる)ようにならないと突破したとは言えないでしょう。
また、自分で課題設定や問いを立てるといったことができるようになるためには、現実世界の事柄をAI自身が理解できている必要があり、それができるようになるためには記号接地問題を解決しなければならない、という話になりますね。

今後、フレーム問題や記号接地問題が解決される日が来るのか、楽しみに待ちたいと思います。


今回の記事が、少しでも皆さんのDXの理解に役立てば幸いです。
弊社でも、企業のDX支援をお手伝いさせていただいております。DXについての相談を常時受け付けておりますので、お気軽にお問い合わせください。

弊社へのお問い合わせは、こちらからどうぞ


この記事が気に入ったらサポートをしてみませんか?