見出し画像

フレーム(枠)問題とは

フレーム(枠)問題は1969年にジョン・マッカーシーパトリック・ヘイズが提唱した人工知能における重要な問題で、いまだに解決されていません。

ジョン・マッカーシーは、1956年にダートマス会議を主催した人物です。ダートマス会議は人工知能に関する世界初の国際会議と言われています。なぜなら、この会議を開くための提案書で人類史上初めて「人工知能」(Artificial Intelligence、AI)という言葉自体が使われたからです。なお、ジョン・マッカーシーはLISP言語の生みの親でもあります。

フレーム問題

さて、彼らの提唱したフレーム問題は、人工知能研究における難問で、「有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができない」ことを指します。

これは、一見すると当たり前のことに思えますが、人間の立場から言い換えると問題の本質が見えてきます。つまり、「人間は無限の可能性のある環境においてどのようにして、思考の対象を絞っているのか」という質問です。これを理解し、ロボットにおいて実現したい、という課題になります。

例えば、ロボットが命令されたことを実行する際、ロボットのいる環境ではさまざまな出来事が起きる可能性があリます。しかし、そのほとんどは無視するべきことです。さもないと、ありとあらゆる可能性を考慮することになり無限の時間がかかってしまうからです。

つまり、人工知能は枠(フレーム)を作って、その枠の中だけで思考しなくてはならないわけです。これがフレーム問題の本質になります。

有名な例え

哲学者ダニエル・デネットはフレーム問題に関する有名な例を示しました。

洞窟の中にロボットのためのバッテリーがある。そして、ロボットは「洞窟からバッテリーを取り出してくること」を命令される。しかし、その上に時限爆弾が仕掛けられていた。

Wikipediaのフレーム問題を元にしています
あらゆる可能性がある環境において、
フレーム(枠)の中だけで思考する

単に命令を実行するだけのロボットならば、洞窟に突っ込んで爆発するだけですが、様々な可能性を考える能力のあるロボットだったらどうでしょうか。

ロボットは最適な行動を決断するために考え始めるでしょう。「命令通りにバッテリーを持ち帰ったら爆弾も一緒についてくるから危険。爆弾を取り除くために触ったら爆発するかもしれない。爆弾を触れたとして、素早く投げたら洞窟が崩れるかもしれない。こんなにいろいろと考えていると、今にも爆弾が爆発するかもしれない。ほかの可能性としては…」

ありとあらゆる可能性を考慮し始めると決断ができずに身動きがとれなくなってしまうでしょう。

しかし、人間はどんな状況でも無限に考え続けてフリーズしたりはしません。よって人工知能でも人間のようにフレーム問題を解決して行動できるようになる必要があります。

強化学習

強化学習は何度も経験を繰り返し様々な行動を試した上で最適解を求めることも可能です。

しかし、現実問題として目の前ではじめて起きていることにはこの手法は適用できません。頭の中でシミュレーションを繰り返すしかないのですが、それではフレーム問題を引き起こします。

そもそも強化学習が解決できる問題は、将棋やチェスなど何度も挑戦できるものであり、しかも行動範囲が限定された有限の問題です。

まとめ

結局のところ、考慮すべき可能性が有限でない限り、無限の可能性について考えざるを得ないのが問題です。重要性を見極めて優先度をつけると良さそうですが、無限にある可能性にどのように優先度をつけるのでしょうか。いくら考えてもフレーム問題を解決するのはもともと無理に思えてきます。

プログラミングを使ってケースごとにリスクや重要性を判断する手法だと無限の可能性による永遠の思考ループに落ち込んでしまうのですが、どこかでループから脱出する必要があります。それこそ伝統的な論理的手法ではなく、人工知能が解決すべき問題なのかもしれません。

それにしても人間の脳はどうしているのだろう、と思いを馳せてしまいます。

ここから先は

0字

キカベン・読み放題

¥1,000 / 月
初月無料
このメンバーシップの詳細

この記事が気に入ったらサポートをしてみませんか?