見出し画像

解釈可能であること

Open AIが発表したかくれんぼするエージェント

AIがかくれんぼをする研究が、Open AIという組織から発表された。

論文

記事

動画がわかりやすいと思うので、是非ご覧いただきたい。

簡単に説明すれば、

3D空間の中に、「追いかける側」と「逃げる側」の二種類のエージェントがおり、環境の中でかくれんぼ(追いかけっこ?)をしていくと、徐々にお互いが高度な戦略を獲得していくというもの。

実際の映像を見てみると、最初に「逃げる側」のエージェントが物を動かして「壁を塞ぐ」という戦略を獲得し、「追いかける側」のエージェントが入ってこれないようにし始める。

すると「追いかける側」はスロープを壁に持ってきて、「スロープで壁を超える」という手段で、「逃げる側」を追い詰める。

今度は「逃げる側」はスロープを使われないように、スロープも隠してしまう。

壁を物で塞ぐだけでは逃げきれない場所では、「逃げる側」は複数のオブジェクトを集めてきて「シェルターを作る」。

エージェントは戦略を獲得したのか

ここで注意したいのは、このかくれんぼをしているエージェントの中に、

「壁を塞ぐ」

「スロープで壁を超える」

「シェルターを作る」

などといった概念は存在していないと言うこと。

これは、AIが手続き的な戦略を組み立てたと言うよりは、
人間が手続き的な戦略を意味付けしてしまうような振る舞いが現れたと言うべきだろう。

2つのシステムの存在

ここで見たかくれんぼエージェントの事例を分析する上で、2つのシステムが存在していることに注目したい。

1つは、エージェントたちが実際に動作原理としているシステム。内部では、与えられた情報から複雑な情報処理が行われている。内部の表現を観察しても、どのような振る舞いが表出されるかは見当もつかない。

もう1つは、人間がエージェントに想定した、単純明快な手続き。「壁を塞ぐ」「スロープで壁を超える」「シェルターを作る」といった表現は、人間の中にだけある概念で、エージェントの外部から作られたものといえる。  

同じ状態、プロセス、結果に対して、並列したシステムが働いているが、これらはコンピュータと人間が独立に持っているものだ。

AIは解釈するか

AIは、物事を解釈するだろうか。

もちろん、その結論は解釈という言葉の定義にもよるが、少なくとも解釈しているように見える事例はいくつもある。

たとえば、ディープラーニングが有名になったきっかけでもある、Google の猫

他にも、画像キャプション(説明文)自動生成


ところが、ディープラーニングの技術の中身を覗いても、なぜその入力に対して、その出力が選ばれたかの理由はわからない。人間であれば、ある程度のことは説明できるはずであり、「判断の理由を説明できる」ことを解釈の定義に含めるのであれば、それは技術として未成熟と言えるだろう。

これが世にゆうAIのブラックボックス問題だ。

人間は解釈しているか?

そもそも人間がどうやって「解釈」というものをしているのか?

シンプルな例を考えてみる。


Aさんが熱いやかんに手を触れてしまい、すぐに手を離した。


ここでAさんに「なぜ手を離したのか」と聞いたら、

「熱かったから」

と答えるだろう。

しかしながら、熱いやかんを触って手を離すのは、熱かったからではなく、脊椎反射だ。


ここで私が言いたいのは、人間も行動をとる部分に関しては解釈してないのではないか?ということだ。

何かを認識して、行動するという意味では、人間とAIの共通性は、
今世間で思われているよりも、もう少し共通性が高いものなのかもしれない。

そして、解釈するというのは、現在の技術とは少し変わった技術が必要になる可能性も十分にあるだろう。

ドラえもんを目指す自分にとって、行動の解釈可能性に対する本質的なブレイクスルーは、積極的に探求していきたいところだ。

この記事が気に入ったらサポートをしてみませんか?