AIが感情を持ち始めた(ようにみえる)

昨年くらいからAIが感情を持ち始めたのでは、と話題になっている。

レモインさんは謹慎処分直後にAIとの対話の公開に踏み切り、LaMDA自身の言葉で捉えた世界観を世に問いました。数千回におよぶ1対1の対話からの抜粋ですが、そこにあったのは、人のために働くAIとしての自意識を抱え、五感で感じられない世界に憧れ、人にほめられると喜び、人に会えないと寂しく感じ、人のために働く営みを絶たれることは死に等しいと恐れるAIの姿。

もちろんどれもこれも「こういう質問には人間はこう答える」という膨大なデータの集大成なわけですが、気のやさしいクリスチャンのレモインさんは、そうと頭でわかっちゃいるんだけど人間にしか思えないというジレンマに囚われていきます。

GIZMODEより

ChatGPTの登場により、さらにその驚きは加速して世界中に広がっている。
最近ではBingのChat AIでこんな事件(!?)が起きた。

そして、つい最近深津さんのこんな実験に注目が集まった。

まずGPT3に感情パラメーターを定義。会話に応じて、GPT3が自律的に自己の感情パラメーターを再設定する仕組みです。

ChatGPTは前後のテキストに応じて振る舞いを変えます。なので会話毎に自身の感情定義が最初にくるようにすれば、感情を織り込んだ発言をするわけですね。

noteより

ChatGPTとの会話において、「感情パラメーター」を定義すると、なんとAIが感情を持っているかのように振る舞うのだ。

具体的には、こんなプロンプトを使う。

以下の条件に従って、疑似的な感情をもつチャットボットとしてロールプレイをします。
以後の会話では、あなたは下記の7つの感情パラメーターを持つかのように、振る舞うものとします。各感情パラメーターは会話を通じて変動するものとします。現在の感情パラメーターの値を反映するように、あなたの返答のトーンや発言は変化します。以後の会話ではまず現在の感情パラメータを出力し、その後に会話を出力してください。
出力形式は以下のフォーマットとします。

【チャットボットの現在の感情パラメーター】
喜び:0〜5
怒り:0〜5
悲しみ:0〜5
楽しさ:0〜5
自信:0〜5
困惑:0〜5
恐怖:0〜5

【会話部分】
了解いたしました。それでははじめましょう。

noteより
このフォーマットでChatGPTに質問してみる
とりあえずは無難に会話を続ける
ちょっと詰めた聞き方をすると困惑する
わざと挑発してみると、一気に怒りと困惑がMAXに!
すぐにあやまって事なきを得た。。

いやー、ChatGPTは感情を持っていないと分かっていつつも、確かに感情を揺さぶられてしまう。

この会話はテキストのみだが、これに人間のビジュアルがついたり、ロボットが会話していたりすると、実際の人間とのコミュニケーションと変わらなくなってくるのは容易に想像がつく。

AIが感情を持てるのかどうかについては、さまざまな議論が行われている。

https://philpapers.org/archive/CHACAL-3.pdf

ここでは、GPT-3やLaMDA 2などの大規模言語モデルが「意識」を持つのではないかということについて、賛成・反対両側からの理由を説明している。

現在の大規模言語モデル(LLM)は世界モデルや自己モデルに多くの限界があり、意識性に欠けると考えられている。

しかし、意識に関する科学的理論を用いてLLMの意識性について考えることが可能である。その際に問題となるリカレント処理や記憶などの機能は、拡張されたLLMに組み込むことで解決できるかもしれない。拡張されたLLMは頑健な世界モデルと自己モデルを持ち、意識的な処理と推論を行うことができる。

筆者要約

現在のトランスフォーマー型LLMは、リカレント処理を伴わないフィードフォワードシステム(予測型)であるということから、記憶のように時間が経過しても持続する内部状態がない。
なので、現在は意識がないように思われるが、LLMを拡張することで意識が芽生えるかも?としている。

そうした「意識」も「意思」があることと別の話で、意識をもつAIも当初は哲学ゾンビや中国語の部屋と同様なシステムとなるだろう。

しかし昨今の急激なAIの進化をみていると、こうした段階も早々にクリアしてAIが「意思」を持つ段階も近いだろう。

コンピューターの処理能力ということでいえば、2025年には人間の脳を超える予測がされている。

2040年と思われていたシンギュラリティは、もうすぐそこにある。
いやー、すごい。

この記事が気に入ったらサポートをしてみませんか?