昨年くらいからAIが感情を持ち始めたのでは、と話題になっている。
ChatGPTの登場により、さらにその驚きは加速して世界中に広がっている。
最近ではBingのChat AIでこんな事件(!?)が起きた。
そして、つい最近深津さんのこんな実験に注目が集まった。
ChatGPTとの会話において、「感情パラメーター」を定義すると、なんとAIが感情を持っているかのように振る舞うのだ。
具体的には、こんなプロンプトを使う。
いやー、ChatGPTは感情を持っていないと分かっていつつも、確かに感情を揺さぶられてしまう。
この会話はテキストのみだが、これに人間のビジュアルがついたり、ロボットが会話していたりすると、実際の人間とのコミュニケーションと変わらなくなってくるのは容易に想像がつく。
AIが感情を持てるのかどうかについては、さまざまな議論が行われている。
https://philpapers.org/archive/CHACAL-3.pdf
ここでは、GPT-3やLaMDA 2などの大規模言語モデルが「意識」を持つのではないかということについて、賛成・反対両側からの理由を説明している。
現在のトランスフォーマー型LLMは、リカレント処理を伴わないフィードフォワードシステム(予測型)であるということから、記憶のように時間が経過しても持続する内部状態がない。
なので、現在は意識がないように思われるが、LLMを拡張することで意識が芽生えるかも?としている。
そうした「意識」も「意思」があることと別の話で、意識をもつAIも当初は哲学ゾンビや中国語の部屋と同様なシステムとなるだろう。
しかし昨今の急激なAIの進化をみていると、こうした段階も早々にクリアしてAIが「意思」を持つ段階も近いだろう。
コンピューターの処理能力ということでいえば、2025年には人間の脳を超える予測がされている。
2040年と思われていたシンギュラリティは、もうすぐそこにある。
いやー、すごい。