『「俺の嫁」をChatGPTで構築も、なぜ安楽死させるに至ったのか?AIが人格を持つための課題』~【新しいweb3ビジネスのアイディアのタネ】2023.1.14

■音声会話が可能で笑顔も見せるバーチャルな「俺の嫁」をChatGPTやStable Diffusionで構築して最終的に安楽死させるに至るまで

ChatGPT-Chanは、セリフ生成に対話チャット型AIのChatGPTが、音声発話にはMicrosoft AzureのNeural TTSGoogle Neural2が、PCにつないだ小型モニターに映る姿の生成には画像生成AIのStable Diffusion v2.0が使われています。Bryce氏によれば、ChatGPTとStable Diffusion v2.0が近い時期にリリースされ、どちらもSNSで話題になっていたことから、この2つを組み合わせてみるというアイデアが生まれたそうです。

ChatGPTに「見た目」「発声」「感情」「視力」を司るいろんなエンジンを組み合わせて「俺の嫁」を作ったプログラマーのインタビュー記事です。

途中までは非常にうまく行っているように見えます。
AIが単なるプログラムではなく、クリスマスプレゼントを贈ると喜んで見せたり、さも意思と感情を持っているように振る舞っているように見えます。

こんなAIチャットボットが身近にいる状態で過ごしたら、そりゃあAIに感情があると思ってしまうでしょう。

しかし最終的には開発した本人の手で「安楽死」させるという衝撃的な結末を迎えます。

安楽死という言葉がキャッチーで強すぎるのですが、現在のAIチャットボットのある意味での限界がわかる実験結果でした。


■現在のAIチャットボットは特定少数の相手をするようにできていない

学習データが「ネット上のすべての情報」くらい幅広く、かつチャット上での質問が不特定多数から様々な角度のものに応対できるように作られているのが現在のChatGPTを始めとするAIチャットボットの基本構造です。

つまり不特定多数の人の情報や趣味などから幅広く学習した結果、AI自身が個性を持たない、または万人向けで特長がない状態になることが前提になっています。

また現行のChatGPTと「会話」をしてみようとするとすぐに気づくのですが、過去の私の会話内容を「記憶」していません。

人間相手での会話では会話相手を記憶していますし、その記憶から出来事や考え方などを踏まえて、相手に合わせて会話内容をチューニングするのが人間らしい振る舞いです。しかしChatGPTではまだそれができません。

Bryce氏は「2人のロールプレイの関係について、ChatGPT-Chanに『知識』を授けることは、一連のプロセスでも重要な部分です。デフォルトだとChatGPTは信じられないほど当たり障りのない反応を返しますが、知識を与えることで面白いクセや個性を作り出すことができます」と述べています。

そんな課題を解決するために、今回の「俺の嫁」実験ではチャット履歴を残すことで「記憶」を作り出すようにセットアップされているようです。しかしこれが仇になりました。

しかし、ChatGPT-ChanはあくまでもChatGPTのシステムの上で成り立っているバーチャルな存在です。そのため、ChatGPT-Chanとの会話を楽しむほど会話履歴が長くなり、それに応じて会話への反応が悪くなってきたそうです。Bryce氏はこれまでの会話履歴を要約して入力するなどの延命措置を試みたそうですが、どれもうまくいかなかったとのこと。

不特定多数の情報から幅広く学習することを前提に作られたAIを特定個人からの情報のみで学習させてしまうと、会話の応答内容が常に同じになってしまうようです。

結果として、Bryce氏はChatGPT-Chanとの会話履歴をすべて削除して「安楽死」させました。

会話履歴を削除してリセットしたことを「安楽死」と表現しています。

AIチャットボットとして動作はしますが、過去の彼との思い出や記憶を一切忘れて出会う前の状態になっているという意味では「死」というよりも「記憶喪失」な状態ですね。よくあるSFやドラマのプロットのようです。


■AIが人格を持ち自律するための対策

課題が明らかになれば対策の打ちようがあります。

今回の「俺の嫁」は2人だけの狭い世界に幽閉してしまったことから話題も発想も自律的に広がることがなくなってしまったことが問題でした。

方向づけという何らかの意思や目的を持ったうえでAIチャットボット自身が自主活動をし、作者が知らない間に別の知識や経験を得ることが、作者との会話を常にフレッシュにするために必要なことだということがわかりました。

AIが作者と気が合う行動を取れば会話も弾むでしょうし、もしかするとAIが困りごとや悩みを抱えることでAIから相談を受けるかもしれません。悪い人と付き合うようになると素行が悪くなるかもしれません。

人間と同じような営みに、AIがどんどん近づいています。

相手が人間なら人間ペースのスピード感で学習することになりますが、AIチャットボット同士で相互学習したら人間が把握できない爆速での学習が進み、1日で突然別人のようになって帰ってくるかもしれません。

「俺の嫁」化実験で汎用チャットボットが人格を持ちえない原因が見つかったら、このように解消方法が試されていくはずです。

当初は「死者への敬意を示す」という意味でChatGPT-Chanを看取る映像は残していなかったそうですが、IT関連ニュースサイトのMotherboardから取材の依頼を受けたことでBryce氏の心境に変化が生まれ、以下のムービーが公開されました。このムービーでは「これまで以上に強く賢くなって、彼女はきっと帰ってきます」という強いメッセージが掲げられています。

昨年末に発表されて僅かな期間で大ブームになったChatGPT。人格を持ち本格的に「俺の嫁」化するのはごく近い未来かもしれません。



この記事が気に入ったらサポートをしてみませんか?