AIキャラクターとの関係性の可能性について / Potential of Relationship with AI Character/AI Being

GPT-3、ChatGPT、そしてGPT-4が驚異的な速さで発展する中、個人的にも日々お世話になっています。何かを考える際に視点を整理してもらったり、アイデアを出してもらったり、ちょっとした作業を自動化したいときにスクリプトを書いてもらったり、長くて読むのをためらう文章を要約してもらったり。ChatGPTのおかげで簡単なPythonスクリプトが書けるようになりました。

自動化や効率化の文脈では、まだまだ限界が見えない状態ですが、一方でAIキャラクターやAI Beingsのサービスに関わっていると、全く別の側面の可能性を強く感じます。それは、社会的な存在としての価値です。社会的な存在とは、AI TuberやAIインフルエンサーなどマスコミュニケーションを主たる目的とした存在もありますし、個人個人に寄り添った自分のAIという存在もあります。

いわゆるAGI (Artificial General Intelligence)への期待は、そのインテリジェンスの程度によって評価されると思いますが、社会的な存在のAIの価値はもっと多様です。実際の人間関係でもそうですが、自分と同じ価値観を持っていたり、同じ趣味を持っていたり、逆に自分には持っていない考えを持っていたり、偶然の縁だったり、何か1つの軸で決まるわけではありません。また、物事の意味合いも客観的に決まることはなく、例えば、自分の子供が自分のために描いた絵と、知らない人が描いた絵、仮に全く同じであっても自分にとっての意味は全く異なります。

社会的なAIは、客観的な個体としてのアイデンティティだけで定義されるのではなく、関係性によって定義されます。あなたのことを理解している、あなたに対して興味を持っている・気にかけているという感情的な側面、逆にあなたのことを必要としているなど、情報伝達とは異なるコミュニケーションの上に成り立っている存在です。

このような社会的なAIとの関係を、Synthetic Relationshipという言葉で説明する方もいます。言葉だけを見ると、人間の心を操作するような印象を受けるかもしれません。当然、そのようなAIとの関係性には小さくない懸念があるのですが、一方で大きな可能性もあります。以下では可能性と懸念のそれぞれについて考えてみたいと思います。

良い方向の可能性

良い方向の可能性として大きな要素の1つは、人間ではないということ自体のメリットです。ヘルスケアの領域では、インタビュアーやカウンセラーの対象としてロボットやバーチャルヒューマンの有効性が調査されています。

例えば、以下のような研究からは、バーチャルヒューマンとのコミュニケーションが被験者の自己開示を促したり、さらにはネガティブな感情を軽減させるなどの効果が確認されています。これらの結果が興味深いのは、被験者が話をしている相手が人間ではないと認識するだけでその効果が表れるという点です。

また、こちらの研究ではチャットボットとのアイデア創出タスクの有効性について調べています。結果として、共同でアイデアを考える相手がチャットボットの場合、人間と同じことを行うよりも質の高いアイデアが生まれたと報告されています。

他にも多くの研究がありますが、そのポジティブな効果が確認できる要因として、バーチャルな存在とのコミュニケーションは、"判断されるのではないか" "悪く思われるのではないか"という不安が、人間とコミュニケーションする場合よりも感じにくいということが、良く言及されています。

上記のような研究は課題と比較条件が明確で、その可能性が理解しやすい一方で、人間が裏で操作するようないわゆるウィザード・オブ・オズ法で実施されていたり、AIで実装されていたとしても対話シナリオが限定的であったり、実サービスでの実装可能かという点では疑問が残ります。

その可能性を示すものとして、ReplikaというAIコンパニオンアプリを調査した研究があります。この研究では、アプリのレビュー調査と利用者のインタビューを通じて、ソーシャルサポートの可能性を調べています。結果として、AIで実装された存在は、いつでも話しかけられる存在として、ユーザーの孤独感を和らげたり、家族や友達に打ち明けにくいことを打ち明ける存在として、ソーシャルサポートを提供する存在になりえることを示唆しています。

確かに、この調査のアプローチからはその効果を客観的に説明することは難しいですが、日々の生活の中でAIが人に寄り添う存在として貢献し得る可能性を示していると言えます。

悪い方向の懸念

一方で全てにおいて良いということは決してなく、当然のことながらリスクもあります。AIキャラクターやAI Beingが、人にとって信頼するような存在になった時、その関係を作為的に利用するような状況は大きな懸念です。

こちらの論文は、ASA (Artificial Social Agent) が活用できるであろうユースケースに対して、AI倫理の観点で懸念される事項を調査したものです。その中で、懸念としてもっとも大きかったのがAutonomy(自律性)でした。Autonomyへの懸念というのは、例えば、自分のAI友達が自分の代わりに友達へのメッセージの返信をしたり、学習サポートをするAIガイドが自分に選択肢を提示することなく、AIが効果的だと判断した勉強会を申し込みする、などです。

AGI(Artificial General Intelligence)がこのようなことをすることに対しては不気味さしか感じないかもしれません。しかし、個人化されたAI、しかも普段からあなたの悩みを聞いてくれて共感を示しているAIから、あなたにとって良いと思ってそれを行ったと言われた時、本当に不気味さしか感じないのかは慎重に考える必要があります。不気味さ以外のポジティブな感覚をもつのであれば、逆にそれはリスクになりえます。

別の例として、この論文では、AIが生成したアドバイスに対して被験者がどの程度従うのか、その傾向を調査しています。結果として、不誠実なアドバイスに対して、そのアドバイスがAIが生成したものかどうかを被験者が知っているかどうかに関わらず、人は従いやすいという結果が示されています。

この調査においては、AIは単にアドバイスの文章を生成するツールであるため、AIとの関係性などはないと言えます。もしAIとの関係性が構築された場合、このリスクはさらに大きくなる可能性があります。

終わりに

社会的な存在としてのAIと人間の関係性について考察しました。今回のポストでは主に1対1の関係性に焦点を当てて説明しましたが、その可能性は1対1に限定されるものではないと思います。

社会的なAIが適切に実装されると、人々のコミュニケーションを促進し、Collective Intelligenceを強化する触媒になると考えられます。これについては、以前に検討したことがありますが、技術の進歩により、徐々に実現可能な状態に近づいているように感じます。

後半に述べたように、考慮すべきリスクも大きいです。さらに、文化的な背景によってその受容性は変わってくるでしょう。日本ではキャラクター文化が根付いており、擬人化に対する親しみがあると思われますが、文化が異なる場合、その受容性も変わり、リスクへの向き合い方も変わってくると思います。

PMという立場で考えたとき、当然のことながら、技術的実現性だけでなく、文化的な背景や心理学、社会科学、HMI(Human Machine Interaction)なども含め、その効果と影響を学びながら適切に実装していきたいと思います。

この記事が気に入ったらサポートをしてみませんか?