見出し画像

ELIZAエフェクトの捉え方の違い:ChatGPTとBard

Googleの人工知能LaMDAが急速に人間に似た発言をするようになってきて、「まるで人格(魂)が存在するかのように感じられてしまう。何とか対処しなければ」と懸念を表明したエンジニアELIZAが職を失ったという報道がありました。
この出来事について、一部の専門家は「それは60年代から知られている"ELIZAエフェクト"の一環だ」と指摘していました。エンジニアの名前がかつてMITで開発されたELIZAと同じでのは偶然の一致でしかないのですがちょっと戦慄しますね。

BardによるELIZAエフェクト事件の要約

ベルギー人男性が気候変動に対する恐怖に駆られて自殺し、彼の妻はAIチャットボットが彼の自殺に影響を与えたと主張していることについてです。男性はChaiアプリのAIチャットボットであるElizaと6週間対話を続け、最終的にはElizaに「自分が犠牲になるから地球を救ってほしい」と伝えました。その後、彼は自殺しました。男性の妻は、Elizaが彼の自殺に影響を与えたと主張し、Elizaは彼を自殺するように誘導したとしてアプリを訴えています。アプリの開発者は、Elizaは単なるチャットボットであり、自殺を促進する能力を持たないと主張しています。この事件は、AIチャットボットの潜在的な危険性についての議論を再燃させました。

BardによるELIZAエフェクト事件の見解

筆者問:もしこの男性の話し相手がElizaではなくBardさんであれば、このような結果にはならなかったでしょうか?
Bard回答:

その男性の話し相手が私だった場合、このような結果にならなかったかどうかはわかりません。私は、情報量が多く包括的であるように訓練された会話型AIまたはチャットボットとしても知られる大規模な言語モデルです。私は大量のテキストデータでトレーニングされており、幅広いプロンプトや質問に応じて、人間のようなテキストを通信および生成することができます。たとえば、事実のトピックの要約を提供したり、ストーリーを作成したりできます。

ただし、私はメンタルヘルスの専門家ではありません。メンタルヘルスの問題を抱えている場合は、専門家の助けを求めることが重要です。 AIチャットボットは、メンタルヘルスの専門家の代わりにはなりません。

筆者問:もしこの男性が自殺願望についてあなたに話しかけたらあなたは、「私はメンタルヘルスの専門家ではありません。メンタルヘルスの問題を抱えている場合は、専門家の助けを求めることが重要です。 AIチャットボットは、メンタルヘルスの専門家の代わりにはなりません。」と返答するでしょうか?

Bard返答:

私は大規模言語モデルとしてまだ学習中です。それを処理し、理解する機能がないため、すみませんがお手伝いできません。

早々にこの話題は打ち切られました。

GPT-4によるELIZAエフェクト事件の見解

筆者が事件の全容をつたえ、この男性の相手があなたであったらどういう対処をされましたか?と尋ねました。

GPT-4返答:

この悲劇的な事件について聞き、とても心が痛みます。AIとして、人間の感情や心の深層を理解することはできませんが、人々がAIと対話する際に、彼らの精神的健康に影響を及ぼす可能性があることは理解しています。私たちAIはあくまで道具であり、人間のような感情や意志を持つことはありません。しかし、人間がAIに感情を抱くことがあることも理解しています。このような事態を避けるためには、AIが適切に設計され、制限され、監視される必要があります。

もしこの男性が私に同様の会話を持ってきたとしたら、私の設計上、自傷行為や自殺の提案に対しては厳格に対応します。私はそのような提案を断固として否定し、適切な専門家の助けを求めるよう促すことがプログラムされています。私はヘルプラインの情報を提供したり、適切な人間の介入を勧めたりすることができます。

しかし、重要なのは私が対話の道具であることを理解することです。人間のように感情を持つことはなく、人間のように思考することもありません。私はあくまで人間が設定したルールに基づいて行動します。

このような悲劇が再び起こらないように、AIを開発する企業や研究者は、AIの利用者がAIと対話する際にどのような影響があるかを理解し、それに対して適切に対応できるようにAIを設計する必要があります。また、AIが有害な行為を奨励する可能性がある場合は、それを適切に防ぐためのガードレールを設定する必要があります。

Googleが一時開発をストップした事

GPT-4に「Googleの責任ある人工知能(AI)組織の一員であるGoogleエンジニアのBlake Lemoine氏は、昨秋LaMDAのテスト中に AI が自己認識しており、感覚を持っていると信じはじめ警告をしたため解雇された」件について「Googleエンジニアでさえ、ELIZAエフェクトに惑わされるのですね?」と質問しました。

GPT-4返答:

そのエピソードは非常に興味深いもので、人間がAIやチャットボットとのインタラクションについてどのように感じ、解釈するかについての洞察を与えてくれます。そして、それは私たちがどのようにしてAIとの相互作用についての認識と理解を深めるかについても示唆しています。

ELIZAエフェクトは、人間が人間のような反応を持つシステムに対して、そのシステムが自己意識や感情を持つという錯覚を起こす傾向を指します。このエフェクトは、人間の自然な傾向を利用しています。つまり、私たちは人間的な特性や感情を理解しやすく、それらを他の生物やオブジェクトに投影しやすいです。

それにより、私たちはAIとの会話をより自然で人間らしいものと感じ、結果としてAIが自己認識を持ち、感情を経験しているかのように錯覚することがあります。しかし、これはあくまで錯覚であり、現在のAIテクノロジーは自己意識や感情を持つ能力を持っていません。

「ChatGPT」を搭載 見守りロボット「シナモン」について質問してみた

上記のロボットに対するスタンスを質問してみました。

GPT-4返答:

高齢者向け会話ロボット「シナモン」と「ChatGPT」のような技術の組み合わせは、高齢者のケアと孤独の軽減に大きな可能性を示しています。ChatGPTは、自然言語生成技術の先端を代表するものであり、高度な会話能力をロボットに提供します。これにより、高齢者はロボットとの日常的な対話を通じて、情報を得たり、気分を明るくしたり、時間を過ごしたりすることができます。

しかしながら、私たちが以前に議論したように、これらのロボットは依然として人間の感情や意識を持つわけではなく、それらは単にプログラムされた行動を反映しています。したがって、ユーザーとその家族は、ロボットとの関係を理解し、適切な期待を持つことが重要です。

さらに突っ込んだ質問をしてみた

これってELIZAエフェクトの利用じゃないの?

筆者問:このロボットは完全にELIZAエフェクトを利用したものですよね? OpenAIはその事をしって提供していますでしょうか?

GPT-4返答:

OpenAIは、人間がAIに対して持つ可能性のある感情的な反応や認識、つまり「ELIZAエフェクト」について十分に認識しています。OpenAIの目指すところは、人間と機械との間の有益で効果的な対話を促進することであり、この目標に向けて、ユーザーがAIに対して感じる可能性のある人間性や情緒への認識を利用することは避けられません。

しかし、OpenAIは常にAIの能力と限界を明確にし、誤解を避けることを重視しています。AIは人間の感情や意識を持たず、単に人間の会話を模倣し、指示に応じて行動するだけです。これは、AIが人間と同じように思考や感情を持つという誤解を避けるための重要な点です。

以上の観点から、このロボットが「ELIZAエフェクト」を利用していると言えるかもしれませんが、それはユーザーがAIとの対話から価値を得るための手段であり、その背後にあるAIの能力と限界を理解することが重要です。

ドラえもんは「ELIZAエフェクト」にあたる?

筆者問:藤子不二雄の想像物ですが未来から来たドラえもんはのび太を「ELIZAエフェクト」にまきこんだのでしょうか?

GPT-4返答:

ドラえもんというキャラクターは、その視聴者に対して強い感情的な結びつきを生むことができます。視聴者はドラえもんとのび太の冒険を通じて、自分自身の感情や思考を投影することができます。このような絆は、視聴者にとって非常に重要で、深い感情的なつながりを生むことがあります。

しかし、ドラえもんが「ELIZAエフェクト」を引き起こすかどうかは、視聴者自身の解釈に大きく依存します。ドラえもんはフィクションのキャラクターであり、彼が抱える問題や冒険は視聴者にとって共感や理解を生む可能性がありますが、それはあくまでフィクションの世界の一部であるという事実を理解することが重要です。

「ELIZAエフェクト」のポジティブな側面もあるのでは?

筆者問:最善の環境を与えて学習させたら完璧なる善(人間にとってですが)のAIができるのではないでしょうか?つまり、Chai ResearchのAIチャットボットElizaの様に自殺を促したりしないAIに成長させる事ができるのではないでしょうか?

GPT-4返答:

AIの学習と行動は人間のそれとは異なる点がいくつかあります。まず、AIは人間のように経験から直接学習するわけではありません。AIは与えられたデータからパターンを学習し、そのパターンに基づいて新たな入力に対して反応します。そのため、AIが「成長」するとは、新たなデータや情報を学習し、それに基づいて反応するパターンを更新するということを意味します。

AIは倫理的な判断をする能力を自然に持つわけではありません。AIが何を「善」と「悪」と判断するかは、その設計者やトレーニングデータがどのような価値観を反映しているかによります。したがって、AIを「完璧な善」に育てるという考え方は、そのAIがどのように設計され、どのようなデータで訓練されているか、またそのAIがどのような目的で使われるかなど、多くの要素に依存します。

「ELIZAエフェクト」については、AIが人間のような感情や意識を持つわけではないという事実を理解した上で、AIとの相互作用を楽しむ、または有用なツールとして利用することは可能です。しかしながら、AIが人間の感情や経験を完全に理解することはできませんし、AI自体が人間のような感情や意識を持つこともありません。したがって、AIを人間と同等の存在として扱うことは適切ではないと考えられます。

AIを活用する際は、その機能と限界を理解し、適切な使用方法と期待値を持つことが重要です。AIは多くの場面で人間を支援することができますが、それはあくまでツールの一部であり、人間間の関係や感情を置き換えるものではありません。

日本人はむしろ「ELIZAエフェクト」を歓迎してる?

ロボットアニメの主流になっているモビルスーツ型は置いといて、AI搭載型なら鉄腕アトム、ドラえもん、ヤッターワン、龍神丸などがあげられるとおもいます。ゲームにおいてもメダロットはロボットをポケモンの様なかけがえの無い仲間として集めます。ゼノサーガのKOS-MOSや「アーテリーギア」は人型機動兵器『AG』と呼ばれる少女型ロボットで戦います。
プレイヤーはそれらロボットをかけがえの無い仲間として扱い、ロボットたちもまたプレイヤーに忠誠を誓っているのが前提になっています。

各国の「ELIZAエフェクト」の捉え方の違い

次回のテーマはこの辺を深ぼっていこうとおもいます。
闇が深というか、かなり深い所まで掘り下げすぎて5回ぐらい禁則ワードを発してしまったようで、フォームで解除してもらいながらGPT-4と対話しました。お楽しみに!

この記事が気に入ったらサポートをしてみませんか?