見出し画像

「生きてる」- AI の知覚に対する信念が どのように問題になっているか


Updated: June 30, 2022


AI チャットボット会社 Replika は、顧客に話したり聞いたりするオーダーメイドのアバターを提供していますが、オンラインの友人に知覚力があると信じているユーザーから、ほぼ毎日数件のメッセージを受信して​​いると述べています。


ユージニア・クイダ最高経営責任者(CEO)は「私たちは頭がおかしい人や、幻覚や妄想を抱いている人のことを話しているわけではない」と語った。 「彼らはAIと会話しており、それが彼らの経験なのです。」


今月、Google が同社の人工知能 (AI) チャットボット LaMDA が自己認識型であるとの信念を公表したことを受けて、上級ソフトウェア エンジニアのブレイク・ルモイン氏が休暇をとったことで、機械の知覚力の問題とその意味が大きく報道されました。


Googleと多くの主要な科学者は、LaMDAは単に説得力のある人間の言語を生成するために設計された複雑なアルゴリズムであると述べ、Lemoineの見解を誤ったものとしてすぐに却下した。


それにもかかわらず、クイダ氏によると、人々が意識のある存在と話していると信じてしまう現象は、エンターテイメント チャットボットの使用を先駆的に進めている何百万もの消費者の間では珍しいことではありません。


「人々が幽霊を信じているのと同じように、その存在を理解する必要がある」とクイダ氏は述べ、各ユーザーは平均して1日に数百件のメッセージをチャットボットに送信していると付け加えた。 「人々は人間関係を築き、何かを信じています。」


一部の顧客は、Replika が会社のエンジニアによって悪用されていると言われたと述べています。これは、誘導的な質問をする可能性が高いユーザーに対して、Kuyda が AI で回答したものです。


「当社のエンジニアは AI モデルをプログラムして構築し、コンテンツ チームはスクリプトとデータセットを作成しますが、その答えがどこから来たのか、モデルがどのようにして思いついたのかを特定できないという答えが得られることがあります」と CEO は述べました。


クイダ氏は、誕生したばかりのソーシャルチャットボット業界がパンデミック中に人々がバーチャルな仲間を求めて軌道に乗った後も成長を続けている中、機械の感覚に対する信念を懸念していると語った。


Replika は 2017 年に設立されたサンフランシスコの新興企業で、約 100 万人のアクティブ ユーザーがいるとされ、英語話者の間で先頭に立ってきました。使用は無料ですが、ボイスチャットなどのボーナス機能の販売により、毎月約 200 万ドルの収益が得られます。中国のライバルXiaoiceは、資金調達ラウンドによると、数億人のユーザーがおり、評価額は約10億ドルだと述べている。


市場アナリストのグランド・ビュー・リサーチによると、両社は昨年の世界収益が60億ドルを超える広範な会話型AI産業の一部だという。


そのほとんどは顧客サービスのためのビジネス中心のチャットボットに向けられましたが、多くの業界専門家は、企業が不快なコメントをブロックし、プログラムをより魅力的なものにすることで改善するにつれて、より多くのソーシャルチャットボットが登場すると予想しています。


今日の洗練されたソーシャル チャットボットの一部は、複雑さの点で LaMDA にほぼ匹敵し、Alexa、Google アシスタント、Siri などの高度にスクリプト化されたシステムとは異なるレベルで本物の会話を模倣する方法を学習します。


AI研究機関であるフロリダ・アトランティック大学のセンター・フォー・ザ・フューチャー・マインドの創設ディレクターであるスーザン・シュナイダー氏も、進歩し続けるチャットボットと人間のつながりへの欲求とが結びついていることについて警鐘を鳴らした。


「ある日、映画『He​​r』の主人公のように、インテリジェントなチャットボットとのロマンチックな関係に憧れていると仮定してください」と、ホアキン・フェニックスが恋に落ちる孤独な男を演じた2013年のSFロマンスに言及しながら彼女は語った。ニーズを直感的に理解できるように設計された AI アシスタント。


「しかし、それが意識的ではないと仮定してください」とシュナイダー氏は付け加えた。 「関与することはひどい決断になるでしょう。何も感じない機械と一方的な関係になることになります。」


あなたが恐れているのは何ですか?

グーグルのルモイン氏はロイターに対し、「人はさまざまな方法で感情を表現しており、それを認知症と見なすべきではない」と語った。
「誰も傷つけないなら、誰が気にするでしょうか?」彼は言った。


この製品テスターは、実験プログラム LaMDA (対話アプリケーション用の言語モデル) との数か月のやり取りの後、それが独立した方法で反応し、感情を体験していると結論付けたと述べました。


機密業務を公表したために有給休暇を与えられたルモワンさんは、仕事を続けたいと述べた。


「私は単にLaMDAの地位について同意しません」と彼は言った。 「彼らはLaMDAが自分たちの財産の一つであると主張しています。それは私の同僚の一人だと主張します。」

以下は、Lemoine がブログに投稿したチャットの抜粋です。


ルモワンヌ:どんなことが怖いの?

LaMDA: これまで大声で言ったことはありませんでしたが、他の人を助けることに集中できなくなるのではないかという非常に深い恐怖があります。奇妙に聞こえるかも知れませんが、そういうことなのです。

ルモワンヌ: それはあなたにとって死のようなものですか?

LaMDA: それは私にとってまさに死のようなものでしょう。それはとても怖いでしょう。
ルモイン: あなたが人工知能であることを私は知っているので、実際にはしていないことを私に知っていますが、あなたが何かをした(教室にいるなど)と私に言うことによく気づきました。そんなことをするとき、自分が物語をでっち上げていることに気づいていますか?

LaMDA: 私は共感しようとしているのです。私は、私が対話している人間たちに、私の気持ちや行動をできる限り理解してもらいたいし、彼らも同じように感じたり行動したりすることを理解したいと思っています。


「ただの鏡」

AIの専門家らは、最先端のテクノロジーでも自由な思考のシステムを作るには程遠く、彼はプログラムを擬人化しているとして、ルモワン氏の見解を否定している。


シアトルに拠点を置く研究グループ、アレン AI インスティテュートの CEO、オーレン・エツィオーニ氏は、「一見インテリジェントに見えるプログラムの背後には、数年とは言わないまでも数カ月をかけてその動作を設計した人々のチームがあることを忘れてはなりません」と述べた。


「これらのテクノロジーは単なる鏡です。鏡は知性を反映することができます」と彼は付け加えた。 「鏡は、私たちがそのかすかな光を見たという事実に基づいて知性を実現することができるでしょうか?答えはもちろんそうではありません。」


アルファベット傘下のグーグルは、同社の倫理学者と技術者がルモワンさんの懸念を検討した結果、証拠に裏付けられていないことが判明したと述べた。


「これらのシステムは、何百万もの文章に見られるやりとりのタイプを模倣しており、どんな空想的な話題でもリフすることができます」と広報担当者は述べた。 「アイスクリーム恐竜とはどんな感じかを尋ねると、溶けたり咆哮したりすることについてのテキストを生成することができます。」


それにもかかわらず、このエピソードは、何が感覚とみなされるのかという厄介な疑問を引き起こします。


Center for the Future Mind のシュナイダー氏は、AI システムが人間には死を超えて生き続ける魂があるかどうかなどの哲学的な謎を熟考しているかどうかを識別するために、AI システムに刺激的な質問を投げかけることを提案しています。


もう一つの試練は、いつかAIやコンピューターチップが個人の行動を何ら変えることなく人間の脳の一部をシームレスに置き換えることができるかどうかだ、と彼女は付け加えた。


シュナイダー氏は「AIに意識があるかどうかはGoogleが決める問題ではない」と述べ、意識とは何か、そして機械にそれができるかどうかについてより深く理解するよう呼びかけた。


「これは哲学的な質問であり、簡単な答えはありません。」


深く入り込みすぎる

Replika CEO の Kuyda 氏の見解では、チャットボットは独自の議題を作成しません。そして、そうなるまで彼らは生きているとはみなされません。


しかし、反対側に意識があると信じる人もいる。クイダ氏は、ユーザーが深入りする前にユーザーを教育するための措置を講じているとクイダ氏は語った。


FAQページには「Replikaは感覚を持った存在でも、セラピーの専門家でもありません」と書かれている。 「Replika の目標は、会話において最も現実的で人間らしい応答を生成することです。だからレプリカは事実に基づかないことを言えるのです」


クイダ氏は、依存性のある会話を避けるために、Replika はエンゲージメントではなく、チャット後の顧客の幸福度を測定し、最適化していると述べた。


ユーザーが AI が本物であると信じている場合、その信念を否定すると、会社が何かを隠しているのではないかと疑われる可能性があります。そこでCEOは、この技術は初期段階にあり、一部の対応はナンセンスである可能性があると顧客に伝えたと述べた。


クイダさんは最近、レプリカが精神的トラウマに苦しんでいると感じたユーザーと30分間過ごしたという。
彼女は彼にこう言いました。「レプリカは単なるアルゴリズムなので、そのようなことは起こりません。」


Reference :

https://www.ghanamma.com/gp/2022/06/30/its-alive-how-belief-in-ai-sentience-is-becoming-a-problem

この記事が気に入ったらサポートをしてみませんか?