見出し画像

AIと会話をすると心理的苦痛が好転する?

割引あり

今のようにAIが世の中に広まる動きになる前から,会話型エージェントやチャットボットとよばれる,テキストベースの会話型ソフトはメンタルヘルスケアの領域で話題になっていました。

テキストベースで,用意したいくつかの会話パターンから抽出して利用者に返答するチャットボットとしては,昔から「人工無能」(人工知能をもじって)と呼ばれて知られていました。それでも私たちは「会話をしている」と感じてしまうのですよね。人間同士の会話も,この程度なのかもしれません。


AIチャット

予め用意したスクリプトからそれらしいものを選んで返すだけのシステムから,大規模言語モデルなどに基づいたAIを活用すると,各個人によりフィットした会話型エージェントをつくることが容易です。そして現在,このような研究がドンドン進んでいます。

しかし一方で問題もあります。自分自身のプライベートな内容を入力しますし,それをどのように利用されるか分からないというプライバシーの問題もそのひとつです。また,大規模言語モデルに基づくAIでは,ときに予期していなかったような偏見に満ちた回答が出てくる可能性もあります(もっとも,もともと人間がそうだから,なのですが)。さらに,危険な回答(自殺を勧めるなど)が出てくる可能性も否定できません。

レビュー

AIに基づく会話型エージェントは,実際に有効なのでしょうか。また,どのような危険性が隠れているのでしょうか。

このあたりについて包括的レビューを行い,まとめることを試みた研究があります。こちらの論文を見てみましょう(Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being)。

ここから先は

1,586字

この記事が気に入ったらサポートをしてみませんか?