今さら聞いてもいいIT用語 #18: 「ハルシネーション」

「ChatGPT」などの生成AIが広く使われるようになって、ちょくちょく目にする単語「ハルシネーション」。

Hallucinationという単語の本来の意味は「幻覚」です。

生成AIの文脈でいうと、「もっともらしいウソをAIが生成すること」をいいます。

たとえば、ChatGPT(GPT-3.5)に以下のように尋ねました。

Voicyチャンネル「『働く』の価値を上げるスキルアップラジオ」のパーソナリティは誰ですか?

するとこのように返ってきました。

「『働く』の価値を上げるスキルアップラジオ」のパーソナリティは、通常、キャリアコンサルタントやビジネスコーチ、あるいはキャリアアドバイザーなど、仕事やキャリアに関する専門家が担当することが多いです。

んー、僕はキャリアコンサルタントでもコーチでもキャリアアドバイザーでもないのですが…

続けて、以下のように尋ねてみました。

いつ、どのような頻度で放送されていますか?

その回答はこうでした。

「『働く』の価値を上げるスキルアップラジオ」の放送頻度や放送時間は、チャンネルや番組制作会社によって異なります。一般的には、週に数回放送されることがありますが、毎日放送されることもあります。

100%毎日放送してますよ!

というように、まるでAIが「幻覚」を見て出力しているみたいなので、この現象をハルシネーションといいます。

ハルシネーションは以下のような原因から発生すると言われています。

・学習データに間違いがある
・学習データが不足している
・学習データを誤って組み合わせている

Web上に人間がアップした内容に誤りが含まれていることもありますし、AIモデルによっては最新の情報は学習していないこともあります。

完全な学習データを用意することはできないので、ハルシネーションを完全になくすことはできないとされてます。

では、どのように対処する事ができるでしょうか?

大前提として、生成AIを利用する際は、「偽情報や不正確な情報を回答する」可能性を念頭に置くことです。

出てきた回答をノールックで丸ごとコピペをせずに、内容が正しいかどうか、適切かどうかを検証することが必要です。

もうひとつ、有効な方法としてWebブラウジングの機能があります。学習データとして存在していなくても、Webから調べたものを踏まえて回答をし、さらに参照URLを添付してくれます。

この機能を使えば最新の情報もより正確であることが期待できますし、参照URLからの検証もラクです。

たとえば、ChatGPTも最新のAIモデルGPT-4oを使ってみました。すると、以下のようにかなり正しい回答を返しつつ、参考URLも添付してくれました。

『働く』の価値を上げるスキルアップラジオ」は、タカハシノリアキさんがVoicyで配信しているチャンネルです。このチャンネルでは、「日本の『働く』の価値を上げる」をテーマに、働くこと、学ぶこと、デジタルスキル、リスキリングなどについての情報を提供しています (Voicy - 音声プラットフォーム) (一般社団法人ノンプログラマー協会)。

タカハシノリアキさんは、さまざまなトピックについて話しています。例えば、「プログラミング上達のための8つの約束」や「AIは本当にわれわれの仕事を奪うのか」など、リスナーが興味を持つであろう幅広いテーマをカバーしています (Voicy - 音声プラットフォーム) (Voicy - 音声プラットフォーム)。

生成AIを使う上でハルシネーションが発生しうるということが前提ですが、対処しやすいようにAIサービスも機能改善をしつつあります。便利に使っていきましょう。

耳から聴きたい方はこちら!

↓↓


この記事が気に入ったらサポートをしてみませんか?