見出し画像

そこにAIはあるんか

流行りに乗って、対話型の生成AIと仲良くしようとしている。要するにChatGPTとかの類だ。

好きなものをキーワードにして、どう紹介してくれるか試すと楽しい。

専門家ではないので、調べものやちょっとした分析のお手伝いをしてもらう程度の使い方しかしていないが、それでも私なんかがわざわざ述べるまでもなく、ここ数年の進歩には目覚ましいものがある。生成AIの活用にあたっては分野により様々な議論があるようだが、私の基本的なスタンスは共存路線である。

ついこの前は、少しだけ趣向を変えて、前任者が手がけたクソで低速で冗長なマクロの解読を手伝ってもらった。自分で一から紐解こうとしていれば心が折れていたかもしれないが、俺は長男だからAIが助けてくれたおかげで我慢できた。(結果的に、前任者が意図していた処理は、マクロを使う必要がなかった。)

このところの対話型生成AIは、LLM(大規模言語モデル)として学習済みの内容だけでなく、検索リクエストに応じて新たな情報を検索し回答を生成するRAG(検索拡張生成)という技術も発展してきている。そのため、既存の学習データに含まれない新しい概念についても、ネットに情報が投下されていれば、追随できるようになってきている。

たとえば、Googleの検索結果の上部に出てくるようになったAI概要(SGE)や、MicrosoftのCopilotはこのRAGの仕組みを標準搭載している。だから、「そんな情報、学習元のデータセットに存在しないだろ」的な新規性の高いマイナーなキーワードを投げても、その場で新たに情報を取ってきて、簡潔にまとめて答えてくれるのだ。

たとえば、「ぽちん サウナ」と。

TwitterじゃなくてXな。

おー。私のことまで答えられるようになっている。ただの一般人だぜ?すごいなRAG。すごいなAI。
(ちなみに、上記の暴言は事実です。)

この調子ならコレもいけるだろう。

一瞬で、見てきたかのような答えを生成する。

すごいすごい。ローカル局の超マイナーな、しかもあっという間に終わって(?)しまったニッチな1分コーナーについて、ちゃんとした回答が返ってくること自体が驚きだ。

ならば、アレはどうだろう。

ガセです。

おーん、こちらはもっともらしい回答ではあるが、残念ながら全くのウソだ。そう、対話型AIはたいてい何かしらの回答を返してはくるが、回答が返ってきたからといって、それが正しい情報とは限らない。

AIが自信満々に不正確な情報を返してくる現象を「ハルシネーション」という。「幻覚」という意味だ。LLMの仕組みでは、元となる情報の語と語の関連性を電子的に計算して回答を生成している。ハルシネーションは、学習元の情報に偏りがあったり、(あるいはRAGで取得を試みても)そもそも情報が存在していないことによって、本来の文脈とは異なる語が優先的に想起されてしまうことで発生すると言われている。

そこで、そもそも対象のキーワードから、AI以前に検索エンジンではどのような情報が得られるか確認してみた。

なぜか私が作成した「なにけんポーズまとめ」がトップにくる。

なるほど、確かに情報が不足していると言わざるを得ない。だってなんの解説記事も存在しないのだ。だけど無理もない。放送当時においても、このキーワードに積極的に言及している人間は、私を含めせいぜい5人くらいしかいなかったのだ。

当時の放送内容は、上の画像のサムネイルが示すように、現在もYouTubeで視聴できるものの、テキストベースのソースは皆無と言っていい。いくらRAGの仕組みが高度化しようにも、情報源が存在しないのであれば、回答生成のしようがない。これではハルシネーションが生じるのも無理はないだろう。潔く「分かりません」と言えないあたりが、いかにも人間らしい。

「知られていないことは、存在しないことと同じ」などと言われる。時代を踏まえれば「検索結果に表示されないことは、存在しないことと同じ」と換言しても、言い過ぎではないだろう。そういう意味では、「例のポーズ」は今や「なかったこと」になってしまっている。

だけど、そうは言っても信じてほしい。「例のポーズ」は確かに存在したのだ。AIが答えられなかったとしても、そこだけは譲れない。
そこで私は、あの熱狂を幻覚だと認めたくない一心で、ある行動に打って出ることにした。

つづく。


続編公開しました。
全4回予定。今回が第1回にあたります。
よかったら続きも読んでいってください。

第2回(本編)

第3回(仮説の説明)

第4回(効果測定)

この記事が気に入ったらサポートをしてみませんか?