見出し画像

03 嘘をつくAI

どのように社内にChatGPTを導入し、活用できるか。セキュリティ面の制約を踏まえながら、検討が続いた。検討が進むなかで、ChatGPTの高い性能に驚く一方、取り扱いの難しさを実感していた。

導入を難しくしている最も大きな要因のひとつが、

「ハルシネーション」(幻覚)

と呼ばれる現象だった。
もっともらしい回答を出力するが、その内容が事実に基づいていないというものだ。

実際に「さいたま市内のおいしいラーメン屋を3つ教えてください」と質問してみると、人気のラーメン店として3つの店名・住所・特徴を挙げてくれた。しかし、実はどれもでっちあげで、そのような名前の店はなく、その番地も存在しないものだった。おかげで夕飯にありつくのが遅れてしまった。

本来、期待していた動きは
1 ChatGPTに質問する(おいしいラーメン屋を聞く)
2その回答を根拠に行動する(ラーメン屋の情報を得て、行く)
3最適な結果を得られる(おいしいラーメンが食べられる!)

であるが、ハルシネーションのあるChatGTPの回答を根拠にするためには、「その回答が正しいかどうか」を検証するステップが必要となる。うまく使えばタスクを楽にできるが、かえって手間が増えているようにも思える。

少なくとも、ChatGPTの回答だけでは何かを判断して進めることはできない。どのような役割として活用するのが効果的か。人間とChatGPTの役割分担を整理して考えてみることにしたのだった。

そして、「人間とChatGPTの役割分担を整理する」ことがこのプロジェクトの大きな分岐点となった。


この記事が気に入ったらサポートをしてみませんか?