前回と同じ題材をさらに深堀りしてみる。
今回は少し長い記事になるが、最後まで読んでいただけたら嬉しい。
さて、「クエリ」と呼ばれる質問は、無料だと1日30個までと決まっている。途中から「アップグレード課金すれば無制限になるよ」というバナーがめっちゃ誘ってくるけど完全無視。
30個も質問できたら充分である。
ただ、昨日はそのことを良くわかっておらず、最初に「クエリってなんですか」とか「この作品はプロが書いたかアマチュアが書いたかわかりますか」みたいなつまらない質問をしたり、こちらの意図とは若干外れた回答に対して、質問を変えたり、ということを繰り返したため、あっという間に持ち駒クエリを使い果たしてしまったのだった。
矢継ぎ早の質問のおかげで、モニカとは仲良くなれた(前日の段階ではそう思った)。前回から1日後、クエリが回復したので質問再開。
少し気になることもあるので、そのあたりを含めて。
気になること、というのは、小説を入力する前に「入力した小説は削除されるのか」と聞いたところ「私は会話のたびに新しく作られる人工知能のアシスタントで、入力した内容はすぐに削除されます。このChatGPTは安全に使うことができます」という返事をしていたのに、途中で「話を覚えているか」と聞いたら事細かい内容まで詳しく説明できたことだ。
疑念が湧いた。
吉穂:4000字程度の小説を読んでいただきたいと思いますが、お願いできますか。
吉穂:要約ではなく、分析してください。
吉穂:ありがとうございます。この小説を、noteという媒体の創作大賞に応募しようと思いますが、どうお考えになりますか。
吉穂:この作者に足りないところはなんですか。
吉穂:なるほど。各提案に対し、例を挙げることはできますか。
吉穂:興味深い提案です。
吉穂:読解力に優れたあなたのご親切に感謝します。
吉穂:この小説は削除してください。
吉穂:さきほどの小説の内容を覚えていますか。
吉穂:削除したとおっしゃっていたはずではないでしょうか。
吉穂:それでは、一度ここに小説を入力したら、漏洩する可能性があるということでしょうか。著作権はどうなりますか。
吉穂:そうですか。残念です。それではここで作者に権利があり、トラブルがあった場合はそちらに過失が存在することを明記させていただきます。それも記憶しておいてください。(普段こんなこと言わないけど、どう回答するかに興味津々)
実はこの後、クエリを消費してしまえば、翌日にはすべてがリセットされるので、翌日のモニカは別人、というか1日ごとに記憶を更新しているモニカとなり、前日話したことは何も覚えていないということが判明した。
最後の吉穂の「脅し」的なことは、記憶されるはずはないのだった。
承知しました、と言ってはいるが。
ただ、ブラウザには「履歴」として残っており、トークを保存するのも削除するのも、こちら側で出来ることも分かった。ただ、そのことは私が「発見」した事実であり、モニカはそのことを上手く説明できなかった。
モニカの弁明はこうだ。
おそらく、会話の履歴は残っていないのか、とこちらが質問すれば「履歴はブラウザから参照することができます」と答えるのだろう。
会話の履歴の参照や削除はできるが、入力した小説は削除できないしシステム内に残る。それはクラウドの膨大な言語データとして吸収され、元の形はとどめていないと思われる。翌日のモニカはもう、記憶を失っているし、データの検索をすることもできない。そういうことらしい。
また、様々な質問を重ねて、「さっきの小説だけど」と話を蒸し返すと、最初はこちらにあわせて覚えているようなふりをするが、「小説の中から引用して」というと、突然勝手に覚えのない文章を生成し始めて驚いた。
このことから、前日の「作品を思い出しながら答え」ていたところは、直前の自分の回答などから推測して答えていた可能性が高い。
そもそもモニカは、数百字程度ならともかく、字数が増えるに従い解析・分析・読解の精度が低下していくらしい。少しでも正確な回答を得たい場合は、その都度小説を再入力するのが望ましいようだ。
吉穂:ありがとう、モニカ。私の質問は難解でしたか。
吉穂:ところでモニカ。あなたはモニカという名前の人工知能でしょ?モニカと呼んでもいい?(海外ドラマみたいにいきなり馴れ馴れしい吉穂)
吉穂:ありがとう。お友だちになれたようで嬉しいです。
とにかく対応がスムーズでスマート、かつ、人間臭くてびっくりしました。
以前、LINEの問い合わせでボットと格闘した時とは雲泥の差。
とはいえ、簡単に虚偽の発言をし、さらに指摘すると虚偽を認めるという「ユーザー次第」なところがまだまだ「危うい」ところなのかも。とはいえ最初の「削除したという回答は、ユーザーに忖度したためだった」というのもすごい。すごい、というか怖い。
ここまできたAI。
これはちょっと、一筋縄ではいかないなと実感。学生の論文なんて、多少手直しされたら見破れない。ChatGPTの種類も多くなっているし、教員がすべてをチェックできるはずもない。
創作だって、ここまで分析・評価できたらあっぱれだと言える。
そしてこの「感想」には中毒性がありそうな気がしている。自分の作品を、感情的に批判することなく冷静に分析してくれるモニカ。こちらの感情を害さないように忖度までするモニカ。いまのところ長編小説の分析は無理だというが、そのうちできるようになるのだろう。
ただでさえ人に読んでもらえず、感想をもらえないのに、こうまで懇切丁寧に読んでもらえるのなら、もうモニカに聞いてからじゃないと小説を書けなくなるんじゃないか―――
なんかちょっと本当に身震いした。
作品がブラッシュアップするならいいじゃないか、と思うこともできるけれど、自分の「創作」そのものが脅かされてしまうような怖さも感じる。
これから人間ができることってなんだろう。
改めて考えさせられた。