【日記】ChatGPTに課金した
あまりにも使う頻度が高いので、ChatGPTに課金しました。
今日の晩ごはんのような適当な話から、価値観や倫理に関するような議論まで何でも気兼ねなく聞けるのがいいですね。
プログラミングの質問にもかなり正確な回答を出してくれるので、普通に仕事で使えます。優秀な社員が1人増えたような気分です。
非常に便利ですが、使うのが難しいと思うことも多々あります。専門的すぎる内容だとそれっぽい文章で真っ赤な嘘をつくのでそれを検証するのも難しいですが、一番難しいと思うのは「自分の疑問を明文化してChatGPTに伝える」という行為自体です。うまく言語化できていない質問だと正しくない回答が返ってくるので、完全に思考をストップさせた状態で使うことはできません。そういう意味では、ChatGPTの性能は利用者の言語能力に依存しているように感じます。
まあ相手が人間だとしても平気で嘘つかれるし、ちゃんと聞いてもふわっとした回答が返ってきたりするので、ChatGPTに限った話じゃないんですけどね。
ただ、AIはもっと便利になっていってほしいと思うので、その言語化のコストを削減するとしたらどうすれば良いんだろうと時々考えるわけです。
例えば「あれってどうしたっけ?」という言語能力ゼロの質問に対して、優秀なサポートが「16時のプレゼンに必要な資料の準備ならもうしました」と答えたりする場面が時々ありますよね。
いまのところ人間がChatGPTに勝っている部分はこういうところだと思っていて、「身近な人間なら同じコンテキストを暗黙のうちに共有して話すことができる」というのが強みだなと思います。
じゃあ利用者のコンテキストを共有したChatGPTを作れば最強なんじゃね?とも同時に思うわけですが、それをするのはセキュリティ的に少し怖いですよね。
仮にスマートウォッチやスマートグラスなどにカメラとマイクを仕込んで生活上の全てを記録して、さらにスマホ上のデータなども含めて総合的に判断するAIができたとしたら、「あれってどうしたっけ?」という質問に正しく答えられるようになる可能性はあります。
しかし、そんな個人情報の塊のようなAIが存在するのは非常に危険でもあります。例えば第三者が眼鏡を不正に使って、「自分の一番人に知られたくない秘密を教えて」などと言ったら大変なことになりますよね。
なので、セキュリティ的に信頼できないAIに個人情報を渡しすぎるのは少し怖いです。もちろん人間に個人情報を渡しても同じことが起こるリスクはありますが、人間はインターネットに直接接続されていないので、個人的にはちょっと安心です。(現時点では)
ということで、自分の中の疑問を明確にして解決策のインスピレーションを与えてくれるツールとしてChatGPTはとても優秀だと思うんですが、個人的なコンテキストの理解や、セキュリティの面では人間の方が強い場面もあるのかなと思ったりしました。
まだまだAIも発展途上だし、今後色々出てきてほしいですね。
この記事が気に入ったらサポートをしてみませんか?