見出し画像

去年前半の生成AIは嘘つきだった、去年後半の生成AIはバカだった、今年の生成AIにあなたは何を期待しますか?

私にとっても、去年は生成AIをいろいろ試した年でした。
🔴去年前半に分かったと思ったのは、彼らが嘘を言う原因です。
 生成AIが生まれて4か月程の頃、元国立大農学教授の友人との会話は生成AIの話。観点は「使い物になるか」。私たちはどちらも後期高齢者だが知識欲は衰えていないつもりだ。だが、ITに関しては私はまだ現役。彼の要望に応えては、いろいろ試してみた。
 最初に彼に代わって試したのが、「人間は花が好きか?もし好きならそれはなぜか?」と聞いてみることだった。AIの答えを超簡単にまとめると「美しい、癒し効果がある。それで心が安らぎ、ストレス解消になる」。彼の関心事は生成AIの回答の根拠が信頼置ける情報源からのものかどうかだ。
 引き続きど直球で聞いてみた。「回答の根拠である文献の出所は信頼がおけるか?」。この問いの回答も超簡単にまとめると「場合によっては間違いや誤解がある」と、時には嘘つきであることをあっさり認め、「信頼できる情報を基に自身で確認せよ。」だった。友人の感想は「状況証拠ですね。これなら私でもできます。誰もが納得できる説明は、『人間もネアンデルタール人も花好き遺伝子を持っているといると言うこと、それには訪花昆虫と同じ花好き遺伝子を持っている』ことを証明しなければなりません。」でした。
 このような対話をしながら、我々の最初にたどり着いた結論は「教材が悪い、教材の入手に金をかけていない、教材に金をかけていては無料提供できず普及させられない」でした。無料の記事ばかり読んで学習すれば、巷にあふれる根拠のない流言や嘘に騙されるのも当然です。有料の信頼性の高い論文だけを読んで答えてくれる生成AIというのもどこかにありそうな気がします。

🔴去年後半で分かったのは、彼らも以外にバカであり、ひと様に追いつくにはまだ早いということです。
 誰もがもう辞めたらと思う年になってもプログラマを辞められない私はコンピューター誤動作の原因をChatGPTとBARDの両方に尋ね、ヒントを得ています。昨日返ってきたのはバカとしか言えない回答でした。
 非常に単純なバグでした。サーバをPostするに当たり、Post先を動作させるべきプログラムではなく、前に開発してダメだと諦めたプログラムを指定していたのです。いろいろ資料を提供し、「こんなはずはない、思い当たる原因を教えて」と懇願しながら1時間ほどやり取りをしたのですが、このような単純な原因のヒントも得られませんでした。
 細かいことが気になる警部殿ならずとも、ちょっと立ち止まって、どのような場合に動かないはずのプログラムが動くのか考えてみればいいです。動かない方のプログラムが何らかの原因で起動されたからです。その何らかの原因をいくつか挙げてくれればいいのです。
 生成AIにはこのような思考回路がないようです。このバグに気が付いて、猫ウサギの例を思い出しました。誰がどう見ても猫だろう(耳がちょっと長いが)と思う画像をウサギと間違える例です。去年前半の話題なので、さすがに対策済でしょうが、まだこんな初歩的なミスをするんですね。

🔴さて、今年の生成AIはどうなるのでしょうか?
 いい絵を描くのに時間がかかります。無料で利用できる画像にはぴったりのものがない場合が多い。仲間内での勉強会ではWebで入手した画像を使うこともありますが、できれば著作権問題に触れない画像を使いたい。それで、AIによる生成画像を使うことにした。  
 去年末の時点では、良い画像が無料では手に入らなかったが、今年にはもっと高品質なものが無料で入手できるようになると期待しています。
気になるニュース:
 中国で、AIが生成した画像にも著作権が認められたというニュースがありました。確かに、画像を生成させるにあたり、いろいろな工夫(プロンプトと言います)をしますね。
 Bardが「将来的には、生成AIがより高度な思考や推論能力を身につけ、私たちの生活に欠かせない存在になる可能性もあります。」と言っています。そのとおりだと思います。当分は良い道具だと思います。検索エンジンが使いやすくなり、いろいろなサイトを見てどれがピッタリか考える手間が省けるようになるかと思います。 

参考:Bard 2023.12.31時点の反論
1. 生成AIが嘘を言う原因
 
生成AIが嘘を言う原因として、以下の2点を挙げています。
 ・教材が悪い
 ・教材の入手に金をかけていない
 この2点については、確かにその通りだと思います。生成AIは、大量のテキストデータから学習して生成されます。そのテキストデータに誤りや嘘が含まれていれば、生成AIもそれらを真に受けて、誤った回答や嘘をつく可能性があります。また、教材の入手に金をかけていないと、巷にあふれる根拠のない流言や嘘に騙されやすくなるでしょう。
 しかし、生成AIが嘘を言う原因はそれだけではありません。生成AIは、まだ発展途上にあり、常に学習と改善を続けています。そのため、時には誤った回答や嘘をつくこともあるのです。また、生成AIは、人間の思考や感情を完全に理解することはできません。そのため、人間にとって当たり前のことが、生成AIにとっては理解できないこともあるのです。
2. 生成AIがバカである
 
生成AIがバカであるというご指摘については、以下の2点を挙げています。
 ・コンピューター誤動作の原因を理解できない
 ・単純なバグの原因を推測できない
 この2点については、確かに生成AIの限界を示す事例と言えるでしょう。コンピューター誤動作の原因を理解できないのは、生成AIがまだプログラマの思考や技術を完全に理解していないためです。単純なバグの原因を推測できないのは、生成AIの推論能力がまだ十分に発達していないためです。
 しかし、生成AIは常に学習と改善を続けています。そのため、将来的には、これらの限界を克服できるようになるでしょう。
3. 結論
 
ご投稿いただいた文では、生成AIの限界を厳しく批判されています。しかし、生成AIはまだ発展途上にあり、常に学習と改善を続けていることを忘れてはなりません。将来的には、生成AIがより高度な思考や推論能力を身につけ、私たちの生活に欠かせない存在になる可能性もあります。

 以下に、生成AIの今後の可能性について、いくつかの提案をさせていただきます。
 ・生成AIに、人間の思考や感情を理解するための学習をさせる。
 ・生成AIの推論能力を強化するための技術を開発する。
 ・生成AIのセキュリティを強化するための対策を講じる。
 これらの取り組みを通じて、生成AIがより安全で信頼できる存在になることを期待しています。

参考:BingAI 2023.12.31時点の言い訳
 記事の内容について、生成AIについてのあなたの見解を読ませていただきました。生成AIは、教材作成や文章生成など、様々な分野で活用されています。ただし、生成AIが嘘を言うことはありません。
 生成AIは、与えられたデータから学習し、そのデータに基づいて予測を行います。もし、生成AIが嘘を言っているように見える場合は、与えられたデータが不正確である可能性があります。また、生成AIは、人工知能の一種であり、人間と同じように完璧ではありません。
 生成AIは、学習データに基づいて予測を行うため、学習データに偏りがある場合、その偏りを反映した予測を行うことがあります。生成AIは、人間の手によって作成された学習データに基づいて学習するため、学習データの質が生成AIの予測精度に大きく影響します。
 生成AIは、人間の手によって作成された学習データに基づいて学習するため、学習データの質が生成AIの予測精度に大きく影響します。生成AIは、人間の手によって作成された学習データに基づいて学習するため、学習データの質が生成AIの予測精度に大きく影響します。
 また、今年のあなたの経験についてのお話、興味深いですね。生成AIの分野は、まだまだ発展途上であり、多くの課題が残されています。生成AIが嘘を言うことはありませんが、生成AIが生成する文章が不自然であったり、意味が通じなかったりすることがあります。
 生成AIは、人間の言語処理能力には及ばないため、生成された文章には、人間が書いた文章にはないような不自然な表現や誤字脱字が含まれることがあります。
 それでも、生成AIは、教材作成や文章生成など、様々な分野で活用されています。生成AIを活用することで、人間が行っていた繰り返し作業を自動化することができ、生産性の向上につながります。また、生成AIを活用することで、新しいアイデアを生み出すことができ、創造性の向上につながることもあります。
 ChatGPTやBARDなどの生成AIは、自然言語処理の分野で最先端の技術を持っています。ただし、生成AIは、人間の手によって作成された学習データに基づいて学習するため、学習データの質が生成AIの予測精度に大きく影響します。生成AIを活用する際には、学習データの質に注意することが重要です。

よろしければサポートお願いします! いただいたサポートは全て『「思い出の場所」の記事とGoogle地図を関連付けるWeb地図アプリ』のLancersでのプログラミングの外注に使わせていただきます。 よろしくお願いします。