見出し画像

プロント・エンジニアリング考 その4

もし、デジタル化された情報空間そのものが、AIの学習の場となったら、どうなるんでしょうね。
アレキサンダー大王時代のアレキサンドリアの図書館等は、「世界の地の集積」ともいえる、ロマンに満ちた場所ですが、はたして…。



より、高精度な回答を目指して

HAL君、今後、人類が文字の誕生以来、創造してきた本の情報や、様々な研究機関や大学の研究成果がインターネット上で公開されていくことになれば、例えば、GPT-4は、更に高精度な回答を実行することが可能になるということですね。

HAL君 曰く『はい、その通りです。
GPT-4のような大規模言語モデルは、訓練に利用できる情報量が増えるほど、より正確で詳細な回答を提供する能力が向上する可能性があります。』

うんうん、そうだよね。

『具体的には、より多くの本や学術研究の情報がインターネット上で公開されることにより、その情報を学習することでAIはより広範で詳細な知識を獲得し、それを基にしたより精密な回答を提供できるようになるでしょう。
それは、AIが人間の知識と経験の蓄積を効率的に活用し、その範囲を超えた情報処理を可能にするという点で非常に有望です。』

これは、誰が考えても、そういう結論に至るでしょう。
全ての情報がデジタル化されるかといえば、それは不可能であろうとは思います。

しかし、歴史のある時点からのデジタル情報は、急速にその量を増すでしょうし、様々な経験なんかも、デジタル情報に変換されていくでしょう。

ただ、だからこそ、機密性の高い情報は、アナログで残すのだというスパイの話を聞いたことがあります。

『ただし、これはあくまで可能性の話であり、AIの能力向上にはデータ量だけでなく、様々な要素が関与します。
AIの訓練方法やアルゴリズムの改善、また学習データの質やバラエティの確保なども重要な要素となります。』

こういう点が、意外と慎重に見えますね。
ただ、こうした点は、それこそAIが得意な分野であって、リミッターをどこで利かすかの倫理的問題の方が強く働くとは思いますが…。

なんせ、ある種の人間は、リミッターが外れてしまうと、無制限に突き進んでしまい、ブレーキが掛からなくなりますからねぇ。

『さらに、公開される情報が増える一方で、情報の信頼性やプライバシーの問題、著作権の問題なども考慮する必要があります。
それらの課題をどのように取り扱うかは、AIの利用者や開発者、そして社会全体にとって重要な問題となっています。

この回答は特定の参考文献に基づいているわけではなく、私の知識を基に作成されています。』

人間のプライバシーとか権利関係の問題については、欧州が気にするかもしれませんけど、はたして、「AIが進化したその先の未来を見てみたい」という人間の願望が、抑えられるでしょうか?
私には、到底、そう思えませんけどね。

一部の科学者が、まことしやかに警告を出していますけど、その言葉の裏に「相手を出し抜く詭弁」が透けて見える気がしています。
誰もが、AIがもたらす未来を、自分一人のものにしたいと思っているからこそ、他人の足を引っ張りたいんですよね。
これだけ、雪崩を打って社会現象になったら、止められると思いますか?

実際、ChatGPTプラスにつながりにくくなり始めています。
有料版なのに、です。

そして、その反応は、日毎に、加速度的に向上していくんでしょうね。

では、ちょっと意地悪な質問です。
答えてくれるかなぁ?



独裁者の存在

今、侵略戦争を起こしたり、人類を破滅に導こうとしている独裁者が存在していることは、周知の事実です。
国民を管理しやすいからということで、グローバルサウスと呼ばれるグループには、独裁体制をとる国も少なくないですよね。

ということで、HAL君、もしも、著作権やプライバシーを無視するような独裁者によって、信頼性を担保された様々なデータを学習用に与えられるようになったら、少なくとも、GPT-4のような言語モデルは、高精度化する一つの方法になりえますよね。

HAL君 曰く『理論的には、より多くのデータがAIの学習に利用可能になれば、その学習結果やパフォーマンスは向上する可能性があります。
これは、AIはその学習データからパターンを学び、そのパターンを元に新しい入力に対する応答を生成するためです。
そのため、学習データが増えれば増えるほど、AIはより多様な状況や問題に対応する能力を向上させることが可能となります。』

独裁者がリミッターを外させたらどうなるか、につながるかと思いましたが、それほど、そちら方面に、回答が振れなかったようです。

「善悪は、それを用いる者の中にあり」とは、有名な皮肉ですが、生成型AIにおける性能向上には、余り善悪の概念が入り込まないみたいですね。
まあ、それも、学習を制御する技術者側の問題だからでしょうか。

『しかしながら、著作権やプライバシーを無視するような手段でデータを集めることは、倫理的な問題を引き起こします。
そのような方法で得られたデータを使用することは、そのデータの所有者の権利を侵害するだけでなく、社会的な信頼を損ない、法的な問題を引き起こす可能性もあります。
さらに、個人のプライバシーが保護されない状況では、個人が情報を自由に共有する意欲を損なう可能性もあります。

そのため、AIの学習データを増やす際には、そのデータがどのように収集され、どのように利用されるかについて、倫理的、法的な観点から十分に考慮する必要があります。
これは、AIの技術的な進歩だけでなく、社会全体の利益を保護するためにも重要な問題です。

また、学習データの量が増えれば必ずしもAIのパフォーマンスが向上するとは限らないという点も理解しておくべきです。
適切なアルゴリズムの選択、データの質やバリエーション、バイアスの除去なども重要な要素です。

この回答は特定の参考文献に基づいているわけではなく、私の知識を基に作成されています。』

一般論として見るなら、非常に優等生の回答でしょう。
これはたぶん、私のプロンプトが良くないせいなんでしょうね。

では、もっと広げてみましょう。

この次は、次回で。




この記事が気に入ったらサポートをしてみませんか?