画像出力AIの今後を考える
AIの進化が止まらないらしい。
Twitterでタイムラインを見ていると、AIが出力したとは思えないほどリアルな画像が出回ってくるようになった。
約半年前、画像生成AIが出力する画像は抽象的で輪郭のはっきりしない絵が多かった。
それが今、じっくり見たとしてもAIと気づかないような画像を出力するようになっている。
例を挙げると、アメリカ元大統領のトランプが逮捕された瞬間とする画像が出回ったことがある。やはり顔の知れた人物ということもあって、トランプの顔や全身像は完璧に出力される。(恥ずかしながら当時ちょっと信じた)
そもそも画像生成AIは、インターネット上の膨大な画像を学習し、入力されたプロンプトに合う組み合わせを提示してくる。
現在はまだ、
AIの生成した画像<現実の画像
の段階であり、AIの生成した画像は急激に現実の画像に近づいている。
しかしながら、プロンプトを入力するだけで手軽に画像やイラストを出力できてしまうと言うことは、実際に写真を撮ったり、イラストを描いたりする時間をかけずとも、その結果をインターネットに蓄積できると言うことだ。
もし私があるプログラムを組んで、
画像生成AIに出力指示を出しまくったらどうなるだろうか。
次第に、インターネットに蓄積されているAIの学習元となる画像のバランスが崩れていく。
AIの生成した画像>現実の画像
に近づいていく。
今後数十年、数年、もしくは数ヶ月のうちに
AIの生成した画像>現実の画像
の世界が訪れたらどうなるだろうか。
この画像出力AIの学習元となる画像が、
つい先日出力したAIによるものだとした場合、
ここでAIが出力する「正解」は、
果たして現実世界に即したものと言えるのだろうか?
画像出力AIが見ている現実は、インターネット上にしかないのだ。
つまるところ私は、AIの過学習が始まると思っている。
いつか聞いた話だが、株価を予測するシミュレーションモデルを作る際、
過去数十年のデータを何度も学習させてできたモデルは、
過去のどのタイミングのデータを入力しても
その先の株価を正しく出力できるようになったと言う。
さあ完璧なモデルが出来上がった!
と、このモデルに現在の株価を入力し
その後を予測した結果、何故かその後は見当違いな株価を示した。
過去のデータを完璧に学習させた結果、
その過去のデータにしか反応できないモデルになってしまい、
未来の予測には全く使い物にならなくなってしまったのだ。
まあ予測モデルとAIが全く一緒ではないはずだが、
ちょうどスピーカーでハウリングした時のように、
一度出力されたものが再度学習され続けた場合、
このAIは果たして使い物になるのか?
そしてAIが出力した画像だらけとなった世界で
現実に近い画像を出力してくれるAIは存在できるのか?
現実はそこに存在しているのか?
目に見えるものだけが真実とは限らない。
何が本当で、何が嘘か。
コンフィデンスマンの世界へ、ようこそ。
※サムネイル画像はstable-diffusionにて生成
この記事が気に入ったらサポートをしてみませんか?