見出し画像

AIに対する寓話的解釈(AI学習にAI素材を使うとモデル崩壊)

📂no+e  備忘録『AI モデル崩壊に対する寓話的解釈』

以下のWEB記事を一読願いたい

インターネット上にはAIで生成されたデータがあふれていますが、これらをトレーニングデータとして利用してしまうと、AIモデルが元の物事を忘却してしまう「モデル崩壊」が起きると指摘されています。

ギガジン記事より

一読すると、自分の頭では「??!?」って感じだったが、例え話で丁寧に説明してくれている
引用が多すぎて不味いが、多目にみていただきたい

AIモデルの本質はパターンマッチングシステムにあります。トレーニングデータ内のパターンを学習し、入力されたプロンプトをそのパターンと照合し、最も可能性の高いものを出力するというものです。
[[中略]]
という質問であっても、基本的にAIモデルは一連の単語の最も可能性の高い続きを出力するだけです。
しかし、AIモデルの出力は「最も一般的なもの」に引き寄せられるという性質を持ち合わせています。
[中略]
これは画像生成AIでも同様で、例えば「犬の画像を生成してください」と入力すると、トレーニングデータにわずか数枚しか含まれていないような犬種の画像が出力されることはありません。

同上

(a)あるAIモデル(AIモデル1)をトレーニングする際に、さまざまな犬種の画像を利用したとします。

(b)このAIモデル1が出力する「犬の画像」は、最も多く犬の画像としてトレーニングデータに含まれていたゴールデンレトリバーの画像が多くなります。

(c)AIモデル1が出力した「犬の画像」をトレーニングデータとした新しいAIモデル(AIモデル2)が登場。

(d)このサイクルを繰り返していくと、AIモデルは「犬の画像」がどんなものなのかを忘れてしまいます。

同上
学習過程イメージ図

言われてみれば(書かれてみれば)
「あったりまえじゃん!」って話だ
揺らぎの差分を持って学習するからな
揺らぎなくては学習できず概念もつかめない
ただし、差分なくて学習できない(だけ)ではなくて、犬の概念自体が崩壊してるっぽいのがちょっと恐ろしいところ

人間の世界に置き換えてみる
 例えば、ある食品が
a 栄養豊富で有益(継続摂取で健康増進)
b栄養豊富だが長期継続摂取は有害
2つに意見が分かれたとする
真理を求める際、
①自分が各一次情報に当たる
②二次情報の多数に当たる
ならどう考えても①が望ましい
二次情報の時点でバイアスが掛かり、エコー・チェンバーが起こっているだろうから

しかし、暫くして「ちょと待てよ」っと考え込んでしまった。

将棋ソフトのコトを考えてみたのだ
以下、将棋ソフトのことを超ザックリ述べてみる
色々間違いがあるだろうが、大筋を読み取っていただきたい

将棋ソフトはもともとは、①駒の損得②駒の効率③玉(王様)の安定度④手番がどちら側か、等々人間の価値観で様々な評価関数を作りそれをPCに計算させていた。
その頃は、将棋ソフトは弱く、未来永劫人間のプロのレベルに達しないかも…との観測もあった。
そこにボナンザというソフトが現れた。

チェスソフトを参考に、人間の価値観の要素を減らし、評価関数を極めてシンプルにして、ひたすらメモリーとPCパワーでしらみつぶしに、色んな手を検討し評価関数で比較することにしたのだ
 過去(ボナンザの出現以前)は色んな人間の価値観で読む手を絞り込みそれを深く読むという少数精鋭型だったのを、愚直しらみつぶし方式というほぼ正反対のアプローチをとったのだ
  その結果、将棋ソフトの強さは一気にレベルアップした。それから、二年もしないうちにPC将棋ソフトは人間プロを完全に凌駕する
  AIを導入するまでもなく、人間を完全に上回った
   ボナンザが革命を起こしたのだ。
この頃から将棋ソフトに人間の棋譜を学習させたりする必要がなくなった(むしろ、人間の棋譜は邪魔に)
  様々な将棋ソフト同士で対戦することで人間との対戦なしに人間を凌駕する実力を身につけている。
  さて、AI時代が来てAI将棋ソフト同士対戦させても、上記AI画像作成ソフトの様な弊害[モデル崩壊]は起こっていない

  コレはどういうことか……
自分の脳味噌では科学的に理解できることはできないが、妄想で寓話的に考えるならば、


画像生成AIには正解はないが、将棋ソフトに関しては「勝ちor負け」という絶対正義(正解)があるからではなかろうか? また将棋のルールには揺らぎも無いし…まぁ~わけわからん


正直、誰か頭のいい人に教えてもらいたい

Al以前は、何かをPCに判別させる場合
(そもそもPCが物事を判別することができるのか…て問題は置いといて)
人間が定義づけしてそれを数字に置き換える関数を作って……という工程が必要だったが
AI時代になって、人間がPCに質問を投げかけ、それに対してPCが出してきた回答に人間が『OK』『NO』と答えることによって、PCが勝手に評価関数(の様なモノ…アルゴリズムとか?)を作っていく


なんか、凄い時代だ……
  人間が『OK』『NO』と答えることによって、PCが勝手に評価関数を作っていくが、

学習材料にAI出力を利用することで、結果的にAIにOK、NOの判定まで任せてしまうと
  勝ち負けの様な絶対正解があるものならいいがそれ以外はモデル崩壊を起こしてしまう……と


自分は勝手に寓話的に今回の記事を解釈した
果たして、正しい解釈なんだろうか……?

 PCとは違って、一貫性が不完全な矛盾だらけの人間が居るからこそAIがモデル崩壊起こさない……
極めて寓話的で面白すぎる

量子力学の不確定原理とか
8:2の法則に何か通底するものがあるような気がする

8:2の法則というのは、良く働く8割のアリと働かない2割のアリのうち、良く働くアリだけを選別するとそのアリは全部良く働くアリになるかと思いきや、選別したアリも良く働くアリ8と働かない2になってしまう現象(選別しても揺らぎ発生?)

AIというのは矛盾だらけの宇宙や人間を切り取る包丁みたいなもので、いくら進歩しても、AIは人間を必要とするのではないか?
   包丁の名前は『プロンプト』またの名を『属性』

AIが必要とするのは矛盾と無限と危うい一貫性ではないか?一貫性が無きゃAIは成立しない、だが、揺らぎがない完全な一貫性だとモデル崩壊してしまう
危うい夢の様なモノ……

📁no+e  備忘録『AI モデル崩壊に対する寓話的解釈』

  最後までお付き合いいただきありがとうございました[EOF]

この記事が気に入ったらサポートをしてみませんか?