Ponyと派生モデルにおけるLORA学習の適性STEP数の話
最近、自分専用絵柄LORAをいくつか作ってたんですけど、どうも効きが「おかしい」。
妙に効きが甘かったり、逆に効き過ぎて人体構造が崩れちゃうんですよね…
設定は以前うまくいっていたものと同じ。素材の質もそんなに大きな違いがあるようにはみえない。
で、よく考えてみると、最近はPony本家だけじゃなくて軽くマージしたモデルを使うことも増えてたんですよね。両方併用するようになった。
効果のほどを検証するためにモデルをLORAの重みを変えながら「ざっくりと」探ってみました(あくまでざっくり)。
結果は「本家Pony基準にすると派生モデルだと効きすぎて、派生モデル基準にすると本家で効きが悪い」感じでした。
自分が学習する場合、ベースモデルをPony本家、loha-prodigyの dim8/alpha1 のlocon付きにして、総stepを5000弱ぐらいにして1000stepずつ出力することが多い。
この設定でできたSTEP4000のLORAをPony本家で使うと人体崩壊しやすい感じです。
LORA1個ぐらいなら大丈夫なんですが、複数LORAの重ね掛けとかするとかなりあやしい。
4000STEPのLORAを複数使う場合、全部強度を0.5とかにするとかなりマシになりました。
ちなみに、以前の経験だと「派生モデルでも5000STEP越えると怪しい」傾向がありました。
ADAMだと5000とか1万とか回すこともあるようですが、PRODIGYだと適性STEP数がかなり下がる気がします。
SDXLのLORAってSD1.5のときと違って、学習しすぎても画像崩壊しにくいんですよね。
例えば2000STEPぐらいがベストだとしても、4000とか6000まで学習させてもそれなりに出力してくれる。
50枚100枚と出したときに「あれ? なんかポーズが崩れやすいな…」って気づくので、「学習しすぎ設定」が発覚しにくい気がします。
以上は、ざっくりとした検証なので話半分に聞いてもらったほうがいいのですが、「本家と派生だとLORAの効き具合がけっこう違うかも?」ということを考慮すると、より安定したイラスト出力ができるようになるかもしれません。
この記事が気に入ったらサポートをしてみませんか?