Bucketの生成を修正してみた。
前回と前々回でAspect ratio bucketingを使いましたが、実はWaifu diffusion(以下WD)で実装されているものと、NovelAI(以下NAI)が紹介したアルゴリズムでは少し違いがあります。
比較
というわけで同じ設定で比較してみましょう。でも分かりづらいのでとりあえずresolution(幅×高さ)だけみてください。
WDはとにかく数が多く、resolutionがバラバラなのがわかるでしょうか。NAIの場合resolutionはほぼ一定になっています。簡単に言えばNAIの方法では解像度が最大値に近いものしか選ばれません。WDの実装ではそういった制限がないため低解像度のbucketもできてしまいます。bucketの数を増やしたいならば、刻み幅を減らせばいい話なので、これは実装ミスなんじゃないの?前回までWDの実装に従って学習していたので、NAIの方法でやってみました。
追記:VAEで8分の1、Unetで8分の1に圧縮されるので刻み幅は64じゃないとだめですね...。
低解像度のbucketが減るので、学習時間が増加します。しかし最大VRAM使用量は変わらないので、VRAMを効率的に利用できるはず・・・。学習用画像をbucketに合わせて前処理してみた結果がこちら。
こうしてみると正方形に変換するなんてかなりもったいないですね。前回の学習では、最頻値であるアスペクト比0.714のbucketは(320:448)でした。それが今回は縦横それぞれ2倍の(640:896)になっています!実のところこれはアルゴリズムだけでなくbucketの最大長を768とした設定の問題でもあるのですが。
学習結果
bucket以外前回と同じような設定でやってみました。
前回より明らかに解像度が上がりました。ただなんか安定しないんですよね。ある部分の特徴が別の部位に現れたりすることが多いです。制服衣装を生成しようとしても鎧部分が出てきちゃったりします。細かい部分を再現しようとしすぎていて広い部分で変な感じになっちゃうというか・・。解像度を大きくしたことでまたちょっと調整が必要かもですね。
でもこういう風に思うのは、AIのせいじゃなくて、細かいところが再現できるようになると、もっとキャラクターにフィットしてほしいという思いが強くなってしまうからかもしれません。
まとめ
オベロン強すぎ。