最近の記事

SDXLで、リアルな人物画像

SDXL自体にクオリティ高いのは学習されているようだが、プロンプトは単語ではなく文章で書き、ネガティブプロンプトも効果を確認しながら適用しないと出てこない。 "Japanese"は単純に入れると、戦後の写真のような画像を学習させているのか違和感が出るのは以前のStableDiffusionと同じ。 LoRaはkohya_ssが対応しているようだが、LoRa適用すると画像は変わるが学習画像のようにはならない。 パラメータ値を0.2のように小さくしてLoRaの影響を少なくしよう

    • 階層マージのsd-webui-supermergerが分からない

      階層マージが出始めたときに、後で対応しようと思っていたら、ついていけなくなった・・・。 単純なマージはCheckpoint Mergerと同じ(2023/2/24時点)マージする時のMerge Modeが、Checkpoint Mergerより増えているが、これはわかる。 「Merge & Gen」ボタンを押せば、マージした画像が出力される。 どこにPromptを記入するのか、SuperMergerの画面を探してしまったが、txt2imgの何時もの枠に記入するようだ。 こ

      • sd-webui-supermerger intall時のメモ

        web-uiのExtensionsタブから、Availableタブにいき、Load fromボタンを押して、一覧にある、sd-webui-supermergerをインストール web-uiの上部のタブに出て来ない場合、diffusersをインストールする必要がある。

        • Illuminati Diffusion v1.0でリアルな人物画像

        SDXLで、リアルな人物画像

          Illuminati Diffusion v1.0でリアルな人物画像

          Illuminati Diffusion v1.0でリアルな人物画像

          Waifu Diffusion 1.5 (WD1.5) Betaがリリース

          Waifu Diffusion 1.5がリリースされたので触ってみました。 リリースノート モデル 少し触っただけなので合ってるかわからないですが、自分がやったことは下記。 チェックポイント「wd15-beta1-fp16.safetensors」と設定ファイル「wd15-beta1-fp16.yaml」 embeddingに「wdgoodprompt」と「wdbadprompt」を追加 新しいタグが追加されたので追加 (waifu, realistic, re

          Waifu Diffusion 1.5 (WD1.5) Betaがリリース

          Stable Diffusion2ベースで学習したIlluminati Diffusion v1.0を試してみた

          embeddingが複数あり、その設定をしています。 プロンプトは過去の記事と同じものを使用しています。

          Stable Diffusion2ベースで学習したIlluminati Diffusion v1.0を試してみた

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Cafe Instagram Unofficial Test v2というモデルを使います。Stable-diffusion v1.5に追加しているようです。

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusion 2.1がリリースされ、いくつか試して見たが、どうもクオリティが出ない。 他の人が出しているのを見ると、出るには出るみたいだが…。 なので今回もRedshift diffusion-768.ckptを使用している。 Stable Diffusion2.x系では、ネガティブワードをきちんと入れないとクオリティが出ないのだが、学習データにどういうタグが付いているのか、利用者は知りようがない。 danbooruタグのように、タグ全部が分かっており、

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          redshift-diffusion-768を使ってます。 redshift-diffusion-768の学習時に「redshift style」トークンを使っているので、promptに入れています。

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          redshift-diffusion-768.ckpt が追加されました。 AUTOMATIC1111 WebUIで使う場合は、 redshift-diffusion-768.yaml もckptと同じ所に置きます。

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          redshift-diffusionというモデルを使ってます。

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          こちらのサイトで、Redshift Diffusion 768というモデルを使って出力しています。

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          モデルはStable Diffusion 2.0に追加で学習させた、Redshift Diffusion 768を使用しました。 Stable Diffusionはネガティブプロンプトを適切に入れないとクオリティが出ないというのがredditなどで上がっています。 上のネガティブプロンプトが適切かまでは試せてないです。 カラーグレーディングがかかったような感じの色が出てきます。 今時といえばそうなのですが、ナチュラルな色合いを出したいのですが、調整方法がわからずにいます。

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          redshift-diffusionという、リアルな画像を学習させたモデルを使います。 3DCGは学習データに入っているのは確かですが、人物についても学習データに入ってるのではないかと想像しています。 使用時の注意点としては、3DCG部分と写真部分が合わさって出てきます。例えば顔は写真だが体はCGっぽさが目立つとか、髪の毛だけCGっぽいとかがあります。 また学習データのタグ付けが微妙なのか、制御が効きにくいです。同様にヘアスタイルやメイクなどもタグ付けされておらず、ガチャにな

          Stable Diffusionに学習させたモデルで、リアルな人物画像