最近の記事

FLUX.1 w/ Loraで、リアルな人物画像

    • ai-toolkitでのFlax.1 LoRaメモ

      Windows 10でgithubのマニュアルとYouTubeで確認したが、ハマった箇所があったのでメモを残しておく。 書いてある通りだが、リンク先のアクセス権限設定画面で、新規キーを発行して、black-forest-labs/FLUX.1-devを入力して選択し、リード権限をつける。 whatever_you_wantについては、名前は好きにつければいい。 3の実行では、python3となっているが、python run.py config/"自身がつけた名前.yam

      • ComfyUI +FLUX.1+LoRA+VRAM24GBで遅い場合

        Flux.1 devとLoRaを使うと、生成が遅くなる。1枚十数分かかる。 これはLoRaを使うことでVRAM24GBが溢れたことによる。 タスクマネージャでVRAM23.xGBで溢れてないように見えても、通常だと画像生成で負荷がかからない3Dのパーセンテージが上がっている、GPU使用率が高くなっているといったことから確認できる。 これに対応するため、run_nvidia_gpu.batに「–lowvram」を追加すると、VRAMに空きが出来るが、これでも生成が遅くなる。

        • FLUX.1 w/o Loraで、リアルな人物画像

        FLUX.1 w/ Loraで、リアルな人物画像

          SDXLで、リアルな人物画像

          SDXL自体にクオリティ高いのは学習されているようだが、プロンプトは単語ではなく文章で書き、ネガティブプロンプトも効果を確認しながら適用しないと出てこない。 "Japanese"は単純に入れると、戦後の写真のような画像を学習させているのか違和感が出るのは以前のStableDiffusionと同じ。 LoRaはkohya_ssが対応しているようだが、LoRa適用すると画像は変わるが学習画像のようにはならない。 パラメータ値を0.2のように小さくしてLoRaの影響を少なくしよう

          SDXLで、リアルな人物画像

          階層マージのsd-webui-supermergerが分からない

          階層マージが出始めたときに、後で対応しようと思っていたら、ついていけなくなった・・・。 単純なマージはCheckpoint Mergerと同じ(2023/2/24時点)マージする時のMerge Modeが、Checkpoint Mergerより増えているが、これはわかる。 「Merge & Gen」ボタンを押せば、マージした画像が出力される。 どこにPromptを記入するのか、SuperMergerの画面を探してしまったが、txt2imgの何時もの枠に記入するようだ。 こ

          階層マージのsd-webui-supermergerが分からない

          sd-webui-supermerger intall時のメモ

          web-uiのExtensionsタブから、Availableタブにいき、Load fromボタンを押して、一覧にある、sd-webui-supermergerをインストール web-uiの上部のタブに出て来ない場合、diffusersをインストールする必要がある。

          sd-webui-supermerger intall時のメモ

          Illuminati Diffusion v1.0でリアルな人物画像

          Illuminati Diffusion v1.0でリアルな人物画像

          Illuminati Diffusion v1.0でリアルな人物画像

          Illuminati Diffusion v1.0でリアルな人物画像

          Waifu Diffusion 1.5 (WD1.5) Betaがリリース

          Waifu Diffusion 1.5がリリースされたので触ってみました。 リリースノート モデル 少し触っただけなので合ってるかわからないですが、自分がやったことは下記。 チェックポイント「wd15-beta1-fp16.safetensors」と設定ファイル「wd15-beta1-fp16.yaml」 embeddingに「wdgoodprompt」と「wdbadprompt」を追加 新しいタグが追加されたので追加 (waifu, realistic, re

          Waifu Diffusion 1.5 (WD1.5) Betaがリリース

          Stable Diffusion2ベースで学習したIlluminati Diffusion v1.0を試してみた

          embeddingが複数あり、その設定をしています。 プロンプトは過去の記事と同じものを使用しています。

          Stable Diffusion2ベースで学習したIlluminati Diffusion v1.0を試してみた

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Cafe Instagram Unofficial Test v2というモデルを使います。Stable-diffusion v1.5に追加しているようです。

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusion 2.1がリリースされ、いくつか試して見たが、どうもクオリティが出ない。 他の人が出しているのを見ると、出るには出るみたいだが…。 なので今回もRedshift diffusion-768.ckptを使用している。 Stable Diffusion2.x系では、ネガティブワードをきちんと入れないとクオリティが出ないのだが、学習データにどういうタグが付いているのか、利用者は知りようがない。 danbooruタグのように、タグ全部が分かっており、

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          redshift-diffusion-768を使ってます。 redshift-diffusion-768の学習時に「redshift style」トークンを使っているので、promptに入れています。

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          redshift-diffusion-768.ckpt が追加されました。 AUTOMATIC1111 WebUIで使う場合は、 redshift-diffusion-768.yaml もckptと同じ所に置きます。

          Stable Diffusion2.0に学習させたモデルで、リアルな人物画像

          Stable Diffusionに学習させたモデルで、リアルな人物画像

          redshift-diffusionというモデルを使ってます。

          Stable Diffusionに学習させたモデルで、リアルな人物画像