見出し画像

ComfyUIでFLUX.1モデルを動かす。

FLUX.1モデルの導入時に躓いたのでメモしておきます。(2024/8/2)

筆者環境:
Windows11
RAM 80GB
i7-12700F
RTX4070ti 16GB

後述しますが、RAMを激しく食います。


(注意!)ComfyUIのダウンロード

筆者が普段使っているバージョンのComfyUIで試そうとしたら、
SamplerCustomAdvancedBasicGuiderRandomNoiseというノードが足りないという表示が出ました。
カスタムノードかと思っていたらビルトインノードが不足しているためだったようで最新のものを使いました。

今回は以下の
"ComfyUI_windows_portable_nvidia_or_cpu_nightly_pytorch.7z"をダウンロードしました。


CLIPモデルのダウンロード

上記の赤で囲ったファイルをダウンロードします。
fp16とfp8のどちらかをダウンロードします。
公式にはRAMが32GB以上あるならfp16の"t5xxl_fp16.safetensors"をすすめていますが、実際にブラウザなど他のアプリも開いているので40GB以上は必要になると思います。
fp8の"t5xxl_fp8_e4m3fn.safetensors"なら以下の通り25GBほどでおさまっています。
生成時のモデルの読み込み時に最大65GBほど読み込んでいて驚きました。

fp16の場合
fp8の場合

ダウンロードしたものはmodelsclipにいれます。


VAEのダウンロード

ダウンロードしたものはmodelsvaeにいれます。


FLUX.1モデルのダウンロード

2つあるようでどちらも20GB越えで激重です。
どちらかをダウンロードしてください。
Schnell は蒸留された 4 ステップ モデルのようです。

ダウンロードしたものはmodelsunetにいれます。


モデル生成

以下がワークフローの画像です。
Flux Dev
https://github.com/comfyanonymous/ComfyUI_examples/raw/master/flux/flux_dev_example.png

Flux Schnell
https://github.com/comfyanonymous/ComfyUI_examples/raw/master/flux/flux_schnell_example.png

1枚生成するのに45秒ほどかかってます。かなり重いですね。
VRAMが常に張り付いているので、4090とか24GB以上あるGPUならもっと早く生成できるんだろう。

上2つがFlux Devで、下2つがFlux Schnell。
Dev
のほうが明らかにいい感じにできるが、まだ研究していないのでよく分からない。


この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?