Animagine XLをGoogle Colabで試す
Animagine XLはSDXL 1.0からの派生モデルです。
モデル
アニメスタイルの画像を厳選して学習されたモデル。
Google Colabで試す
すぐに試す
「ランタイム」から「すべてのセルの実行」で実行
ランタイムはGPUに設定されています。
もし設定されていなければ「ランタイム」▶「ランタイム設定」▶「T4 GPU」▶「保存」
コード
ライブラリのインストール▼
!pip install -q --upgrade diffusers invisible_watermark transformers accelerate safetensors
パイプラインでAnimagine XLモデルを準備▼
from diffusers import DiffusionPipeline, EulerAncestralDiscreteScheduler
import torch
# model = "stabilityai/stable-diffusion-xl-base-1.0"
model = "Linaqruf/animagine-xl"
pipe = DiffusionPipeline.from_pretrained(
model,
torch_dtype=torch.float16,
use_safetensors=True,
variant="fp16")
pipe.scheduler = EulerAncestralDiscreteScheduler.from_config(pipe.scheduler.config)
pipe.to("cuda")
# cpuモード
# pipe.enable_model_cpu_offload()
画像生成▼
import matplotlib.pyplot as plt
prompt = "masterpiece, best quality, girl, cute, gray hair, long, yellow eyes, black dress, upper body"
negative_prompt = "lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry"
# デフォルトサイズ(1024x1024)
image = pipe(
prompt,
negative_prompt=negative_prompt,
guidance_scale=12,
num_inference_steps=25
).images[0]
image.save("output.png")
plt.imshow(image)
plt.axis('off')
生成画像
ネガティブは「lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry」で統一しています
この記事が気に入ったらサポートをしてみませんか?