マガジンのカバー画像

Stable Diffusion 基礎

17
Stable Diffusionの操作説明のメモです。
運営しているクリエイター

記事一覧

顔や手の崩れを防ぐ『ADetailer』の使い方

AdetailerとはADetailerは、顔や手の崩れを自動で修正してくれる拡張機能です。ADetailerを使うことで仕上がりのクオリティが格段に上がります! Adetailerのインストール①「拡張機能」➡︎②「URLからインストール」をクリック ③の「拡張機能のリポジトリのURL」に以下のURLを入力する https://github.com/Bing-su/adetailer.git ④の「インストール」ボタンを押すとインストールが開始します。 次に、「拡

生成の品質を簡単に高める『Embedding』の使い方 |Stable Diffusion

Embeddingとは?『Embedding』は、長文のネガティブプロンプトの記述を省くことができる追加学習機能です。 Embeddingを使うことで、簡単に手の崩れや悪い品質の生成を避けることができます。 👇上側がEmbeddingを使わずに生成した画像で、下側がEmbeddingのモデルを使用して生成した画像になります👇 EmbeddingのダウンロードCIVITAIのサイトからEmbeddingのファイルをダウンロードします。👇 ①CIVITAIページの右上「Fi

類似画像を生成できる『IP-Adapter』の使い方 / Stable Diffusion

『IP-Adapter』とは指定した画像をプロンプトのように扱える技術のこと。 細かいプロンプトの記述をしなくても、画像をアップロードするだけで類似した画像を生成できる。 実際に下記の画像はプロンプト「1girl, dark hair, short hair, glasses」だけで生成している。 イラストだけでなくアニメーションの生成時にも役立ちます。 ControlNetの導入IP-Adapterを使うためには、ControlNetの拡張機能を導入する必要があります

ランダムで一括生成できる、『ワイルドカード』の使い方 / Stable Diffusion

便利すぎる"ワイルドカード"とはポーズや髪色・洋服などを色んなパターンで生成したいとき、毎回プロンプトを記述するのはとても面倒。 そんな時に"ワイルドカード"を使えば、ランダムに複数のプロンプトを組み合わせて自動で生成してくれる。 たとえば"髪色"の場合、「黒色、ピンク色、ブロンド色、グレー色」 "洋服"の場合、「水着、ワイシャツ、ワンピース、ドレス、制服」 など記述したプロンプトの中からランダムに組み合わせて生成してくれるイメージです。 Dynamic prompts

【Stable Diffusion】画面説明 / 名称の基本

Stable Diffusion-web UIの画面の見方についてのメモ。 Stable Diffusionの操作画面の見方"txt2img"タブについて txt2img 🟰 text to imageの略称 🟰 テキストから画像を生成するという意味合い。 ①Stable Diffusionのcheckpoint学習済みのモデルデータを切り替えられる。 モデルの選択によって生成される結果が大きく変わる。例えばアニメ調・より人間に近いリアルなテイスト・ディズニー調など様

ControlNetの導入と画面説明 / Stable Diffusion

ControlNetとはイラストの生成結果を、自在に制御することができるニューラルネットワークのこと。 ContorolNetを利用すれば、思い通りのポーズや着色を加えたイラスト生成ができる。 例えば、棒人間のポーズからイラストの生成が可能。 ControlNetのインストール操作画面の上タブ「①拡張機能」➡︎「②URLからインストール」をクリック 「③拡張機能のリポジトリのURL」に以下のURLを入力 https://github.com/Mikubill/sd-

ControlNetのモデルの種類・使い方14つ / Stable Diffusion

ContorolNetのモデルの種類と各々の使い方についてのメモです。 輪郭抽出(線画)でポーズしたい時 / canny初心者でも使いやすく、一番忠実にポーズ指定ができる。 人物などの輪郭を保ったまま、プロンプトで一部分を変更したい時にもおすすめ。 プリプロセッサ:canny モデル:control_canny-fp16 ポーズに加えて、顔や髪型・服装も類似して生成しやすい。 抽出された輪郭画像も同時に出力されるため、保存をして画像を再利用できる。 アップロードした画

高画質化のやり方 / Stable Diffusion

Stable Diffusionで高画質化(アップスケール)するやり方のメモ。 以下の3つのアップスケール方法を比較してみた。 Hires.fix MultiDiffusion Extras ①Hires.fixの使い方画像の破綻や画質の劣化を抑えて、高解像度の画像を生成することができる。 もとから導入されている機能で、拡張機能をインストールする必要がない。 また、元絵を一番忠実に再現しながらアップスケールしてくれる。 使い方の流れ Hires.fix(高解像度

括弧を使ったプロンプトの書き方 / Stable Diffusion

括弧を使ったプロンプトの基本的な書き方メモ。 (word) ((word)) (word:○○) [word] 通常のプロンプトとネガティブプロンプトにも記述ができる。 (word)括弧を使うことで、指定のプロンプトを強調するよう命令することができる。 括弧のついた指示をAIが優先し、より強調して生成してくれる。 プロンプトの記述が長くなるほど、どの単語を優先するかAIが迷ってしまい、指示通りにならない場合がある。 そんな時に括弧をつけてプロンプトを強調させる。

モデルの使い方・商用利用の基礎 / Stable Diffusion

モデルのダウンロード方法、Stable Diffusion webUIにモデルをインストールする方法、商用利用についてなどの基礎をメモ。 モデルのダウンロードCIVITAIのサイトからダウンロード可能。↓ 1、ダウンロードしたいモデルをクリック 2、モデルのバージョンを選択 3、downloadボタンをクリック モデルをwebUIにインストールする方法ファイルstable-diffusion-webui>models>Stable-diffusionにダウンロードし

モデルを混ぜる『マージ』のやり方 / Stable Diffusion

複数のモデルを混ぜ合わせることができる「マージ(merge)」のやり方についてのメモ。とっても簡単。 実際に、実写系のモデルとアニメモデルを混ぜ合わせた例です☝️ マージのやり方の流れモデルはCivitaiからダウンロードする。 ①Checkpoint Mergerのタブをクリック ②マージしたいモデルを選択する 3つまで選択できるが、コツがいるため最初は2つがおすすめ。 今回はアニメ調とリアルな実写モデルをマージする。 使用したモデル↓ ③マージ後のモデルに適

LoRAの使い方 / Stable Diffusion

LoRAとは追加学習によって、イラストの生成結果を微調整する機能のこと。 LORAを使用することで、背景や洋服・ポーズなど、自分の思う通りに指定できやすくなる。 LoRAのモデルはCivitaiで配布されている↓ LoRAでできることそれぞれの例を紹介します。 1、画風の指定 アニメ調やアート調、フィルム写真風などの画風の指定ができる。 例①)) 3Dアニメ調のLoRAモデル↓ モデル名:3D rendering style 例②)) フィルム写真風のLoR

アニメーションの作り方 / Stable Diffusion

Mov2MovとControlNetを使ってアニメーションを制作する方法のメモ。 『mov2mov』は、既存の動画からAI動画を生成できる技術のこと。 Mov2Movのインストール方法拡張機能 → URLからインストール → 拡張機能のリポジトリのURLに、 https://github.com/Scholar01/sd-webui-mov2mov を入力して、インストールボタンを押す。 設定タブをクリック 左側メニューからControlnetをクリックし、「他の

比較画像を作れる"スクリプト"の使い方 / Stable Diffusion

下記のような比較画像が作成できる「スクリプト(script)」の使い方メモ。 一度にまとめて比較できるので、とても便利。 スクリプトには3つの機能がある。 ①プロンプトマトリックス図(Prompt matrix)異なったプロンプトの比較画像が作れる機能。 このスクリプトを使用する時には、プロンプトにパイプライン(|)を使用する。 ▼ プロンプトの例↓ 「ブロンドヘア」と、「黄色い花を敷き詰めた背景」のプロンプトを追加した。 この場合、以下の4パターンの画像が生成される