マガジンのカバー画像

Stable Diffusion 基礎

17
Stable Diffusionの操作説明のメモです。
運営しているクリエイター

#AIイラスト

顔や手の崩れを防ぐ『ADetailer』の使い方

AdetailerとはADetailerは、顔や手の崩れを自動で修正してくれる拡張機能です。ADetailerを使うことで仕上がりのクオリティが格段に上がります! Adetailerのインストール①「拡張機能」➡︎②「URLからインストール」をクリック ③の「拡張機能のリポジトリのURL」に以下のURLを入力する https://github.com/Bing-su/adetailer.git ④の「インストール」ボタンを押すとインストールが開始します。 次に、「拡

生成の品質を簡単に高める『Embedding』の使い方 |Stable Diffusion

Embeddingとは?『Embedding』は、長文のネガティブプロンプトの記述を省くことができる追加学習機能です。 Embeddingを使うことで、簡単に手の崩れや悪い品質の生成を避けることができます。 👇上側がEmbeddingを使わずに生成した画像で、下側がEmbeddingのモデルを使用して生成した画像になります👇 EmbeddingのダウンロードCIVITAIのサイトからEmbeddingのファイルをダウンロードします。👇 ①CIVITAIページの右上「Fi

【Stable Diffusion】画面説明 / 名称の基本

Stable Diffusion-web UIの画面の見方についてのメモ。 Stable Diffusionの操作画面の見方"txt2img"タブについて txt2img 🟰 text to imageの略称 🟰 テキストから画像を生成するという意味合い。 ①Stable Diffusionのcheckpoint学習済みのモデルデータを切り替えられる。 モデルの選択によって生成される結果が大きく変わる。例えばアニメ調・より人間に近いリアルなテイスト・ディズニー調など様

ControlNetの導入と画面説明 / Stable Diffusion

ControlNetとはイラストの生成結果を、自在に制御することができるニューラルネットワークのこと。 ContorolNetを利用すれば、思い通りのポーズや着色を加えたイラスト生成ができる。 例えば、棒人間のポーズからイラストの生成が可能。 ControlNetのインストール操作画面の上タブ「①拡張機能」➡︎「②URLからインストール」をクリック 「③拡張機能のリポジトリのURL」に以下のURLを入力 https://github.com/Mikubill/sd-

ControlNetのモデルの種類・使い方14つ / Stable Diffusion

ContorolNetのモデルの種類と各々の使い方についてのメモです。 輪郭抽出(線画)でポーズしたい時 / canny初心者でも使いやすく、一番忠実にポーズ指定ができる。 人物などの輪郭を保ったまま、プロンプトで一部分を変更したい時にもおすすめ。 プリプロセッサ:canny モデル:control_canny-fp16 ポーズに加えて、顔や髪型・服装も類似して生成しやすい。 抽出された輪郭画像も同時に出力されるため、保存をして画像を再利用できる。 アップロードした画

括弧を使ったプロンプトの書き方 / Stable Diffusion

括弧を使ったプロンプトの基本的な書き方メモ。 (word) ((word)) (word:○○) [word] 通常のプロンプトとネガティブプロンプトにも記述ができる。 (word)括弧を使うことで、指定のプロンプトを強調するよう命令することができる。 括弧のついた指示をAIが優先し、より強調して生成してくれる。 プロンプトの記述が長くなるほど、どの単語を優先するかAIが迷ってしまい、指示通りにならない場合がある。 そんな時に括弧をつけてプロンプトを強調させる。

モデルの使い方・商用利用の基礎 / Stable Diffusion

モデルのダウンロード方法、Stable Diffusion webUIにモデルをインストールする方法、商用利用についてなどの基礎をメモ。 モデルのダウンロードCIVITAIのサイトからダウンロード可能。↓ 1、ダウンロードしたいモデルをクリック 2、モデルのバージョンを選択 3、downloadボタンをクリック モデルをwebUIにインストールする方法ファイルstable-diffusion-webui>models>Stable-diffusionにダウンロードし

LoRAの使い方 / Stable Diffusion

LoRAとは追加学習によって、イラストの生成結果を微調整する機能のこと。 LORAを使用することで、背景や洋服・ポーズなど、自分の思う通りに指定できやすくなる。 LoRAのモデルはCivitaiで配布されている↓ LoRAでできることそれぞれの例を紹介します。 1、画風の指定 アニメ調やアート調、フィルム写真風などの画風の指定ができる。 例①)) 3Dアニメ調のLoRAモデル↓ モデル名:3D rendering style 例②)) フィルム写真風のLoR

アニメーションの作り方 / Stable Diffusion

Mov2MovとControlNetを使ってアニメーションを制作する方法のメモ。 『mov2mov』は、既存の動画からAI動画を生成できる技術のこと。 Mov2Movのインストール方法拡張機能 → URLからインストール → 拡張機能のリポジトリのURLに、 https://github.com/Scholar01/sd-webui-mov2mov を入力して、インストールボタンを押す。 設定タブをクリック 左側メニューからControlnetをクリックし、「他の

LyCORISの使い方 / Stable Diffuison

"LoRA"の上位互換である『LyCORIS』の使い方メモ。 LyCORISとはLoRAのように、モデルに対して追加学習を行なうことができる機能。 本体のモデルに対して、洋服やポーズ・構図などを追加で変化を与えることができる。 上記はHassakuというモデルに、「キスをする」というLyCORISを追加学習させています。 LoRAよりもファイルサイズが小さく扱いやすいのが特徴。 LyCORISのインストール方法拡張機能 → URLからインストール → 拡張機能のリポジ

一括で編集できる『バッチ処理』のやり方 / Stable Diffusion

一括で複数画像をまとめて指示できる、『バッチ処理』のメモ。 作業を格段に効率化できます。 バッチ処理の流れimg2imgのタブをクリック → バッチをクリック バッチ処理したい画像を用意する。 今回は以下のリアル系モデル画像4枚を、アニメ系モデルに一括で変換していく。 /stable-diffusion-webui/outputs/txt2img-imagesのファイルの中に、 ①バッチ処理したい画像が入ったファイル ②バッチ処理後の保存先のファイル の2点を追加す

animateDiffでアニメーションを生成する方法 / Stable Diffusion

AnimateDiffとは1枚の画像から一貫性のある動画を生成できる技術のこと。 実際に下記のアニメーションを生成してみた。 このように、画像1枚を用意するだけで自動的に波や風、人の動きなどのアニメーションを生成してくれる。 AnimateDiffのインストール方法拡張機能 → URLからインストール → 拡張機能のリポジトリのURL → 以下のURLを入力してインストールを押す。 https://github.com/continue-revolution/sd-we