マガジンのカバー画像

Image Generation

157
運営しているクリエイター

#GoogleColab

【v1.1アプデ】SDXLモデルを半分に圧縮!?モデルをFP8に量子化してストレージを解放せよ!

【v1.1アプデ】SDXLモデルを半分に圧縮!?モデルをFP8に量子化してストレージを解放せよ!

24/08/25 15時頃追記(※スクリプトアプデしました)

 こんな感じで、初期のローカル版のコード実行時に変換前のキャッシュが残るようになっています。C:\Users\ユーザーID\.cache\huggingface\hub\以降のフォルダにリポジトリidフォルダがあったら削除してください。
 コードの改修が終わりましたので、お手数ですがローカル版ご使用の方は改めてダウンロードお願いいたし

もっとみる
Google Colab で FLUX.1 を試す

Google Colab で FLUX.1 を試す

「Google Colab」で「FLUX.1」を試したので、まとめました。

1. FLUX.1「FLUX.1」は、「Stable Diffusion」の開発者たちが立ち上げた「Black Forest Labs」が発表した最新の画像生成AIモデルです。

2. FLUX.1 [dev]「Google Colab」でのFLUX.1 [dev] (ガイダンス蒸留モデル) の実行手順は、次のとおりです

もっとみる
【Google Colab】DALL-Eで一括画像生成!ガチャツールの使い方

【Google Colab】DALL-Eで一括画像生成!ガチャツールの使い方

こんにちは、Shinyaです。

私は普段、DALL-E 3を使ってAI画像を大量に生成しています。

DALL-E 3で画像を生成する方法としてChatGPT Plusがありますが、
ChatGPTのインタフェースだと1つのプロンプトでは1つの画像しか出力することができない。「再生成」ボタンを押せば別の画像も出力できるけど、時間もかかるし、使いすぎると利用制限を食らってしまう。

そこでDALL

もっとみる
ByteDanceの画像生成AIのSDXL-LightningのGoogle Colabでの使い方

ByteDanceの画像生成AIのSDXL-LightningのGoogle Colabでの使い方

ByteDanceといえば、tiktokの会社ですね。そこが、画像生成AIで、軽くて早く実行できるというSDXL-Lightningを出しましたので、Google Colabでの使い方を紹介します。

今回は、Google ColabでA100で上記のコードを少し修正して、画像を30枚作成できるコードとなります。

!pip install diffusersimport torchfrom di

もっとみる
Google Colab で試す Stable Cascade での新時代のテキスト画像生成

Google Colab で試す Stable Cascade での新時代のテキスト画像生成

2024年2月13日、Stability AIより新モデル「Stable Cascade」がリリースされました。
https://ja.stability.ai/blog/stable-cascade

Stable Cascade モデルカードよりこのモデルは、Würstchenアーキテクチャに基づいて構築されており、Stable Diffusionのような他のモデルとの主な違いは、より小さな潜

もっとみる
Google Colab で Stable Cascade を試す

Google Colab で Stable Cascade を試す

「Google Colab」で「Stable Cascade」を試したので、まとめました。

1. Stable Cascade「Stable Cascade」は、「Würstchen」ーキテクチャをベースにした新しいテキスト画像変換モデルです。3段階のアプローチにより、一般消費者向けハードウェアでの学習とファインチューニングが簡単にできます。非商用利用のみを許可する非商用ライセンスの下でリリース

もっとみる
Google Colab で RPG-DiffusionMaster を試す

Google Colab で RPG-DiffusionMaster を試す

「Google Colab」で「RPG-DiffusionMaster」を試したので、まとめました。

1. RPG-DiffusionMaster「RPG-DiffusionMaster」は、マルチモーダル LLM (PRG) によって複雑かつ構成的なText-to-Imageの生成・編集でdiffusionモデルをマスターし、最先端のパフォーマンスを実現するフレームワークです。

核となる戦略

もっとみる
diffusers で LoRA を試す

diffusers で LoRA を試す

「diffusers」で「LoRA」を試したので、まとめました。

1. LoRA「LoRA」(Low-Rank Adaptation)は、AIモデルの効率的な調整やカスタマイズのための手法です。手法は、モデルの重みを直接調整するのではなく、低ランク(小さい次元)の行列を用いてモデルの一部の重みを調整することにより、モデルの振る舞いを変更します。

この手法には、多くの利点があります。

「LoR

もっとみる
Google Colab で Stable Video Diffusion を試す

Google Colab で Stable Video Diffusion を試す

「Google Colab」で「Stable Video Diffusion」を試したのでまとめました。

1. Stable Video Diffusion「Stable Video Diffusion」は、「Stability AI」が開発した画像から動画を生成するAIモデルです。解像度 1024x572 で、14フレーム (2秒) または25フレーム (4秒) の動画を生成します。

2.

もっとみる
diffusers で ControNet の inpaint を試す

diffusers で ControNet の inpaint を試す

「diffusers」で「ControNet」の「inpaint」を試したので、まとめました。

1. ControlNet の inpaint「inpaint」は、画像の一部をマスクして、任意の領域のみ新しい画像を生成させることができる機能です。

2. Colabでの実行「ControlNet」で「inpaint」を行う手順は、次のとおりです。

(1) パッケージのインストール。

# パッ

もっとみる
Google Colab で Stable Diffusion WebUI を試す

Google Colab で Stable Diffusion WebUI を試す

「Google Colab」で「Stable Diffusion WebUI」を試したので、まとめました。

1. Stable Diffusion WebUI「Stable Diffusion WebUI」は、「Stable Diffusion」で画像生成するためのWebUIです。

2. Colabでの実行Colabでの実行手順は、次のとおりです。

(1) Colabのノートブックを開き、メ

もっとみる
ComfyUI で Image-to-Video を試す

ComfyUI で Image-to-Video を試す

「ComfyUI」で Image-to-Video を試したので、まとめました。

前回
1. Image-to-Video「Image-to-Video」は、画像から動画を生成するタスクです。
現在、「Stable Video Diffusion」の2つのモデルが対応しています。

2. Colabでの実行Colabでの実行手順は、次のとおりです。

(1) セットアップ。
前回と同様です。

もっとみる
簡単にSDXLベースの画像が生成できるFooocusの紹介(Colab利用者向け)

簡単にSDXLベースの画像が生成できるFooocusの紹介(Colab利用者向け)

今回は、簡単にSDXLベースの画像生成を行うことができるFooocusを紹介します。
Foocusは、ControlNetを開発したlllyasviel氏が発表した画像生成AIのWebユーザーインターフェイスで、プロンプトを入力して1クリックするだけで簡単にSDXLベースの高精細な画像を生成することができます。

※2024.6.18追記 Animagine XL 3.1を追加しました。
※202

もっとみる
Google Colab で SSD-1B を試す

Google Colab で SSD-1B を試す

「Google Colab」で「SSD-1B」を試したので、まとめました。

1. SSD-1B「SSD-1B」(Segmind Stable Diffusion Model) は、「SDXL」(Stable Diffusion XL) を50% 小型化したバージョンで、高品質のテキストから画像への生成機能を維持しながら60% の高速化を実現します。

2. Colabでの実行Colabでの実行手

もっとみる