- 運営しているクリエイター
記事一覧
【ComfyUI】商用利用可能なFLUX.1[dev]並のモデル登場!OpenFLUX.1を評価してみた
画像生成AIの進化は止まりません。新たに登場した「OpenFLUX.1」は、すでに高評価を得ているFLUX.1-schnellモデルをベースに、「蒸留」を取り除いたことで、さらに高い柔軟性を持ったオープンソースのツールです。従来のモデルが持つ課題を克服しつつ、微調整(ファインチューニング)が可能な設計で、より高品質な画像をわずか数ステップで生成できます。
この記事では、OpenFLUX.1がどの
複雑なデザインの同じキャラを複雑なポーズや構図の中に生成する方法【ほぼ日AI生成Tips #8】 #nijijourney
もうちょっと作り込んだデザインのキャラをシリーズ画像の登場人物として生成したい!!!
イメージを形にすべく研究を行いました。
同キャラ生成の課題同キャラを生成していく場合の課題になってくるのは、複雑なポーズや構図になるほど、キャラクターの描写は薄くせざるを得ません生成時のプロンプトは長くなるほどAIが読みこんでくれるかは運になってきます。
読み込むプロンプトの単語数の限界
プロンプトは長け
【今旬の画像生成AIの比較】特徴と使用感の所感【Midjourney,FLUX-1,StableDiffusion,SeaArt,DALL-E3】
画像生成AIはどれを選べばいいかわからない?
この記事では、主要な画像生成AIの特徴と使い心地について、実際に使ってみた経験と偏見も交えながら比較してみようとおもいます。
あらかじめ言っておきます。
月額払うなら私はMidjourney・Niji journey派です。
MidJourney(ミッドジャーニー)
特徴: アート風や幻想的な画像作りが得意です。クリエイティブな仕事をする人におす
立体視出来るステレオ動画をComfyUIで生成する(mp4変換フロー):Xreal Air用
今回は表題通り、生成したAI動画をxreal airで立体視で見ることが出来るステレオ動画に変換する方法になります。
基本は、前回記事で取り上げたDepth anything2とNegitoolsを使用した方法を使います。
試しに、以前生成したAI動画をステレオ動画化してみたいと思います。
プロパティで、FPS、フレーム数を予め確認しておきます。
この動画だと、10FPSで60フレームでした
そうだ!AI画像生成をちゃんと勉強しよう💡15章:ControlNet その5
ControlNet「Segmentation」「Shuffle」「Tile」
※勉強するのはStable Diffusion、SeaArt系になります。
コントロールネットについては残すところあと3つになりました。
その残りの、「Segmentation」「Shuffle」「Tile」を学んでいきたいと思います。
今日で終わったらいいな~😙
本日も変わらず等身大の私ですよろしくお願いしま
そうだ!AI画像生成をちゃんと勉強しよう💡17章:背景が透過された画像を作る
(20241013 更新)
※勉強するのはStable Diffusion、SeaArt系になります。
AIで生成したかわいい女の子を素材として使いたいって思ったことある人もいるかと思いますが、背景があるため素材としては使いにくいと思います。
そこで今日はローカル環境のStable Diffusionでも背景透過ができる拡張機能を勉強して、AI画像を素材として使うスキルを身につけていきたいと
HuggingfaceにあるSDXL(pony系多め?)モデルの10個紹介@Diffuser形式
今回はHuggingfaceにあるdiffusers形式で公開されているSDXL(pony系多め)のモデルを10個紹介します。
なぜ、civitaiに沢山モデルがあるのにわざわざ紹介するのかというと、2点ほど理由があります。
一つ目はcivitaiのリンクがhuggingfaceのページにあるのですが、調べて見るとすでにcivitaiで公開されていなかったからです。気になりますね。
あとで探すの
画像生成AI「Adobe Firefly」を体験しよう!
まるで未来のクリエイティブ体験がここにあるかのように──
「Adobe Firefly」があなたを新しい世界へと誘います。
テキストを打ち込むだけで、まるで自分の手で描いたかのような美しい画像が目の前に広がる瞬間。
それがこのツールの魅力です。
Fireflyってどんなツール?
「Firefly」は、Adobeが誇る最先端のAI画像生成ツールです。
ユーザーはほんの数行のテキストを入力す
【Krita】ImageFXをアップスケール実験【ai-diffusion】
GoogleのImageFXで生成すると1024x1024解像度の画像を生成できます。それをKrita-ai-diffusionを利用して手動アップスケールしてみます。
まずはImageFXで生成します。
手順は
① 「画像拡大」で2x(SD1.5利用)
② 面倒ですが、解像感の悪い顔をそれぞれ再生成(SD1.5利用)
③ 指はFlux.1でインペイント修正
写真のアップスケールはアイ
【SD Pony】 プロンプト比較 体型編
キャラクターの体型を決定するプロンプトの比較です。
体型は胸の大きさにも強く依存し、一緒に考えた方が良いですが、お胸については別に分けて解説します。
前提条件StableDifussionの基礎がわかっている人向け
使用モデルはPony系です。Pony系の特性を理解していること。ここでは独自マージモデルを使用
手書きによる修正無し(一部の画像に人体の破綻が残っていますが修正していません)
【自作LoRA】自作のキャラLoRAと服LoRAを同時に使用してイラストを生成する②【Stable Diffusion】
zetaと申します。今回は自作した服LoRAを使用して生成するイラストの質を高めるために試した事をまとめてみました。
正直なところ新たな知見は得られませんでしたが、服LoRAの生成方法にある程度自信が持てるようになったので、モチベ向上も兼ねて記事にしようと思います。
やったこと・服LoRAの作成時に教師画像を増やす
・拡張機能を試してみる
・キャラLoRAと組み合わせてイラストを生成する
服L
Flux.1 Lora学習用データセットとForgeのインストール
🌟 FluxのLoraについての補足
解像度の選択と学習時間について
解像度は、Loraを作成する際の重要な要素です。解像度が高ければ高いほど、モデルの学習に時間がかかります。例えば、以下のように解像度を変更した場合の学習時間の比較があります。
🖼️ 512:
低解像度: 画像は少し粗くなります。
学習スピード: 🚀 最速!
精度: 少し低くなる可能性があります。
おすすめ:
SDXLなどのモデルをfp8変換する!@paperspace&ローカルPC
でんでんさんの記事を見てSDXLのfp8変換を試してみました。
スクリプトを公開いただき非常にありがたいです。
SDXLモデルをfp8に変換するのは難しいのかなと勝手に思っていましたので、色々と検証された結果も出されてとても勉強になりました。
公開いただいたスクリプトを参考にpaperspaceで使用するスクリプトを作成してみました。
ローカルPC用は自分向け(ものぐさ用)にカスタマイズしたもので