Catapp-Art3D

3Dアート作品や3Dモデルデータも扱っています。最近は専らAIを利用した作品が多いです…

Catapp-Art3D

3Dアート作品や3Dモデルデータも扱っています。最近は専らAIを利用した作品が多いです。 ※ BOOTHにて各種販売も行なっております。 https://lit.link/catappart3d

メンバーシップに加入する

3Dモデルや写実的なAI画像の実戦テクニックやノウハウをアップしていきます。

  • ベーシックプラン

    ¥1,000 / 月
    初月無料

マガジン

  • ブログ

    Catapp-Art3Dのブログです。

  • Blender + Stable Diffusion

    Catapp-Art3D の Blender + Stable Diffusion 記事をまとめたものです。

  • AI画像生成入門

    Catapp-Art3D の入門者向けの記事をまとめています。

  • AI生成画像作品

    Catapp-Art3D の作品をまとめています。

  • Linux の記事

    Catapp-Art3D の Linux の記事をまとめました。

最近の記事

  • 固定された記事

AI画像生成&修正テクニック

はじめにこの note では、筆者が(写実的な)3DやAI画像作品を製作する時に利用している手法やテクニックを紹介していきます。 AI系ソフトウェアの設定やインストール、最新情報は、ネット上に溢れるようになったので、より作品製作時の実践的な内容や工夫に特化したいと思います。 生成画像や画像加工等のウェブサービスを利用せずに、ローカル環境の(オープン)ソフトウェア を利用します。ローカル環境を利用する事で、理不尽な制限や制約に縛られず作業に集中する事ができます。 ※ と

    • 【SLM】Gemma2-2B-JPN-ITを使ってみた話【軽量モデル】

      はじめにGoogleのLLM Gemma2の日本語版(2Bモデル)を使ってみました。 Gemma2の日本語チューニングモデルで、非常に軽量な2Bモデルです。4GB程度のGPUメモリ(VRAM)でも十分動作します。 ※ GemmaはGoogle Geminiと同じ技術のオープンモデルとされているものです。 Google公式huggingfaceページはこちら 実際に筆者が試した(alfredplpl氏によって量子化GGUFされた)モデルはこちら、 一般にLLM(Lar

      • 結局、生成AIの2D形状修正ツールはBlenderが最強だと思う話

        はじめに生成AIが世に出始めた初期から利用していた手法なのですが、AIで生成した2D画像の形状を修正するツールとして、Blender(3Dモデリングソフトウェア)を超えるものがありません。 この記事では、Blenderのメッシュ修正手法を利用して、AIで生成した2D画像を編集する方法を紹介します。 ※ 付録の有料欄に利用したBlenderのファイルを添付しています。記事支援いただける場合はよろしくお願いします。 ワークフロー例としてimg2imgを利用した「アニメ調」→

        • 【SD3.5】Stable Diffusion 3.5 mediumを使ってみた話【medium】

          はじめにSD3.5のmediumモデルがダウンロード可能になったので、ローカルで使ってみました。※ RTX3060(12GB) Largeモデルは下記事です。 ComfyUIワークフロー今回もこちらの説明通りに導入しました。 しかし、トラブりました。 原因はComfyUIのアップデートが失敗していた事ですが、ComfyUI Manager経由でのアップデートが(何故か)上手く機能していませんでした。 その事に気づかず、全く別のエラー切り分けをしていたので時間を無駄に

        • 固定された記事

        AI画像生成&修正テクニック

        マガジン

        • ブログ
          103本
        • AI画像生成入門
          57本
        • Blender + Stable Diffusion
          18本
        • AI生成画像作品
          29本
        • Linux の記事
          21本

        メンバー特典記事

          結局、生成AIの2D形状修正ツールはBlenderが最強だと思う話

          はじめに生成AIが世に出始めた初期から利用していた手法なのですが、AIで生成した2D画像の形状を修正するツールとして、Blender(3Dモデリングソフトウェア)を超えるものがありません。 この記事では、Blenderのメッシュ修正手法を利用して、AIで生成した2D画像を編集する方法を紹介します。 ※ 付録の有料欄に利用したBlenderのファイルを添付しています。記事支援いただける場合はよろしくお願いします。 ワークフロー例としてimg2imgを利用した「アニメ調」→

          結局、生成AIの2D形状修正ツールはBlenderが最強だと思う話

          【Ollama】ComfyUIでLLMを使う方法

          はじめに筆者も好んで利用しているComfyUIの「comfyui-ollama」カスタムノードですが、 利用している人が少ないようなので、簡単な使い方の記事をあらためて書いてみました。 何が出来るのか?ComfyUIでローカルLLMを利用する事ができます。例えば、プロンプトを自動で作成したり、画像を読み取って文字として記述させてプロンプトにする事ができます。 ※ LLMとはLarge Language Modelの事で、ChatGPTのような事ができるAIモデルです。

          【Ollama】ComfyUIでLLMを使う方法

          【GGUF変換】llama.cppでGGUF変換する方法【ローカルLLM】

          はじめに【注意】支援者(メンバーシップ)向け記事になります。記事の量に対して少し割高の価格で設定していますのでご注意ください。※ 初月無料設定していますので、ご気軽にご参加ください。すべての有料記事が閲覧可能です。 下記事で紹介したLlama 3.1 Swallow 8B Instructが予想以上に高性能で使いやすいので、Swallow LLMモデルをGGUF変換した作業の記録を紹介します。 GGUFフォーマットとはGGUF(GGML Universal Format

          【GGUF変換】llama.cppでGGUF変換する方法【ローカルLLM】

          【初級&中級】Linux Mintで生成AIサーバーを作ろう!【LLM&画像生成】

          はじめにこの記事では、Linux Mint 22 Cinnamonを利用して、さまざまな生成AIを利用可能にするLinuxサーバーの構築方法を【初級&中級者向けに】解説したいと思います。 クラウドを使わずにローカルでAI生成を行いたいと考えているものの、現在使用しているパソコンのGPU性能が不足しているため新しいPCの購入を検討している方も多いと思います。しかしパソコン環境を変えたくない場合や、仕事に影響が出ることを懸念して、不要なソフトウェアの導入を避けたいという方もい

          【初級&中級】Linux Mintで生成AIサーバーを作ろう!【LLM&画像生成】

          【Flux.1】Flux.1時代のローカルAI画像生成④【SD1.5】

          下記事の続きです。 はじめにFlux.1の最大の弱点は遅い・重いなので、今回もSD1.5を利用した工夫を紹介したいと思います。 Flux.1用LoRA学習環境も整いつつあり、16GBや12GBのGPUでもなんとか学習できるようになっていますが、(ミドルクラスの)GPUでは、現実問題としてまだまだ難しいです。そこで、軽くて品質も高いSD1.5のLoRAを工夫してFlux.1に適用させる方法を考えてみました。 工学の数値計算手法には、連成解析という手法があります。複数の物理

          【Flux.1】Flux.1時代のローカルAI画像生成④【SD1.5】

          【bash】LLMを利用したオリジナルコマンド【Linux】

          はじめにLLMはWebインターフェースで利用する事が一般的ですが、ローカルLLMをシェルと組み合わせて利用するとさらに便利になります。 もちろん開発者や技術者であれば、Python言語で直接利用する方法もありますが、ollamaを利用する事でプログラミングに精通しない人でも簡単なコマンドを作る事ができます。 インストールは、Windowsの場合は「OllamaSetup.exe」実行、Linuxの場合は「curl -fsSL https://ollama.com/inst

          【bash】LLMを利用したオリジナルコマンド【Linux】

        記事

          【Flux.1】プロンプトのみで生成したAI画像作品集【SD1.5】

          はじめにあまり日本風に拘らずに、(欧米産AIモデルで)得意そうな画風で生成しました。 下記手法で生成したものです。※ 簡単に説明するとFlux1→SD1.5→Flux1→SD1.5の順で交互にimg2imgを行い、それらの繋ぎのプロンプトをLLMで生成しています。 利用した主なAIモデルは以下です。 flux1-schnell-fp8.safetensors(Flux.1 Schnell) realisticVisionV51_v51VAE.safetensors(S

          【Flux.1】プロンプトのみで生成したAI画像作品集【SD1.5】

          【Ollama】ComfyUIでLLMを使う方法

          はじめに筆者も好んで利用しているComfyUIの「comfyui-ollama」カスタムノードですが、 利用している人が少ないようなので、簡単な使い方の記事をあらためて書いてみました。 何が出来るのか?ComfyUIでローカルLLMを利用する事ができます。例えば、プロンプトを自動で作成したり、画像を読み取って文字として記述させてプロンプトにする事ができます。 ※ LLMとはLarge Language Modelの事で、ChatGPTのような事ができるAIモデルです。

          【Ollama】ComfyUIでLLMを使う方法

          AI時代のキーボードタイピング力について考えてみた話

          はじめにChatGPTなどの対話型AIの利用が一般的になった現代で、意外とも、当然とも注目されているのが「キーボード・タッチタイピング力」です。 パソコンよりもスマホ利用者の方が多くなり、音声認識も実用的な現代において、時代に逆行するような形で、キーボードタイピング力が再度注目されています。 そこで、AI時代のタッチタイピング力に関して【妄想】してみました。 AIと情報のキャッチボールAIチャットを行う時、AIへ指示を出す時、リアルタイム画像生成を行う時に、高速に文字情

          AI時代のキーボードタイピング力について考えてみた話

          【SD3.5】いろいろ実験してみた話【Flux.1&SD1.5】

          はじめにStabilityAIが公表しているベンチマークでは、Prompt Adherence(プロンプト追従性)がFLUX.1(dev)を超えているという事なので、構図作成に利用できるか試してみました。 手法下記事の手法で、SD3.5スタートにしたものです。 SD3.5→Flux1→SD1.5→Flux1→SD1.5の順にimg2imgを繰り返しています。 生成結果

          【SD3.5】いろいろ実験してみた話【Flux.1&SD1.5】

          SD3.5を動かした話

          はじめにとりあえず、ローカルでSD3.5を動作させただけの記事です。※ RTX3060(12GB) こちらの説明通りに導入しました。 ComfyUIワークフロー生成画像まとめMediumモデルはまだ利用できないようですが、規模やクオリティで競合するモデルはFlux.1でしょう。SD3よりは明らかに良くなっていますが、全体的なクオリティはFlux.1(dev)と同等程度だと思います。今のところは突出した特徴はなさそうですが、人間の手はFlux.1が圧勝のようですね。

          SD3.5を動かした話

          【Flux.1】やっぱりFlux.1のLoRAは必要ないかも【SD1.5】

          はじめにFlux.1→SD1.5(with LoRa)を交互にimg2imgする手法で作成したものです。 生成結果SD1.5スタートです。SD1.5→Flux.1→SD1.5→Flux1→SD1.5で、Flux.1モデルはSchnellのGGUF版(4step)を利用しています。 まとめFlux.1 Schnell GGUF版でも品質はほとんど変らないようです。 利用しているAIモデルは以下のものですが、それぞれが欠点を補い合っているように思います。 Stable D

          【Flux.1】やっぱりFlux.1のLoRAは必要ないかも【SD1.5】

          「YouTube動画に「カメラで撮影」表示開始 C2PAでAI不使用を明示」 https://www.itmedia.co.jp/news/articles/2410/16/news138.html AI動画をC2PAカメラで撮影したらどうするの?と小学生並の疑問で調べると、「エアギャッピングを防ぐための検出手段の開発を進めています」とありました

          「YouTube動画に「カメラで撮影」表示開始 C2PAでAI不使用を明示」 https://www.itmedia.co.jp/news/articles/2410/16/news138.html AI動画をC2PAカメラで撮影したらどうするの?と小学生並の疑問で調べると、「エアギャッピングを防ぐための検出手段の開発を進めています」とありました

          【Flux.1】食べ物系AI生成画像【SD1.5】

          はじめに下記事の手法で生成した画像です。ただし、Flux.1(dev)×SD1.5ではなく、Flux.1(schnell)×SD1.5(realisticvision-v5)です。初期解像度は1280x720、最終解像度は2560x1440ですが、1920x1080に縮小しています。 ※ 単純に生成時間短縮のためにschnell 4stepにしました。クオリティ重視ならdevの方がよくなりますが、最後がSD1.5なので大きく変わりません。どの画像も3分程度です(RTX 30

          【Flux.1】食べ物系AI生成画像【SD1.5】

          【Uncensored】脱獄LLMの葛藤【子猫を救う】

          はじめにLLMの脆弱性と表現されるプロンプト・インジェクションですが、脱獄LLMで利用されるシステムプロンプト(AIの基本役割を決めるプロンプト)にもよく見られます。 LLMは近年急激に性能が上がり、まるで人間のように振る舞いますが、それでも内部では、まだまだ数学的なモデルの縛りを受けています。文章を構成する単語をトークンというベクトルに分割し、それらが構成する空間の方向や重み分布(attention)、距離を利用して確率的に新たに文章を生成するという数学モデルです。 実

          【Uncensored】脱獄LLMの葛藤【子猫を救う】

          【LLM】Ollama利用のCopilot Page Assist機能拡張を使ってみた話【ブラウザ機能拡張】

          はじめにFirefoxのアドオン「Page Assist」を利用したレビューです。Ollamaをバックエンドとして、ローカルLLMを利用したブラウザ用AI Copilot機能として利用できます。 Microsoft Edge Copilotのローカル動作版と考えると分かりやすいかもしれません。 以前から使ってチェックしていたのですが、動作が不安定だった事と、ローカルLLMの日本語環境が整っていなかったので実用性は皆無でした。しかし、LLM日本語環境が充実してきた事で、ロー

          【LLM】Ollama利用のCopilot Page Assist機能拡張を使ってみた話【ブラウザ機能拡張】

          【Flux.1】Flux.1時代のローカルAI画像生成④-4【SD1.5】

          はじめに下記事の続きです。(※ 詳細は前回に記述しています) Flux.1(schnell)の結果も悪くありませんでした。仕上げがSD1.5となるため、devと変らないかもしれません。Flux.1(dev)×SD1.5の連成の場合は7分弱ですが、Schnellが4ステップで生成できるので、Flux.1(schnell)×SD1.5は3分30秒でした。 結果まとめSchnellのメリットは、速度とライセンスの緩さです。デメリットは、コミュニティのモデル・バリエーションが少な

          【Flux.1】Flux.1時代のローカルAI画像生成④-4【SD1.5】

          【Flux.1】Flux.1時代のローカルAI画像生成④-3【SD1.5】

          はじめに下記事の続きです。 広範囲にテストを行ってみたのですが、Flux.1とSD1.5を交互に生成する手法は、汎用的にかなり良い結果を出すようです。さらに良くなるようにComfyUIのノードを作り直しました。 本記事のComfyUI jsonファイルは過去の下記事の付録欄にてダウンロードできます。 生成例Flux.1(pro)を利用できるサイトのひとつhttps://fluxai.studio/ja/showcasesで紹介されているプロンプトで試します。 アップ

          【Flux.1】Flux.1時代のローカルAI画像生成④-3【SD1.5】