shiba*2

Stablediffusionで、Ai画像を作成するのを趣味にしています。 AIアニメ…

shiba*2

Stablediffusionで、Ai画像を作成するのを趣味にしています。 AIアニメ作成関連では、DeforumやAnimateDiffたまにLLM関連の記事を作成しています。最近の流行りはdeforumで叡智系のアニメーション作成です。AIピクターズさんに投稿してます。

マガジン

  • Deforumの記事まとめ

    Deforumについて記載した記事を集めました

  • Paperspaceがらみの記事まとめ

    Paperspaceがらみの記事をまとめました

最近の記事

  • 固定された記事

SD-webui-ForgeのブランチxDepth FM : paperspaceのコマンドと検証的なもの

最近、Forgeのアップデートがあまりありませんよね(2024/3末時点)。 Githubページを見ると、作者の方が非常に忙しいようです。これだけ優秀なアプリをたくさん開発出来る方ですから仕方がないのかもしれません。 そういった中で、他の方が作成したいくつかのブランチがあります。 その中で、新しいDepthプリプロセッサーを入れたブランチがあり、それを試してみるコマンドを作成しました。 修正点がいくつかあったため、コマンド全体を修正しています。 一時ディレクトリでの使用を前

    • Ponydiffusion系のモデルについての備忘録的なもの(2024/5)

      Civitaiでどんどん増殖しているPonydiffusion系のモデルについての備忘録です。 アニメーション作成によく使用させていただいています。 この記事では、polydiffusionについて詳細な説明をすることはなく、ただ自分の使っている部分のみを記載したものになります。 上のリンクにpolydiffusion系について説明されています。 最初の文をみると「NSFW系の豊富な知識を持ったモデル」とあります。 要するにそういうものを希望する人は使ってねということでしょ

      • PaperspaceのGPU争奪戦のPowerAutomateコマンドについて雑感

        前回記事を公開してから試行錯誤をして、感じた事を適当に書き綴ります。 Powerautomateは、それぞれの操作を具体的にコマンドとして準備する必要がありますので、それまで直感的にやっていたことと若干のずれがあり、その摺り合わせみたいなのにたどり着くのに時間がかかりました。 フローを検討している中で、改めて分かったこととてしは、paperspaceのGPU取得に関しては、2パターンあり、それぞれフローが異なることです。 それを前の記事では混同してましたので分かりにくか

        • A1111:v1.80インストールコマンド(一時ディレクトリ用):VRAM消費検証とReforumの使用雑感:2024/5版

          以前の記事で、ReforumというDeforumの実験的なブランチの紹介をしました。Forgeでも使用可能なのですが、A1111だとコントロールネットも使用出来るため、その方法について模索していました。 表題にあるように、最新のA1111のバージョンはv1.93なのですが、その特徴の一つである、「サンプラー」と「スケジューラー」を分けて設定するという機能に対応していません。 そのため、「サンプラー」だけ選ぶという形になると画像が劣化してしまうパターンが発生してしまいます。 そ

        • 固定された記事

        SD-webui-ForgeのブランチxDepth FM : paperspaceのコマンドと検証的なもの

        • Ponydiffusion系のモデルについての備忘録的なもの(2024/5)

        • PaperspaceのGPU争奪戦のPowerAutomateコマンドについて雑感

        • A1111:v1.80インストールコマンド(一時ディレクトリ用):VRAM消費検証とReforumの使用雑感:2024/5版

        マガジン

        • Paperspaceがらみの記事まとめ
          12本
        • Deforumの記事まとめ
          27本

        記事

          ReforumというDeforumの実験的ブランチを試してみた話(UI紹介編)

          DeforumのDiscordでReforumというブランチがあることが言及されています。GithubのHPの最初に、作者の方が追加した機能について言及しているのですが、とりあえず個性的でユニークな印象でした。 面白そうだったので、インストールをしてみたいと思います。 Sd-webui-forgeでインストールしています。Automatic 1111でも使用可能とのことです。 今回はインストールと、UIの紹介のみにします。 インストールは、Extensionsの「Inst

          ReforumというDeforumの実験的ブランチを試してみた話(UI紹介編)

          PaperspaceのGPU争奪戦をPowerAutomateで自動化するフローを作成して試してみる

          このX(Twitter)の投稿にある方法について検討してみました。 Paperspace民としては、GPUの争奪戦は面倒ですよね。これが自動化されるなら、その時間は別のことが出来るのでとても有用だと思います。 このXの投稿では、私のような素人では再現が難しかったのですが、リプライを見ると再現可能な様です。 個人的に色々と試行錯誤した結果、まだ不十分なところはありますが、若干別なやり方で自動化的なのは出来るようになりましたので、色んなアプローチがある印象です。 この手順

          PaperspaceのGPU争奪戦をPowerAutomateで自動化するフローを作成して試してみる

          新しいSDXL用のコントロールネットモデルを試してみた:MistoLine(2024/5)

          Mistolineは、先日発表されたSDXL用のコントロールネットモデルになります。 ラインアート系のモデルになりますが、紹介ページの画像を見ると、これまでのSDXL用のコントロールネットモデルと比較してかなり良さげな印象です。 モデルは上のサイトからダウンロード出来ます。 ※Forge depth fmブランチ用のコマンド:tmp用 # コントロールネットmistoline!cd /tmp/stable-diffusion-webui/models/ControlNe

          新しいSDXL用のコントロールネットモデルを試してみた:MistoLine(2024/5)

          Deforumのvideo2videoについて、SDXL版

          以前の記事でSD1.5版については記載したのですが、SDXLについてはコントロールネットの効果がSD1.5と異なる点、temporalnetなどと同じようなコントロールネットがない点などから検討していませんでした。 今回、SDXLでやってみたvideo2videoについての記事です。 個人的な印象としては、SD1.5の方が一貫性は高いと思われますが、SDXLで表現できるものはありそうかなと思いました。 今回は紹介しませんが、叡智系はSDXLの方が良いものが出来ると思います。

          Deforumのvideo2videoについて、SDXL版

          SD-WEBUI-FORGEのDev2版のインストールについての話

          最近、SD-WEBUI-FORGEはアップデートされないなーと思いつつ、個人的には不便なところはなかったので、そのまま使用していたのですが、Discussionの所で、Dev2版のブランチが更新されたとのアナウンスがありました。 ざっくりとした内容としては、メインで運用されているllyasvielさんがFORGEのアップデートを行えない状態で、他のFORGEをサポートしているメンバーはメインを更新出来ないため、devブランチで更新してみようかという感じの様です。ただ、現状はr

          SD-WEBUI-FORGEのDev2版のインストールについての話

          「Concept sliders」の使い方?メモ

          この前、Emi2のNoteを拝見した際に、「Ceoncept slider fix_handsというのを使用して」という記載があり、少し調べてみました。 上のGithubサイトのものを言っているようです。 論文(preprint)も出ているようです。 https://arxiv.org/pdf/2311.12092.pdf <GPTさんの要約> タイトル: Concept Sliders: LoRA Adaptors for Precise Control in Diff

          「Concept sliders」の使い方?メモ

          Deforum studioのプリセットについて2:ハイブリットビデオを使用する際に気を付けること

          上のサイトは、本家のプリセット一覧になります。 動画の例が提示されています。 前回紹介したGithubのプリセット内に、ハイブリッドビデオを使用するものがあり、それらはコントロールネットのcannyが必要となっています。 Paperspaceの一時フォルダを使用している場合は以下のコマンド !cd /tmp/stable-diffusion-webui-forge/models/ControlNet && \wget -nc https://huggingface.co

          Deforum studioのプリセットについて2:ハイブリットビデオを使用する際に気を付けること

          Deforum studioのプリセット動画が自分で作れる!!神機能紹介

          先日、deforumのdiscordで上のGithubサイトが紹介されていました。 これはdeforum studioという有料サイトにあるモーションプリセットを、forgeなどのDeforumで再現出来るというものです。 プリセットの一覧を見ると分かりますが、たくさんのパターンがあり、それらを自分だけで再現するのは極めて困難ですが、それが簡単に出来てしまうというので、非常に素晴らしいものになっています。 以下、使用手順について簡単に記載します。 GithubのHPでする

          Deforum studioのプリセット動画が自分で作れる!!神機能紹介

          sd-webui-forgeでの「tiled diffusion」もどきのアップスケール方法について試してみた

          tiled diffusionは、sd webuiにある拡張機能で、アップスケール機能をよく使用していました。 この機能は、元々の画像を綺麗にブラッシュアップが出来たのが良いところです。特に動画だと、例えばanimatediffなどでは512x512ともともと解像度が低いこともあり、アップスケールが必須でした。 DeforumでSDXLを使用し始めてから、使用しなくなったのですが、それはSDXLを使用したtiled diffusionのようなアップスケールが使えないことも一因

          sd-webui-forgeでの「tiled diffusion」もどきのアップスケール方法について試してみた

          Deforumで可能な液体表現について:水遊び的なもの

          叡智な動画ばかり作成してしまい、記事をほぼ作成していませんでした。 そちらで、R18的な液体表現的なアニメーションを作成していたのですが、この記事では非R18の内容です。 ちゃんと調べていませんが、Deforum関連でこの内容について記載している記事は少ないかと感じましたので作成してみました。 score_9, score_8_up, score_7_up, best quality, masterpiece, [source_anime:photo:0.01], irl,

          Deforumで可能な液体表現について:水遊び的なもの

          FreeUの設定値について(実写系モデルで試してみた)

          さて、以前の記事でfreeuについて調べて検討したのですが、最終的に面倒だからデフォルトもしくは公式推奨値でしちゃったりしてました。ところが、forgeで、kyohaHRFixなるものが出てきたおかげで併用する選択肢が出てきてしまいました。deforumを使用する場合は、併用した方が良い結果になると思いますので、そこそこ切実な内容です。 そう言った中、たまたま、上のリンクにあるForgeのDiscussionの記事があり、それを踏まえつつ色々試してみたという内容になります。

          FreeUの設定値について(実写系モデルで試してみた)

          Depthモデルの比較:2024/3時点

          Txt2imgで、いくつかのDepthモデルを使用した際の比較をしてみたので、せっかくなので記事にしました。生成時間の比較がメインです。 参考になればと思います。 比較したDepthモデルは以下の5つです。正しい使い方ではないかもしれませんが、「diffusers_xl_depth_full」で全て行いました。これより小さいサイズだと生成時間は速くなると思います。精度が下がるかと思い(未検証)一番大きいものにしています。 なお、生成時間は、2回目以降の生成時間が安定してきたあ

          Depthモデルの比較:2024/3時点