見出し画像

日刊 画像生成AI (2022年9月24日)

画像生成AI界は、今認識できないスピードで進化をし続けています。
DALL・E2公開、Midjourney公開、StableDiffusionがオープンソースで公開されて..進化の速度が上がり続けており、日々異常なスピードで変化しています。

"自由すぎる描画能力"

そんな中、毎日時間なくて全然情報追えない..!って人のために業界変化、新表現、思考、問題、技術を毎日あらゆるメディアを調べ、まとめています。


諸事情で投稿が少し遅れています。ごめんなさい。
なんとか戻します。


昨日までの投稿はこちら


開発


NovelAIのStableDiffusion改良

NovelAIというサービスがStable Diffusionをカスタマイズしてオリジナルのモデルを制作しているようで、少しずつ広まってきており話題になっています。この日の情報公開では、使用しているアスペクト比に関係なくAI がプロンプトの意図に焦点を合わせることができるそうです。手も改善されているようです。

Waifu Diffusionと同様、Danbooruで学習しており、アニメ絵に関してかなりクオリティが高いです。Waifu Diffusionに存在する歪みみたいなものもほぼないですね。


MyAi.art 開発中

AltryneさんがMyAi.artというサービスを作られています。Chrome拡張と連携するアプリのようで、ブラウザで文字を右クリックしてメニューから選択すればそのままStableDiffusionにその言葉を送ったり、画像を右クリックでpromptの逆引きまでできるようです。

Prompt逆引きの詳細を書きます。画像右クリックから、WebUIに送ったり、CLIP Interrogatorに送信したり、MyAI.artに送ることができるようです。
これはすごい便利そう..。


Flash AttentionでStable Diffusionを最大50%高速化

A6000でU-Netのクロスアテンションのほとんどをフラッシュアテンションに置き換えることで、50%に近いスピードアップを実現したとのこと。


Stable Diffusion UI (cmdr2) v2.17リリース

windows, linux環境にワンクリックでインストールできるStable Diffusion UI (cmdr2)がアップデートしたようです。Macには近日中に対応とのこと。アップデート項目は以下。

1. text2image のサンプラーの追加
2. インペインティングとマスキング
3. ライブ プレビュー: AI によってペイントされている間に画像が生き生きと動くのを確認できます
4.プログレスバー
5.メモリ使用量を削減するための多くの改善
6. 画像用の広い領域を備えたよりクリーンな UI
7. 使用する SD フォークを最新バージョンに更新する

なかなか便利そうですね。

画像モディファイアが入っていて便利そう。


UnstableFusion公開。

inpainting, img2img などを備えた Stable Diffusion デスクトップアプリが公開。UnstableFusion(名前がアダルト特化のunstable diffusionと被っているため変更されるかもしれません。)windowsとlinuxには対応しているみたいです。


generrated.com

DALL・Eで生成された7,000 以上の画像とその分類が登録されているサイト。これめちゃくちゃいいです、でも意外と知られてない。
promptmaniaのDALL・E版って感じですね、ビルダーではないですが。

このサイト知らなかったのですが、この日のある方のツイートで発見しました。9月13日から公開されていたようです。ロンドンのクリエイティブテクノロジスト Davey Barkerさんが制作されたそうです。

かなり多様に事例を見れます。基本こういうのgoogle spread sheetで海外だとまとめられててすっごい見にくいんですがこれは助かる。

その方のツイート


表現


aiplagueさんの作品に注目が集まっています。

1280x720で生成されているそうです。クオリティ高い..aiplagueさん曰く、プロンプトと同様にサイズは重要とのことです。このレベルだとA100 GPUでしか無理とのこと。


Stable Diffusion × 物理シミュレーション (openframeworks)

物理シミュレーションのシンプルな映像をimg2imgでりんごに変えている方がいて面白い表現だったのでメモ。

https://www.reddit.com/r/StableDiffusion/comments/xmwcvq/apple_rendering_system/


卵から孵化した犬

DALL・E2で生成されたもので、Redditで注目が集まっていて面白かったのでメモ。

https://www.reddit.com/r/dalle2/comments/xmfc4l/a_dog_hatching_from_its_egg/


この日よかったAIアニメーション


研究・検証


Dreambooth検証続々

ここ最近Dreamboothの検証の投稿が相次いでいます。


Midjourneyっぽい生成をStableDiffusionでも出せないだろうか。

Midjourneyはおそらく裏側で、いくつかシークレットソースプロンプトが設定されているんじゃないかという話があります。このRedditのスレッドにそれを研究して見つけた方がいるそうです。以下のプロンプトを使うと少し近い結果が得られるようです。

prompt:
magnificent, elegant, beautiful, dynamic lighting, killian eng, ocellus, theme park, fantastical, light dust, elegant, diffuse, grimmer, intricate, light dust, orange and teal contrast volumetric lighting, triadic colors, and perhaps the most powerful, splash art.

設定:k_euler_a、steps30、cfg6-9

でも結果、これだけでは同じものは得られません。Emadさんが確認しているそうですが、MidjounreyではSDベースの上にチューニングしたモデルを載せて、前処理と後処理を行っているそうです。


スマホで撮った写真からこのような画像を作る方法

写真をまず合成してから、img2imgで、プロンプトは以下。

post apocalyptic monster mecha truck with machingun on top, digital art, concept art, dusty environment, foggy, dirty group, 3/4 view, greg rustkowski style

これで満足がいくまでプロンプト変更とPhotoshopブラシでの修正を繰り返すそうです。

https://www.reddit.com/r/StableDiffusion/comments/xlun11/i_combined_these_two_pictures_i_took_with_my/


Stable Diffusion(WebUI by AUTOMATIC1111)の起動を速くする。


思想・ムーブメント


「AI 画像がアートの世界をどのように混乱させているか」


AIアートを下絵に絵を描いている人がいました。


最後に


Twitterに、毎日製作したものや、最新情報、検証を載せたりしています。よかったらフォローしてくれるとうれしいです。

画像生成AIの実験, 最新情報のまとめはこちら


前回の号はこちら

次の号はこちら


サポートいただけると喜びます。本を読むのが好きなので、いただいたものはそこに使わせていただきます