見出し画像

日刊 画像生成AI (2022年10月3日)

画像生成AI界は、今認識できないスピードで進化をし続けています。
DALL・E2公開、Midjourney公開、StableDiffusionがオープンソースで公開されて..進化の速度が上がり続けており、日々異常なスピードで変化しています。

"ゲームチェンジャー"

そんな中、毎日時間なくて全然情報追えない..!って人のために業界変化、新表現、思考、問題、技術を毎日あらゆるメディアを調べ、まとめています。

昨日までの投稿はこちら


開発


ついに…NovelAIの画像生成機能が公開!

この日毎日しばらく前から生成物がツイッターに上がるごとにプチ話題になっていたNovelAIの画像生成機能がついに公開され大きな話題となりました。

主な機能
・入力内容に基づくタグ提案。知識量表記
・これまで以上に長いプロンプト入力が可能 (231トークン)
・任意のアスペクト比の画像を生成が可能 (トリミングなしの学習)
・CLIPモデルの言語理解の改善
・Furryモデルも搭載

タグ機能がついており、プロンプトに詳しくない人でも使いやすくなっています。

どれだけAIが知識を持っているかを白丸の濃さで表現するUIも搭載。

img2img機能はこちら。

あまりの人気に最大30分ほどサブスクリプション登録が遅くなるまでに。

規約については852話さんがまとめていましたのでこちら。

かりみやさんがnoteで爆速でまとめられています。まだ使っていない人は是非こちらから。僕もNovelAIで盛り上がってた時仕事中だったので終わってからこれを読みました。


らぶひなDiffuison

あるふさんがラブひなDiffusionという赤松健生成の漫画を学習されたDiffusionモデルを制作されているようです。楽しみ。mimicを上回るセキュリティ対策で公開されるそうです。今後の動向に期待です。
(現在はCool Japan Diffusionに特化されている..?かもです。)


冬優子ちゃん特化AIイラストツールが公開。

Waifu DiffusionにDreamBoothで冬優子ちゃんを学習されているとのこと。


colabでDreamBoothして一発でckpt生成して、WebUIで利用するcolab (WebUI by AUTOMATIC1111がDreamBoothモデルに対応。)

1. こちらのcolabで学習

2. 結果のckptファイルを
「stable-diffusion-webui/models/Stable-diffusion」に配置。

3.WebUI再起動。設定タブからモデルを選択。

https://www.reddit.com/r/StableDiffusion/comments/xu38ao/now_possible_to_use_dreambooth_colab_models_in/

これの元となったcolabはおそらくこれです。tensor_every_day20氏がckptファイル出力をするように開発したようです。

Pfaeff氏も作られているようです。(中身はちょっと違う..?)

Diffuser形式モデルからckptファイルへの変換はこちら。

https://gist.github.com/jachiam/8a5c0b607e38fcc585168b90c686eb05



sd-guiが公開。

mac, windows, linuxで動作するstable diffusionのUIが登場。プロンプト、モディファイア管理機能が個人的には使ってるuiに搭載されてないのでアツい。

主な機能
・テキストから画像生成
・インペイント/アウトペイント
・プロンプト、モディファイアの管理機能
・過去の生成物ギャラリー


DreamBooth Concept Libraryが75個を超えました

DreamBoothで学習完了した概念が沢山アップロードされています。75個数をこの日超えたようです。(今は78個)

トレーニングはこちら

推論はこちら


Stable Hordeに11個新たにGPUが追加。無料で、1024x1024 を2分で生成。

Stable HordeとはAIモデル用の巨大なクラウドソーシング分散クラスターで、コミュニティが提供している空きリソースを活用することで画像生成、テキスト生成が可能なものです。今回荒棚に11個のGPUが追加されたそうです。


Prompt ParrotのReplicateが公開。

Stephen Young氏のPrompt Parrotが公開。51,747 のプロンプトで微調整されていて、プロンプトが生成されます。

「cat, 」と入れたらこんな感じ。何ができるのか。


dreamfields3d(text2model) beta v0.65 リリース!

DreamFusionとは違う、前に出ていた3Dからモデルを生成するモデルがv0.65が公開されていました。
(今はStable-DreamFusionの方が盛り上がってる)


Understanding Pure CLIP Guidance for Voxel Grid NeRF Models

この日公開されたテキストから3Dを生成するモデルの研究が公開。コードはもうすぐ公開されるとのこと。

dreamfield3d、stable-dreamfusionよりいい感じ。公開が楽しみ。


AI Programmer公開。

2f6i氏が日本語からAIが自動的にプログラムを書いてくれるサービス「AI Programmer」を公開しました。この後色んな話題を呼びます。(他のやつも拾っていきたいので日刊 画像生成AIから日刊拡散モデルか、生成AIとかにしようかと思ってます。)


Self-Programming Artificial Intelligence Using Code-Generating Language Models

自身のソースコードを修正する能力を持つコード生成言語モデルが作成されたようで話題になってました。あまり詳しくないのでこれくらいしか書けないです。詳しい方に聞いてください。


表現


自分の顔をDreamBoothして生成したAIアニメーション


3Dモデルをimg2imgしてアニメーション制作。


独自のstable 3D animationアルゴリズムでAIアニメーション制作

Disco DiffusionとStableDiffuison用の3D アルゴリズムはもうありましたが、
このアルゴリズムでは前のフレームの画像から深度マップを作成して3D空間にしてから寄って、補完している点が新しいそうです。(不足している情報を空間を「ゆがめる」ことで補間すること)。Dmitrii Tochilkinさんはこの手法をPOISD -- "Pointcloud Occlusion Inpainting with Stable Diffusion"と名付けています。

詳細はリプ欄に記載されています。


研究・検証


NovelAIが公開されたので検証者が溢れ出ました、この日はたくさんピックアップしています。

NovelAI検証者続々


色んなものが出力可能だと理解され始める。

百合、小さい女の子、初音ミクまで…

アイスも食べれる。
プロンプトの誘導能力が高すぎることが理解されていきます。


特殊な検証も進んでいきます。

NovelAI→TalkingHeadAnime3 (Vtuberの始め方)


NovelAIで写真やラフをimg2img


NovelAI 3Dモデルでポーズ指定


表情差分の検証



NovelAIで漫画出力の検証


DreamBoothで線画に色付けする


究極の初心者用、DreamBoothガイド(コードなし)


AIで着ぐるみをイラストにしてStableDiffusionの使い方を学ぼう!


DreamBoothでジブリスタイルをトレーニング

DreamBoothは顔やものを追加している方が多いですが、新しいトークンを追加するものなのでスタイルもいけるらしいです。この方は300枚のジブリ画像でDreamBoothをしています。

https://www.reddit.com/r/StableDiffusion/comments/xuuihb/i_used_dreambooth_to_train_a_studio_ghibli_style/


思想・ムーブメント


NovelAIのデータセットについて問題視の声

この日、NovelAIが無断転載サイトDanbooruの画像を学習していることに様々な声が上がりました。

いかすみさんが詳しくまとめられていたのでこちらをぜひ。


Stabe Diffusionは著作権で保護されたデータ学習しているのに、Dance Diffusionは著作権フリーのデータ扱ってるの?、矛盾してない?Stability.aiという話。

https://www.reddit.com/r/StableDiffusion/comments/xtvaup/how_do_you_feel_about_stabilityai_being/


勉強


拡散モデルの仕組み


最後に


Twitterに、毎日製作したものや、最新情報、検証を載せたりしています。
よかったら見ていただけると嬉しいです。

画像生成AIの実験, 最新情報のまとめはこちら


前回の号はこちら

次の号はこちら


サポートいただけると喜びます。本を読むのが好きなので、いただいたものはそこに使わせていただきます