見出し画像

StableDiffusionをGoogleColabで動かしてみた

タイトルは、Colabで動かしたStableDiffusionで生成した画像ですw
手はどうなってんでしょうね。。?(笑)

Python環境をローカルに入れたので、なんか生成AIを入れたい…とググってみたところ、やっぱりGPUが無いと厳しそう…( ;∀;)
なら、Google Colabで……と思い探してみたところ、こちらの記事を見つけました!

まさに自分にぴったりの記事😁

こちらの記事でGoogle Colabのことまで書かれているので、もう見て頂くのが一番手っ取り早いかとw
自分もこちらの記事通りに進めて、無事に画像生成できました。

さて、それだけでは面白くないのでプロンプトを固定したまま、モデルでのテイストの違いを試してみました。

プロンプト

prompt = '(masterpiece, best quality:1.3),1 cute girl, anime, 15 years old, looking up book, from behind, backlighting, night sky, sit on block'

イメージとしては、テトラポッドの上に腰かけて本を読む女の子だったのですが………

モデル=dreamlike-art/dreamlike-photoreal-2.0

model = "dreamlike-art/dreamlike-photoreal-2.0"

悪くはないけど、ちょっとイメージしてたのと違うんだなぁ。。

モデル=dreamlike-art/dreamlike-anime-1.0

model = "dreamlike-art/dreamlike-anime-1.0"

なんか、かけ離れた(笑)
どーいう状況だ、コレ?w

モデル=Yntec/animeTWO

model = "Yntec/animeTWO"

・え?パンツ履いてない?!
・顔はどうなってんの?
などなど、ツッコミどころはいくつか…

一番しっくり来たのは1枚目かなぁ~という感じ。

結局、生成AIは学習した絵をまねてるだけなので、オブジェクトを認識してるわけではないんですよねぇ。
今は、間違ってるところNegativePromptで打ち消すようなやり方なんだけど、そのうちオブジェクトを認識して、より現実に近いものを生成するAIが登場するんだろうなぁーと思っています。

※例えば…
ビルの画像とか、拡大すると窓があり得ない形だったりするときがあるのですが、それはただ絵を見てるだけだからなんですよね。
学習するときに、これは「窓」ということを意識し、生成する時に窓の壁面には窓が等間隔で並ぶ、という事実を知っていれば、より現実に近い絵を生成してくれるように。
手が3本ある人とかね、そーいうのをイチイチ修正しなくても、AIが「これは人だから手は2本、指は5本…」と判断してくれる。

個人的には、それ待ちかなぁー(プロンプトで遊ぶのも楽しいんですけど、正直めんどい笑)

この記事が気に入ったらサポートをしてみませんか?