![見出し画像](https://assets.st-note.com/production/uploads/images/117525490/rectangle_large_type_2_6f3da14d557632dc7c71dcadaa34d716.png?width=800)
StableDiffusionをGoogleColabで動かしてみた
タイトルは、Colabで動かしたStableDiffusionで生成した画像ですw
手はどうなってんでしょうね。。?(笑)
Python環境をローカルに入れたので、なんか生成AIを入れたい…とググってみたところ、やっぱりGPUが無いと厳しそう…( ;∀;)
なら、Google Colabで……と思い探してみたところ、こちらの記事を見つけました!
まさに自分にぴったりの記事😁
こちらの記事でGoogle Colabのことまで書かれているので、もう見て頂くのが一番手っ取り早いかとw
自分もこちらの記事通りに進めて、無事に画像生成できました。
さて、それだけでは面白くないのでプロンプトを固定したまま、モデルでのテイストの違いを試してみました。
プロンプト
prompt = '(masterpiece, best quality:1.3),1 cute girl, anime, 15 years old, looking up book, from behind, backlighting, night sky, sit on block'
イメージとしては、テトラポッドの上に腰かけて本を読む女の子だったのですが………
モデル=dreamlike-art/dreamlike-photoreal-2.0
model = "dreamlike-art/dreamlike-photoreal-2.0"
![](https://assets.st-note.com/img/1695960795784-Q3YODRTKcI.png)
悪くはないけど、ちょっとイメージしてたのと違うんだなぁ。。
モデル=dreamlike-art/dreamlike-anime-1.0
model = "dreamlike-art/dreamlike-anime-1.0"
![](https://assets.st-note.com/img/1695961193203-E0QqnvG1Cm.png)
なんか、かけ離れた(笑)
どーいう状況だ、コレ?w
モデル=Yntec/animeTWO
model = "Yntec/animeTWO"
![](https://assets.st-note.com/img/1695961471929-vGbAIA5MLK.png)
・え?パンツ履いてない?!
・顔はどうなってんの?
などなど、ツッコミどころはいくつか…
一番しっくり来たのは1枚目かなぁ~という感じ。
結局、生成AIは学習した絵をまねてるだけなので、オブジェクトを認識してるわけではないんですよねぇ。
今は、間違ってるところNegativePromptで打ち消すようなやり方なんだけど、そのうちオブジェクトを認識して、より現実に近いものを生成するAIが登場するんだろうなぁーと思っています。
※例えば…
ビルの画像とか、拡大すると窓があり得ない形だったりするときがあるのですが、それはただ絵を見てるだけだからなんですよね。
学習するときに、これは「窓」ということを意識し、生成する時に窓の壁面には窓が等間隔で並ぶ、という事実を知っていれば、より現実に近い絵を生成してくれるように。
手が3本ある人とかね、そーいうのをイチイチ修正しなくても、AIが「これは人だから手は2本、指は5本…」と判断してくれる。
個人的には、それ待ちかなぁー(プロンプトで遊ぶのも楽しいんですけど、正直めんどい笑)
この記事が気に入ったらサポートをしてみませんか?