見出し画像

Stable Diffusionをすぐに無制限に体験する方法、イラストレーター今後の展望

(約 5,500文字の記事です。)

とにかく、やりたいことは「Stable Diffusion環境の構築作業」ではなくて「Stable Diffusionそのものの体験」なのだ!

巷で話題の「AIが自動で描くおけ書きツール」Stable Diffusion。どんどんと「どうやっていい絵を出力させるか」の記事は増えるものの、大前提として「どうやって使い始めるの?」の情報が埋もれつつある。

なのでこの記事では、Pythonも何も知らない、いわゆるごく普通のクリエーターが最短の手順でStable Diffusionを使い始められるするようにするためのご案内です。

手順自体はブログに長文でしっかりと書きましたので、そちらをご覧下さい。

上記記事を実施すると簡単にStable Diffusionの2つの機能を試し始めることができます。言葉から画像を生成させる「text2img」と、ラフな画像から詳細な画像を生成させる「img2img」です。そして多くのクリエーターが試してみたい機能は後者のimg2imgだと思います。ですがこれを試すためには結構面倒な手順が必要で、仮に環境構築できても「サクッと試して何度でも簡単に試す」ことが面倒だったりします。(例、画像の入出力の指定にいちいちファイル名をタイピングしたりコピペしたり、など)

そういう面倒なことを全部省いて、とにかく手っ取り早くStable Diffusionを試したいんだ!という自分の思いを実現させた手順を上記記事に書きました。

具体的に言うと、

text2imgを使い始めるまでの手順

Windows PC+nVIDIA グラボ (4GB以上)のユーザーの場合(大半の3DCGクリエーターが該当するかと。)

1. Stable Diffusion GRisk GUIをDLする
2. DL下ファイルを解凍する
3. 出てきたexe(実行ファイル)をダブルクリック
4. 出てきたウィンドウに必要な呪文を入力して「Render」ボタンをクリック
5. 画像が出力される

という極めてシンプルな使い出しを実現できます。簡単でしょ?

そして

非3DCGクリエーター、例えば他分野のクリエーターのWindowsユーザーの場合

ちょっと手順自体は多いのですが、詳細な手順を記したマニュアルサイトがあったのでそれにしたがって作業をすればGoogle ColabというGoogleアカウント内のサービスで無料でtext2imgを使い始められます。

手順が長くても上から順に実施していけばすんなり導入できるので、せいぜい15分もあればセットアップが完了して、スムーズにStable Diffusionを試し始めることができます。

TwitterなどでStable Diffusionの環境構築が大変!と言っている人たちは、自前のPC内にPython環境を構築してStable Diffusionを実行仕様としている人たちですね。その作業にたくさんの罠があって、正直、Pythonに触れたことのない人(私含む)がいきなりそれを構築するにはハードルが高すぎた、ということみたいです。実際私も挫折して諦め、上記の手順で上手くいったので記事に起こしたわけです。


img2imgのインストール

こちらについてもGoogle Colabに入れるのが最も手っ取り早いです。そして記事内でご紹介する方法だと、入力ファイルの指定もブラウザに画像ファイルをドラッグ&ドロップでOK。保存も右クリックから名前を付けて画像を保存でOK。ファイル名をタイピングしたりコピペも不要。

画像1

Stable Diffusion GRisk GUIとこれで、どちらもグラフィカルなユーザーインターフェース(GUI)で、慣れたWindowsアプリのような感覚で普通にStable Diffusionを使い始められます。


上記のメリット

とにかく両方とも、合計で30分もあれば使い始められるという「即効性」。つまづくようなインストール作業はない。それだけ単純な手順で導入可能な点。

また操作環境もシンプルでGUIなので戸惑わない。たくさん試行錯誤するときにファイル管理も比較的簡単。

Stable Diffusion GRisk GUIではなぜかGPUが全開にならないので消費電力が多少抑えられる?多少は別作業と並行できる?かも。Google Colabに至ってはPC資源をほぼ使わない。


上記のデメリット

Stable Diffusion GRisk GUIについては、ある程度妥協した「機能制限」があるらしい。なので100%の機能を引き出すためにはやはりローカルPC内に直接Stable Diffusionを構築する必要がある。

とはいえ、まずは浴びるほど試してみないことにはStable Diffusionのメリット・デメリットが分からないので、Stable Diffusion GRisk GUIに不満を感じるか否かすら分からない。なのでこの点はあまり問題にならない。

Google Colabを使うデメリットとしては、ある一定の期間ごとに、インストール作業をやり直す必要があること。これはどうやら仕様らしい。Python環境の疑似的な環境の提供なので、HDDにインストールした後の状態を保存してくれるわけではないらしい。(これについてはDL内容自体はGoogle ドライブに保存させてそこから読み出すように設定することも可能らしい。)

どのみち、定期的にセルの連続実行+完了待ちを行なうので、その都度DLしようがGoogleドライブ容量を消費して保存しようが、あまり大差ない。また待ち時間の間にSNSやEメールのチェックでもしていれば終わる。この辺のTipsも記事に書いています。

というわけで、多少のデメリットはあるものの、あまり問題はなく、むしろ速攻でStable Diffusionの2つの機能をストレスなく使い始められることのメリットのほうが大きいと思います。


時間が経って優良な「分かりやすい手順サイト」が出てくる(見つかる)

実はこれを書きながら、Windows PC+nVIDIAグラボ(10GB未満)にAnaconda環境を作ってStable Diffusion(最適化版)を導入する丁寧な記事を見つけてしまっていたりする(笑)

こんな感じで、「情報収集した当時と、数日後の再調査」では結果が異なることも多い。なのでまずは最短の手順で数日間はStable Diffusionを楽しんだり試行錯誤し、それでも「どうしてもローカルPCで2つの機能を試したい!」ということになったら、改めて情報収集してみればいい。

とにかく、やりたいことは「Stable Diffusion環境の構築作業」ではなくて「Stable Diffusionそのものの体験」なのだ!

なのでまずは手っ取り早くStable Diffusionを使えるようにし、Stable Diffusionをまずは体験しよう。そこでえられるたくさんのインスピレーションが次の世界を切り開いてくれることでしょう。

実際私も上記記事を書きながら、色んなヒントを得た。例えば、

・Stable Diffusion絵を「レタッチするスキル」の重要性
・部分的な補正・手動合成(一部要素の削除や形状の修正など)
・手の3DCGモデルから絵に落とし込む描画スキル
・手の部分だけを周りの絵柄に合わせるレタッチスキル

これぐらいは自力で体得しないといけないと感じたし、これができればStable Diffusionとの共同作業による「新たなイラストレーション」の時代になると思う。そしてその絵は間違いなく「私が描いた絵です」と言える(少なくとも手は自分で描いているので。)


AI画像と協業する時代になる

イラストレーションは今後、というか「絵」についてはどんどんとAI補助による高率化が進むと予想している。

そしてイラストレーターはまだまだ必要だ。まだまだAIによる完全な絵の実用は難しい。ある程度「いい感じの絵」をガチャで引き当てたら、そこから先の仕上げ作業の担い手としてイラストレーターの手腕の登場となるだろう。

そうなるとイラストレーターに必要となる必須スキルの項目が変わる。そう、フォトレタッチの学習の重要度が上がるのだ。

例えばこれ、攻殻機動隊のラストシーンのイメージでStable Diffusionに出力させたものだが、どうにも色味が気にくわない。

画像2

もっとこう、黄色の部分を青緑っぽくしたいのよね。だが今の私にはフォトレタッチのスキルがない(というかあったのだがPhotoshopを十数年触っていなくてすっかり忘れたw)

代わりにCLIP STUDIO PAINTで色調補正レイヤーを追加してちょっといじってみたが、やはりスキル不足でイメージ通りにレタッチできず、これで妥協した。光の色はそのままで、全体のイメージを少しブルーナイトな感じにした。

画像3

こんな具合で、実はフォトレタッチの学習の必要性が浮き彫りになった。


だからもしかしたら学生でイラストレーター志望の人は、Photoshopのレタッチの基本スキルを押さえるべきかも知れないね。もちろんCLIP STUDIO PAINTでもある程度はできると思うが、Photoshopはその歴史上、写真画像のレタッチにとても強いので、学割Psを使える内にスキルを得た方がいいだろう。


絵の作り方にバリエーションが増えた、と考えるべき

なので従来どおりの絵を描けるスキルは、代替されないと思う。逆に需要が伸びるのは「絵のレタッチスキル」「絵の修正スキル」だと思う。今回のように、

・色味の補正(調整、修正)
・手の形という「絵柄の補正(調整、修正)」

これらはいずれもゼロから描くスキルではなくて、ピクセル単位の調整、修正、補正であり、当然ながら「無から描き起こせるスキル」には勝てない。だがその部分の6~8割をAIが担ってくれるとなれば、パワーバランスは若干変化する。とはいえ「無から描き起こせるスキル」の価値は変わらない。なぜならば無から描けるスキルは上記の補正にすぐに利用できるスキルだからだ。

とは言え無から描けるスキルを高めるのには膨大な時間と練習量が必要だ。それに対して補正するスキルは割と短期間で鍛えられるだろう。そういう意味ではAI絵を駆使することと、上記の補正スキルとを持ち合わせることで、割と短期間で絵のクオリティーアップは可能だと予想する。

むしろぼんやりとした背景でいい場合には、AI生成の「なんとなくそれっぽい絵+ぼやかしなどの加工(補正)処理」で仕上げに持って行けるならば、やはりAI画像の生成と運用スキルは、あった方がいい。


結局は、今現在で既に凄い絵師でも、これから成長しようとする絵師でも、AI画像の利用はした方がますます有利だ、ということ。

なので今のうちから少しずつAI生成画像とその利用ワークフローを模索した方がいいと思う。そしてそこで気付いた「自分にさらに必要なスキル」(例えばレタッチスキル)を磨くようにしていけば、ますますいいことだらけだ。


AI画像の利用、ワークフローを模索すべし!

これも攻殻機動隊からの引用だが、

それが可能であれば、どんな技術でも実現せずにはいられない。
人間の本能みたいなものよ。

(攻殻機動隊 劇場版より、草薙素子の台詞)

そして今、この瞬間にも、Stable Diffusionが(もしかしたらあなたのライバルかもしれない)ユーザーの手の中で色々な画像を生成しているかもしれない。彼ら/彼女らがAIイラストをご自身のワークフローに取り込むことが可能であると判断した場合、それは間違いなく商用画像に取り込まれていく

そしてそれが実現され始めると、おそらくは退化しない。少しずつAI画像を利用した(商用)ワークフローが主体となる可能性がある。


なので手描きスキルは陳腐化しないものの、それとは別問題としてAI画像を利用できますか?という問いが生まれる。ここで注意したいのは、AI画像の利用ワークフローを持っていつつ「使うか使わないかを判断してAI画像を使い分けられるイラストレーター」と、「そもそもAI画像を利用したワークフローを持っていないイラストレーター」とに別れたとき、両者の今後のポテンシャルには隔たりがあるということだ。

まだしばらくは差が出ないかも知れないが、今後AIによる画像生成能力は高まる一方だ。決して後退しない。そうなると、イラストレーターは今後、AI画像の利用やそれを用いた「新たなワークフローの模索」をそろそろ始めておいた方がいいかもしれない。

画像4

画像5

(2枚ともStable Diffusion生成画像)


Stable Diffusionの最速導入方法はこちら。



今回の創作活動は約2時間30分(累積 約2,898時間)
(796回目のnote更新)


筆者はAmazonアソシエイト・プログラムに参加しています。(AmazonアソシエイトとはAmazon.co.jpの商品を宣伝し所定の条件を満たすことで紹介料をAmazon様から頂けるという大変ありがたい仕組みのこと。)
以下のリンクを経由してAmazonでお買物をするとその購入額の1~3%ほどのお小遣いが私に寄付されます(笑)以下のリンクを経由して頂ければ紹介商品以外のご購入でもOKですよ~。


読んでくれてありがとう。気長にマイペースに書いてます。この出会いに感謝😊