見出し画像

Real-Time Latent Consistency Model Text to Imageをローカルで試してみた。

こんにちは、たまき(AIに語りかける者)です。

イントロ

相変わらず、AI界隈はスピードが早いですね。最近はこんなやつも出ました。



さっそく試してみようとしましたが


githubは混んでいて使えませんでした。ということでローカルに挑戦。

インストール

こちらの手順にしたがってチャレンジ。

とはいえ、pythonよくわかってない。
まずテキトーにフォルダを作る。で、そこでcmdでコマンドプロンプトを起動。
git clone https://github.com/radames/Real-Time-Latent-Consistency-Model.git

でフォルダにコピー(多分)

python -m venv venv
コレでvenvフォルダが作られる(多分)

source venv/bin/activate
こいつはよくわからない。なんかsourceなんてコマンドはないとかなんとか。
pip3 install -r requirements.txt
コレでインストール始まる。でいろいろダウンロードで時間がかかる。

終わったら
uvicorn "app-txt2img:app" --host 0.0.0.0 --port 7860 --reload
コレでなんか動く。

で、http://0.0.0.0:7860にブラウザアクセスしても何も出ない。

http://127.0.0.1:7860/
ここにアクセスしたらGUIが出た。

そしたら、Startを押してプロンプトを入れると動いた。

試してる動画


多分、Stable Diffusionをローカルで使ってるのでpythonのパスとかが通ってるから動いたんじゃないかな?(しらんけど)

感想


RTX3060でもほぼほぼリアルタイムで画像が変化する。また一歩道具としてAIが使いやすくなる道筋ができた。

今月中にSDのWebUIにも組み込まれるんじゃね?

さすがにpython真面目に勉強します。とりあえずYouTubeで入門動画見まくります。

それではまた。

良ければコーヒー奢ってください。


この記事が気に入ったらサポートをしてみませんか?