![見出し画像](https://assets.st-note.com/production/uploads/images/120608380/rectangle_large_type_2_4de33db8b77312fab8fff94244f6ed6b.png?width=1200)
Real-Time Latent Consistency Model Text to Imageをローカルで試してみた。
こんにちは、たまき(AIに語りかける者)です。
イントロ
相変わらず、AI界隈はスピードが早いですね。最近はこんなやつも出ました。
Real-time LCM、こんな感じにほぼリアルタイムで生成できる。A6000でも十分タイピングについていけれた。https://t.co/3BxvIyxSIV pic.twitter.com/zyR3pgsynQ
— あるふ (@alfredplpl) November 1, 2023
さっそく試してみようとしましたが
Real-time LCMを試そうとしたがgithubはコミコミで使えない。ということでローカルにインストールチャレンジ中。よくわかってないがとりあえずDLは進んでいる。
— 🐼たまき(AIは道具です)🇯🇵Tamaki (@jutsushi_tamaki) November 2, 2023
githubは混んでいて使えませんでした。ということでローカルに挑戦。
インストール
こちらの手順にしたがってチャレンジ。
とはいえ、pythonよくわかってない。
まずテキトーにフォルダを作る。で、そこでcmdでコマンドプロンプトを起動。
git clone https://github.com/radames/Real-Time-Latent-Consistency-Model.git
でフォルダにコピー(多分)
python -m venv venv
コレでvenvフォルダが作られる(多分)
source venv/bin/activate
こいつはよくわからない。なんかsourceなんてコマンドはないとかなんとか。
pip3 install -r requirements.txt
コレでインストール始まる。でいろいろダウンロードで時間がかかる。
終わったら
uvicorn "app-txt2img:app" --host 0.0.0.0 --port 7860 --reload
コレでなんか動く。
で、http://0.0.0.0:7860にブラウザアクセスしても何も出ない。
http://127.0.0.1:7860/
ここにアクセスしたらGUIが出た。
そしたら、Startを押してプロンプトを入れると動いた。
試してる動画
多分、Stable Diffusionをローカルで使ってるのでpythonのパスとかが通ってるから動いたんじゃないかな?(しらんけど)
感想
RTX3060でもほぼほぼリアルタイムで画像が変化する。また一歩道具としてAIが使いやすくなる道筋ができた。
今月中にSDのWebUIにも組み込まれるんじゃね?
さすがにpython真面目に勉強します。とりあえずYouTubeで入門動画見まくります。
それではまた。
良ければコーヒー奢ってください。
この記事が気に入ったらサポートをしてみませんか?