見出し画像

text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructをExLlamaでロードし、LoRA適用してみる

text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructをExLlamaでロードし、LoRA適用してみます。

Exllamaでモデルをロードするために、以下のGPTQモデルをお借りします。

Download model or LoRA画面にdahara1/ELYZA-japanese-Llama-2-7b-fast-instruct-GPTQと入力しDownloadします。

Model loaderはExLlama_HFを利用します。

ローダーはもちろんTransformerでもいいのですが、生成に非常に時間がかかるのでオススメしません。また、GGUF版はエラーがでてLoRAを読み込むことができませんでした。

新しく登場したローダーであるExLlamav2_HFはエラーが出て使用できませんでした。残念。

正常にロードできたら、LoRAを適用します。

LoRAは以下の手順で作成しました。

LoRAをtext-generation-webui/loras/に配置します(本体はadapter_model.binとadopter_config.json)。

ModelタブのLoRA(s)から、🔄ボタンでリストを更新し、プルダウンで選び、Apply LoRAsでモデルにLoRAをアタッチします。

Successfuly applied the LoRAsと表示されたら成功です。

もしLoRAが微妙だったら、LoRA Rank等の設定を見直して、再度作り直してみましょう。

Xのフォローをお願いします。
https://twitter.com/31pi_

この記事が気に入ったらサポートをしてみませんか?