![見出し画像](https://assets.st-note.com/production/uploads/images/106406433/rectangle_large_type_2_33950318ad524b09a3392c6bc00a5c1a.png?width=800)
LLMでもLoRA。算術強化Goat-lora-7bを試す
画像生成AIのStable Diffusionでは、LoRA(Low-Rank Adaptation)という少ない計算量でファインチューニングする手法が広まっているようです。
LLMをお手軽に試せるアプリ「Text generation web UI」にも、LoRA(s)という設定項目があり気になっていたところ、ちょうどLoRAを適用したモデル関する記事が目にとまったので、試してみることにしました。
Goat
なんでも、LLaMAを微調整したGoatは、算術タスクでGPT-4を上回るパフォーマンスを発揮するそうです。ファインチューニングでLLMが手軽に特定の能力を強化させることができるとは、とても興味深いですね。
導入手順
Text-generation-webui を起動する
Model タブの Download custom model or LoRAの項目で以下を指定してダウンロードする
decapoda-research/llama-7b-hf
tiedong/goat-lora-7b
ModelとLoRA(s)の項目でダウンロードしたモデルを選択
Apply the selected LoRAsのボタンを押す
以上完了! 簡単です。
さっそく試用してみます
LLMが苦手と言われている、桁数の大きい計算を試してみます。
3245 x 4574 = ?
0. LLaMA-7B
![](https://assets.st-note.com/img/1684934421002-t3JdoEgPhe.png?width=800)
1.Goat:
![](https://assets.st-note.com/img/1684933199161-5FFG00TnO3.png?width=800)
2.GPT-4
![](https://assets.st-note.com/img/1684933326125-xr7Uv5ZPIt.png?width=800)
3.審判: 電卓(calc.exe)
![](https://assets.st-note.com/img/1684933483532-czqEUYHvxn.png)
結果発表
Goatの勝利! すばらしい。
Goatのパフォーマンスや学習方法の詳細は、冒頭の論文を参照ください。算術計算全般において、GPT-4に比べてGoatが高い成績を上げたようです。
実用的には、数値計算ライブラリを呼んだり、wolfram-alphaなどのプラグインを呼び出すのが確実な気がしますが、たかだか256MB分のパラメータ調整だけで、モデルが新たな能力を獲得したのに不思議な気持ちになりました。
LoRAの手法を使って、今回の計算以外でも色々な能力を手軽に付与できそうなので、幅広い応用が期待できますね。CA社がファインチューニング用の日本語LLMを公開してくれた理由が少しだけわかった気がします。この分野も奥が深そうです。とても楽しみです。
おしまい
この記事が気に入ったらサポートをしてみませんか?