見出し画像

LLMでもLoRA。算術強化Goat-lora-7bを試す

画像生成AIのStable Diffusionでは、LoRA(Low-Rank Adaptation)という少ない計算量でファインチューニングする手法が広まっているようです。

LLMをお手軽に試せるアプリ「Text generation web UI」にも、LoRA(s)という設定項目があり気になっていたところ、ちょうどLoRAを適用したモデル関する記事が目にとまったので、試してみることにしました。

Goat

なんでも、LLaMAを微調整したGoatは、算術タスクでGPT-4を上回るパフォーマンスを発揮するそうです。ファインチューニングでLLMが手軽に特定の能力を強化させることができるとは、とても興味深いですね。

導入手順

  • Text-generation-webui を起動する

  • Model タブの Download custom model or LoRAの項目で以下を指定してダウンロードする

    • decapoda-research/llama-7b-hf

    • tiedong/goat-lora-7b

  • ModelとLoRA(s)の項目でダウンロードしたモデルを選択

  • Apply the selected LoRAsのボタンを押す

以上完了! 簡単です。

さっそく試用してみます

LLMが苦手と言われている、桁数の大きい計算を試してみます。

  • 3245 x 4574 = ?

0. LLaMA-7B

素のLaMMA-7B は回答拒否!

1.Goat:

式変形して計算してますね。

2.GPT-4

ほぼ同じ答えです。さて

3.審判: 電卓(calc.exe)

エクセル時代も生き抜く定番アプリ

結果発表

Goatの勝利! すばらしい。

Goatのパフォーマンスや学習方法の詳細は、冒頭の論文を参照ください。算術計算全般において、GPT-4に比べてGoatが高い成績を上げたようです。

実用的には、数値計算ライブラリを呼んだり、wolfram-alphaなどのプラグインを呼び出すのが確実な気がしますが、たかだか256MB分のパラメータ調整だけで、モデルが新たな能力を獲得したのに不思議な気持ちになりました。

LoRAの手法を使って、今回の計算以外でも色々な能力を手軽に付与できそうなので、幅広い応用が期待できますね。CA社がファインチューニング用の日本語LLMを公開してくれた理由が少しだけわかった気がします。この分野も奥が深そうです。とても楽しみです。

おしまい


この記事が気に入ったらサポートをしてみませんか?