Llama.cpp で Swallow MX 8x7B を試す
「Llama.cpp」で「Swallow MX 8x7B」を試したので、まとめました。
1. Swallow MX 8x7B
「Swallow MX 8x7B」は、「Mixtral 8x7B」の日本語能力を強化した大規模言語モデルです。Apache 2.0の寛容なライセンスでモデルのパラメータ(重み)を公開しています。
2. Swallow MX 8x7B のモデル
「Swallow MX 8x7B」のモデルは、次の1つです。
量子化モデルも提供されています。
3. Llama.cppでの実行
Llama.cppでの実行手順は、次のとおりです。
(1) Xcodeのインストール。
「Llama.cpp」は、インストール時に環境にあわせてソースからビルドして利用するため、MacではXcodeのビルドツールが必要になります。
(2) リポジトリのクローン。
$ git clone https://github.com/ggerganov/llama.cpp
$ cd llama.cpp
(3) ビルド。
$ make
(4) モデルをダウンロードして「llama.cpp/models」に配置。
今回は、「Q4_K_M」(tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-q4_K_M.gguf) を配置しました。
(5) プロンプトテキストの準備
・prompt.txt
User: まどか☆マギカで誰が一番かわいい?その理由も説明して
Assistant:
(6) 推論の実行。
$ ./llama-cli -m ./models/tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-q4_K_M.gguf --temp 0.1 -ngl 80 -f ./prompt.txt
この記事が気に入ったらサポートをしてみませんか?