「MLX」で「Gemma-1.1-7b-it」を試したので、まとめました。
1. Gemma-1.1-7b-it
「Gemma-1.1-7b-it」は、「Google」が開発したオープンLLMの指示チューニングの最新版です。英語で利用可能で、、質問応答、要約、推論などのさまざまなテキスト生成タスクに適しています。
2. 推論の実行
「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。
推論の実行手順は、次のとおりです。
(1) Pythonの仮想環境の準備。
今回は、「Python 3.10」の仮想環境を準備しました。
(2) パッケージのインストールと実行。
今回は「mlx-community/gemma-1.1-7b-it」のモデルを利用します。
pip install mlx-lm
python -m mlx_lm.generate --model mlx-community/gemma-1.1-7b-it --prompt "Who is the cutest in Madoka Magica?" --temp 0.0 --max-tokens 256 --use-default-chat-template
3. 日本語での推論の実行
(1) 日本語の推論の実行。
python -m mlx_lm.generate --model mlx-community/gemma-1.1-7b-it --prompt "まどか☆マギカでは誰が一番かわいい?" --temp 0.0 --max-tokens 256 --use-default-chat-template