前回の記事で、ELYZAがうまくいかなかった報告をしましたが、hugginfaceで下記モデルを見つけました。
上が、safetensors formatでしたので、再チャレンジしてみました。
前の記事と、こちらの解説をみてください。
python generate.py --model 4bit/ELYZA-japanese-Llama-2-7b-instruct --prompt "日本について教えてください。"
python generate.py --model 4bit/ELYZA-japanese-Llama-2-7b-instruct --prompt "日本の有名なアニメはなんですか?" -m 256
なんか文字化けして残念。4bitだからからでしょうか??
hf_llmにある convert.pyを使って、mlxモデルに変換してみます。
python convert.py --hf-path 4bit/ELYZA-japanese-Llama-2-7b-instruct --mlx-path MLX_ELYZA
一応、ファイルが出力されたので、変換はされたように思います。
試しに、出力先のdirectrryを --model で指定した動かしてみました。
やっぱり文字化けしてますが、どうにか動いてはいるようです。
文字化けの理由と解消法が知りたいものです。
ちなみに、llmsの llama directoryにある llama.pyでは変換したモデルは動きませんでした。エラーで読み取れるように、先の変換では、.npzのweightsのモデルには変換されていませんでしたので、こんな結果なのでしょう。
llamaのdirectoryにあるconvert.pyでさらに変換するといいのかもしれないと思って試しましたが、params.jsonというファイルがないというエラーがでてダメでした。
hf_llmでいうところのconvertと、llamaでいうところのconvertの関係、また出力されるものがどうなのか理解できずに終わっています。
#AI #AIでやってみた #やってみた #MLX #huggingface #LLM #ローカルLLM