日本語能力が高いという話題のQarasuです。
デモはこちらでみれますが、たしかに高い印象です。
ぜひローカルで動かしたいと思って、MacbookProにインストールしたollamaで試してみました。
ollamaはggufモデルを取り入れることができます。
今回は、下記のq4_0.ggufをつかってみました。ollamaはq4_0をデフォで使っていますので、それに従ってみました。
上からダウンロードして、以下の手順でollamaが使えるようにします。
ダウンロードしたdirectoryで、nanoのeditorを立ち上げます。
editorで、下記の内容を貼り付けて、Modelfileの名前で保存。
そのあと、モデル変換をして、会話をしましたところ、残念ながら出力が止まらない状況でした。
Modelfileの中をちゃんとしないといけないと、次の検討をしました。
ollamaのいくつかのモデルの最後に表記されているTEMPLATEとPARAMETERをテーブルに転記して、該当するモデルのhuggingfaceのggufのモデルに転載されているchat templateを照らし合わせてみました。
Qarasuはどうもベースになっているのは、Qwenタイプで、このタイプはChatMLタイプのchat templateがよく使われているとあたりをつけました。
dolphin-mistralやnous-hermes2 がどうも同じ感じと思って、それを真似て、Modelfileの内容を下記としました。
FROM ./lightblue-qarasu-14B-chat-plus-unleashed-q4_0.gguf
TEMPLATE ""”
<|im_start|>system
{{ .System }}<|im_end|>
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
""”
SYSTEM ""”""”
PARAMETER num_predict 512
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>”
そして、Modelfileを保存。以下を実行して、ollamaが実行できるモデルとしました。
ollama create qarasu14b -f Modelfile
無事にモデルが保存できたら、以下で実行。
ollama run qarasu14b
無事にこれで普通に対話が日本語でできるようになりました。
詩になりませんでした。しかも切れちゃいました笑
続けて というプロンプトで続きました。
ちょっと繰り返しが出て、変な記号が最後についちゃいましたが、まぁいいんじゃないでしょうか。
いったんバグるとおかしくなるので、いったん終えて再起動しますが、そこそこ普通に近い日本語がでてきてくれます。
あと、こんな例も。
おまけの例。
どうでしょうか? ローカルで動く、わりとちゃんとした日本語だという印象です。いい感じではないでしょうかね。
P.S.
Macの動画収録を初めてしてみました。
#AI #AIとやってみた #やってみた #LLM #自然言語処理 #ollama