Ollama の使い方 - M3 Mac で Ollamaを使ってLLMsを動かしてみる その2-
もうしばらくこの動画通りにやってみます。
とりあえずmistralを走らせるところから。
ollama run mistral
準備ができたら,動画通りに指示して出てきた回答
このあと2つのターミナルウィンドウを立ち上げて,mistralと平行してLlama2を動かすこともできるというお話。実際可能でした。
write a 1000 word essay about ai
次は,システムメッセージのプロンプトをどう調整するかという話題です。
ここで動画からちょっと離れて,Helpを触ってみます。
動画から,modelfile を調整するということなので,modelfileの中身を見てみます。
動画とまったく違ってました。
動画では,modelfileをパッと開いていましたが,どこにあるのか自分にはわかりませんでしたので,githubのページを参照しました。
ここに動画と同じ内容のコードがありました。
FROM llama2
# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1
# set the system prompt
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""
それで,動画にあわせて,内容を変更します。
FROM mistral
# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature .5
# set the system prompt
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""
VS codeのアプリを入れていないので,普通にテキストエディタで編集,拡張子がない場合は.txtとするの項目からチェックを外して,今動かしている作業ディレクトリに保存。で,よくわかりませんが次のコマンドを入力。
ollama create mario -f ./Modelfile
動画と同じようなターミナル出力と同じみたいでしたので,多分成功したと理解して,次に進みます。
ollama run mario
marioというモデルが動いたようです。
who are you?
Tell me about where you live.
下については,動画とは違う回答でしたが,マリオの回答でした。
/bye で終了して,モデルに入っているかを以下で確認したら,あらたにmistralとは別に,marioというモデルが確かにできていました。
ollama list
modelfileについては下記のリンクを読んで学習しないといけないようです。
https://github.com/jmorganca/ollama/blob/main/docs/modelfile.md
modelfileに含められる命令は下記のようです。
さっきのモデルをcreateするコマンドをちゃんと理解するために,"ollama create choose-a-model-name -f <location of the file e.g. ./Modelfile>'" についてBardに聞いてみました。
残っている疑問:ダウンロードしたモデルと新しくつくられたモデルはどの場所にあるのか理解できてません…
動画の続きです。
以下のようなものがいろいろ使えるという紹介でした。
そのあとは,彼自身のOpenChatを作る過程を紹介していましたが,パイソンを使っての話でした。これはまったく未勉強なのでわかりませんでした。
あと前記事の最後の,Dockerのaigenについては,GPT-4に尋ねながらやってみました。githubからファイルをダウンロードして,dockerのコンテナーにして,llamaを実行するところまでできました。ブラウザーを使ってやりとりする形でした。ただ記憶がないのか,文脈は理解してない様子でした。PDFをアップロードして,それについての質問への答えはできていました。
よく分からないことがまだまだ多いので,おいおい調べていきたいと思います。
この記事を最後までご覧いただき、ありがとうございます!もしも私の活動を応援していただけるなら、大変嬉しく思います。