見出し画像

Windowsでお手軽ローカルLLM Ollama

2024年2月15日からWindowsプレビュー版が公開されています。
Windows10以上、NVIDIAもしくはAMDの GPUが必要。

ダウンロード画面

選択権は無く下記にインストールされる。
C:\Users\(ユーザ名)\AppData\Local\Programs\Ollama

インストール後立ち上げたWindows PowerShell画面
ollama run llama2

と入力すると、3.8GBのダウンロードが開始。

ダウンロード完了
テスト

モデルのダウンロード先。選択権は無い。
C:\Users\(ユーザ名)\.ollama\models\blobs

/bye

でLLMとの対話終了。

下記にモデル一覧があるので、好きなものを選択し、ダウンロード用文字列を確認。パラメータ数と量子化数もここで見ることができる。

llama3なら

ollama run llama3

4.7GB 8B 4-bit量子化。
70Bを欲するなら下記で40GB。

ollama run llama3:70b

Command R+なら下記で59GB 104B 4-bit量子化。

ollama run command-r-plus

llama3:8bの様子が下記。

ダウンロード完了2
テスト2

やたら絵文字を使うllama3:8bと思う存分対話できます。

Command R+の様子が下記。

ダウンロード完了3
テスト3

RTX4090環境で、2文字/sぐらいの遅さでじっくり対話が可能。
英語でも同程度。

起動方法

PowerShell7を立ち上げて

ollama run (使いたいモデル)


それにしてもラマが愛らしい。Blogで毎回新規絵が供給されている。


この記事が気に入ったらサポートをしてみませんか?