![見出し画像](https://assets.st-note.com/production/uploads/images/138471433/rectangle_large_type_2_99c3f28baed3011316f162025b04b993.png?width=800)
Ollamaを用いてWindowsでLlama3を試してみる
LLama3が登場したことが話題になっています!
とりあえず簡単に触れるようにしたいと思い、色々調べたところ"Ollama"というツールを見つけたので試してみました!
誰でも簡単に使えるように記録として記したいと思います。
ollamaのインストール(Windows)
①ollamaのサイトにアクセス
②”Download”を押下する
![](https://assets.st-note.com/img/1714046604762-UlaWG4SrUl.png?width=800)
③Windowsを選択して"Download for Windows"を押下する
*Windows版はまだプレビュー版です
![](https://assets.st-note.com/img/1714046697967-dgxfEyRkXU.png)
④"OllamaSetup.exe"がDLされているのを確認して実行
![](https://assets.st-note.com/img/1714046719948-7joT5Gdv5c.png)
⑤実行すると下記のダウンロード画面が出てくるので、表記に従って”Install”を押下する
画面が消えたらインストール完了
![](https://assets.st-note.com/img/1714046751378-mWgfiibdtb.png?width=800)
⑥コマンドプロンプトを開く
![](https://assets.st-note.com/img/1714047144309-axCLbizlje.png)
⑦コマンドを入れて確認
バージョンが表示されていればOK!
ollama --version
![](https://assets.st-note.com/img/1714047206266-7XWqd526EN.png)
*追記:macやubuntuの場合はからあげさんの記事を参考にしてみてください!
Llama3を試してみる!
それでは実際にローカルLLMを試してみましょう!
試せるLLMはGithubのページに記載があります。
今回はLlama3の8Bのモデルを試してみます。
*空き容量が必要なので注意!
![](https://assets.st-note.com/img/1714047411445-6TYK03CSer.png?width=800)
①上記の"Download"と書いてあるコマンドを入れる
ollama run llama3
![](https://assets.st-note.com/img/1714047667585-bkCug12uNe.png?width=800)
![](https://assets.st-note.com/img/1714047672729-8fXkQ8wSD1.png?width=800)
モデルのダウンロードに少し時間がかかります。
*2回目以降も始めるときはこれを実行します!
②Send a message が出ればOK
![](https://assets.st-note.com/img/1714047601747-GpNvbzVsUt.png)
③プロンプトを入力してみましょう!
![](https://assets.st-note.com/img/1714047718196-FZRcuTsLIM.png?width=800)
![](https://assets.st-note.com/img/1714047733085-uvlxWTF3mj.png?width=800)
日本のことはあまり詳しくないようです。
以上でローカルLLMの導入は完了です!
皆さんもぜひいろいろと試してみてください!
Xでも発信していますので、ぜひフォローをお願いします!
Xのリンク
この記事が気に入ったらサポートをしてみませんか?