マガジンのカバー画像

ローカルLLM関連:初心者の取り組み

112
ローカルで動かす試み関係の記事をまとめてマガジンにしました。
運営しているクリエイター

記事一覧

覚え書き:Ollamaのライブラリへのpushの仕方

ggufから作ったOllama用モデルをOllamaのライブラリーへプッシュする方法の覚え書きメモです。…

Lucas
6日前
7

Fugaku-llm-13BをMacで動かしてみる

昨日プレスリリースが発表された富岳を使った日本製LLMをMacで動かしてみました。 さて、以下…

Lucas
10日前
15

日本語LLM:VecteusをOllamaで走らせてみる

前記事で紹介したVecteusをOllamaで走らせるための手順です。 Huggingfaceからモデルのggufフ…

Lucas
2週間前
13

Local-Novel-LLM-projectのモデルをmlx & Gradioで試してみる

日本語の生成を目指したLocal-Novel-LLM-projectからいくつかモデルが発表されました。#ローカ…

Lucas
2週間前
12

【覚え書き】MLXのgenerate, generate_stepの引数が増えていた件

mlx-lm 0.12.0 で確認しました。 pythonのインターラクティブモードで、下記コマンドでチェッ…

Lucas
3週間前
2

mlx-community/Swallow-70b-instruct-v0.1-4bit をお試し: Gradio`ChatInterface`こ…

Huggingfaceのmlx-communityに、Swallowのinstructモデルを(°ー°ぼぶ) @BOBtakumi さんがア…

Lucas
3週間前
6

日本語ファインチューニングされたLlama-3-8Bを MLX & Gradioで試してみる

Llama-3が発表されてすぐにPhi-3が登場してきて賑やかしい日々です。 そんななかLlama-3-8Bに対して日本語をファインチューニングしたモデルが登場しています。 現時点では以下の二つです。 llama-3のeosの設定が最初わかりませんでしたが、以下のmlxのコードで上手く行きました。(最後のスクリプト全体も掲載します) model, tokenizer = load(モデル名, tokenizer_config={"eos_token":"<|eot_id|

Ollama で phi3:3.8b-mini-instruct-4k-fp16 を試してみる

いくつかモデルがありますが、phi3:3.8b-mini-instruct-4k-fp16 を試してみました。Page Assis…

Lucas
3週間前
9

Gradioの`ChatInterface`こと始め その7:⌘R+ API編 ~初めてAPIを使ってみた~

⌘R+がとってもいい感じなのですが、手元のMacbookProで動かすのはなかなかメモリー的に辛いと…

Lucas
1か月前
2

LLMの簡易的な日本語能力テスト - 【い】 のみを言わせる-

最近、ひろ吉さんが下記のおもしろいお題を出していました。 要するに、「言語モデルに、「あ…

Lucas
1か月前
4

WindowsでKoboldAI Liteを試してみる

下記を試してみました。 書かれてる手順通りで簡単にセットアップとモデルダウンロードができ…

Lucas
1か月前
2

Gradioの`ChatInterface`こと始め その6:Llama-cpp-python編

Terminalで、c4ai-command-r-plus-104b-iq2_xxs.gguff を走らせた記事を書きましたが、やっぱ…

Lucas
1か月前
5

ggml-c4ai-command-r-plus-104b-iq2_xxs.gguf をMac 64GBで動かしてみる

下記の記事を見てトライしてみました。 Llama.cppのmakeからということで、githubからダウン…

Lucas
1か月前
11

ローカル⌘Rで、キャラクターのペルソナ設定生成を試してみる -Claudeとの比較も-

Xで廻ってきた以下のポストがなかなか面白いので試してみました。ただ試すだけでは面白くないので、今話題の⌘Rのローカル4bit, Ollama版でやってみました。 プロンプトキャラクターの詳細ペルソナ設定1. 基本情報 1.1 名前 - フルネーム:[自由記述] - ニックネーム・通称:[自由記述] - 名前の由来:[自由記述] 1.2 年齢 - 年齢:[数値]歳 - 誕生日:[月]月[日]日 -