人気の記事一覧

iOS・Android の ローカルLLM実行環境まとめ

2週間前

Llama.cpp で Command R+ を試す

1か月前

llama.cpp による transformersモデル の量子化

4週間前

【無料】ローカルPCで動く日本語LLM(ELYZA-japanese-Llama-2-7b-instruct)

2か月前

Llama.cppのOpenAI互換モードを使って、OpenAIから少ない手間でローカルLLMに乗り換える

3か月前

wandb を活用して LangChain を 日本語ローカルLLM 対応させる

4か月前

Mixtral-8x22Bをllama.cppで実行する

1か月前

話題のArrowPro-7B-KUJIRA の量子化モデル使ってみました

10日前

【ローカルLLM】Windows10でllama-cpp-pythonを動かす

3週間前

llama.cppのserver.exeに起動オプションを送って起動できるPythonコードを公開しました。

1か月前

【ローカルLLM】Windows10のllama.cppでGPUを使う

1か月前

[オタク機器日記] RTX8000で4bit量子化版Command R+ 104B版を試す

【ローカルLLM】Windows10でllama.cppを動かす

2か月前

【ローカルLLM】Mixtral-8x7bをllama.cppで試す

5か月前

macOSオンデバイスでLLMを動かすアプリの比較 -LM studio, Ollama, etc...

2か月前

WSL2とllama.cppでKARAKURI LMを試してみる

3か月前

早速、SAKANA AIのEvoLLM-JP-A-v1-7Bをllama.cppでggufに変換してローカルPCで実行した。何となくではあるが、blogに書いてあることは出来ている気がする (q4に変換したことが影響したかは謎だけど) https://sakana.ai/evolutionary-model-merge-jp/

2か月前

【llama.cpp】CPUとRAM、どっちが重要?

5か月前

オープンソースなLLM(calm2-7b)のCPU推論エンドポイントをAzureとllama-cpp-pythonでシュッとつくる

5か月前

飛行機でOpenAIのLLMが使えなくなるのでローカルLLMをMacBook Pro(M2)で使えるようにしておく