人気の記事一覧
iOS・Android の ローカルLLM実行環境まとめ
話題のArrowPro-7B-KUJIRA の量子化モデル使ってみました
llama.cppの公式Swift Packageの使い方を調べたメモ - llama.swiftuiのコードリーディング
【無料】ローカルPCで動く日本語LLM(ELYZA-japanese-Llama-2-7b-instruct)
llama.cpp による transformersモデル の量子化
LlamaCppのUIツール「LlamaChat」
Llama.cpp で Karakuri LM を試す
Llama.cppのOpenAI互換モードを使って、OpenAIから少ない手間でローカルLLMに乗り換える
wandb を活用して LangChain を 日本語ローカルLLM 対応させる
llama.cppでHuggingFaceモデルを4bit量子化😚【GoogleColab】/大塚
Mixtral-8x22Bをllama.cppで実行する
【ローカルLLM】Windows10でllama-cpp-pythonを動かす
WSL2でllama-cpp-pythonを試してみる
【ローカルLLM】Windows10でllama.cppを動かす
llama.cppのserver.exeに起動オプションを送って起動できるPythonコードを公開しました。
[オタク機器日記] RTX8000で4bit量子化版Command R+ 104B版を試す
【ローカルLLM】Windows10のllama.cppでGPUを使う
【ローカルLLM】Mixtral-8x7bをllama.cppで試す
GoogleColabでHuggingFaceのモデルをGGUFフォーマットに変換🔄/大塚