マガジンのカバー画像

ローカルLLM

28
ローカルLLM関連は主にブログで更新しています。 https://sc-bakushu.hatenablog.com/
運営しているクリエイター

#gguf

【llama.cpp】CPUとRAM、どっちが重要?

llama.cppのCPUオンリーの推論について CPUでもテキスト生成自体は意外にスムーズ。なのに、…

Baku
6か月前
7

【llama.cpp】Qwen-14BをGGUF量子化して日本語で試す

2023/12/05:llama.cppが「Qwen」に対応したので試しました。 「Qwen」は中国Alibabaグループ…

Baku
6か月前
7

【ローカルLLM】llama.cppの「投機的サンプリング」を試す

llama.cppに「Speculative Sampling(投機的サンプリング)」という実験的な機能がマージされ…

Baku
9か月前
10

【ローカルLLM】Gradioとllama-cpp-pythonで日本語チャットボットを作る

先日の記事に続き、ウェブUI用のPythonライブラリ「gradio」を使って、簡単なチャットボットを…

Baku
10か月前
28

【ローカルLLM】Colabの標準GPUで「CodeLlama-34B-GGUF」を動かす

Metaがコーディング用の言語モデル「Code Llama」をリリースした。 7月に公開済みのLlama-2を…

Baku
10か月前
11

GGMLからGGUFへ:llama.cppのファイルフォーマット変更

RedditのローカルLLM板に以下の投稿があった。週明けに「llama.cpp」で使われているGGMLファイ…

Baku
10か月前
18