マガジンのカバー画像

ローカルLLM

28
ローカルLLM関連は主にブログで更新しています。 https://sc-bakushu.hatenablog.com/
運営しているクリエイター

#TextGenerationWebUI

【ローカルLLM】text-generation-webUIのAPI機能を試す

ローカルLLMをAPI的に使う場合は、llama.cpp(GGUF/GGML)が手軽そう。ただ、大きなモデルでは…

Baku
9か月前
26

【ローカルLLM】Llama 2のコンテキスト長を15Kトークン超に拡大する

せっかくなのでLlama 2を触ってみようと思っていたところ、以下のスレッドに「Exllamaで16Kの…

Baku
11か月前
29

【ローカルLLM】Llamaモデルのコンテキスト拡張について整理する

「LLongMA 2」という長いコンテキストに対応したLlama-2派生モデルが話題になっていたので、Go…

Baku
11か月前
9

【ローカルLLM】SuperHOT 8Kで6000トークン超のコンテキストを試す

数日前、RedditのローカルLLMスレに以下の投稿が上がっていた。Llamaベースの大規模言語モデル…

Baku
1年前
5

【ローカルLLM】ExLlamaでtext-generation-webuiによるテキスト生成を高速化する

数日前、RedditのローカルLLMスレに以下の投稿が上がっていた。Llamaベースの大規模言語モデル…

Baku
1年前
15