人気の記事一覧

いちばんやさしいローカル LLM

1か月前

ローカルLLMの長文推論、メモリ使用量を節約する方法:KVキャッシュの量子化

BitNet&BitNet b158の実装①

2か月前

[Mac]Meta-Llama-3-8Bをgguf変換して量子化してみました

2週間前

BitNet&BitNet b158の実装②

2か月前

BitNet&BitNet b158の実装③

2か月前

【実験】Claude 3 Opusに論文を読ませて、要約させる:BitNetとBMTの比較

2か月前

BitNet&BitNet b158の実装④

2か月前

スパース推定アルゴリズムと量子化技術による大規模言語モデルのデータ圧縮

2週間前

キャリブレーションデータにもっと気を配ろうの話

5か月前

BitNetにおけるSTE(Straight-Through Estimator)の実装

2か月前

日本語対応の大規模言語モデル(LLM)をローカル環境で試す:VRAM 8GBの挑戦

有料
0〜
割引あり
1か月前

【生成AI】入門者としておさえておきたい「大規模言語モデル(LLM)の現状の全体感」(2/3)

有料
200
3週間前

BitNet&BitNet b158の実装:参照まとめ

2か月前

【ローカルLLM】Mixtral-8x7bをllama.cppで試す

5か月前

llama.cppをローカル起動してFastAPIでAPI化

2か月前

GoogleColabでHuggingFaceのモデルをGGUFフォーマットに変換🔄/大塚

6日前

驚愕の2ビット量子化LLM/GGUF

8か月前

Google ColabでQLoRA したLlama-3をMLXモデル(macOS)へ変換する

3週間前

BitNetの計算を検討する。

2か月前