人気の記事一覧
【実験】Claude 3 Opusに論文を読ませて、要約させる:BitNetとBMTの比較
[Mac]Meta-Llama-3-8Bをgguf変換して量子化してみました
スパース推定アルゴリズムと量子化技術による大規模言語モデルのデータ圧縮
BitNetにおけるSTE(Straight-Through Estimator)の実装
BitNet&BitNet b158の実装:参照まとめ
【ローカルLLM】Mixtral-8x7bをllama.cppで試す
llama.cppをローカル起動してFastAPIでAPI化
【生成AI】入門者としておさえておきたい「大規模言語モデル(LLM)の現状の全体感」(2/3)
Google ColabでQLoRA したLlama-3をMLXモデル(macOS)へ変換する
Fine Tuning LLM for Enterprise: Practical Guidelines and Recommendations
CALM2-7BをAWQで4bit量子化&高速推論
AutoGPTQ と transformers によるLLMの軽量化