人気の記事一覧

SafetensorsをGGUFファイルへの変換する!@llama.cppを使用するパターン

1か月前

FLUX.1のモデル紹介 [Aug 2024](更新終了)

1か月前

WSL2でLlama-3.1-70B-Japanese-Instruct-2407-ggufを試してみる

2か月前

SafetensorsモデルのGGUF化@paperspaceでも出来る編

1か月前

Civitans!Civitai Biweeklyの第40号の日本語訳情報まとめ

20時間前

[Mac]Meta-Llama-3-8Bをgguf変換して量子化してみました

4か月前

ComfyUIでFlux.1のGGUFを試してみる(Schnell 4STEP版)

1か月前

Big Tiger Gemma 27B v1:Gemmaの無修正バージョン

transformersでGGUFを読み込んでみよう!

3か月前

llama.cppでHuggingFaceモデルを4bit量子化😚【GoogleColab】/大塚

4か月前

【動け!】ゲーミングノート vs ELYZA-13B量子化モデル【ローカルLLM】

9か月前

Mac内のローカルで電子カルテ解析できますか? 〜日本語LLM(Swallow)を使ってみた〜

9か月前

MLX で Elyza-7Bのgguf を試す

8か月前

200Kトークン対応34BモデルNous-Capybaraをローカルで試す

10か月前

GoogleColabでHuggingFaceのモデルをGGUFフォーマットに変換🔄/大塚

4か月前

結局 llama.cpp とは何者なのか?

9か月前

驚愕の2ビット量子化LLM/GGUF

1年前

【llama.cpp】CPUとRAM、どっちが重要?

9か月前

ComfyUIでFlux.1のGGUFを試してみる

1か月前

【llama.cpp】Qwen-14BをGGUF量子化して日本語で試す

9か月前

【ローカルLLM】Gradioとllama-cpp-pythonで日本語チャットボットを作る

1年前

GGMLからGGUFへ:llama.cppのファイルフォーマット変更

1年前

rinna-youri-7b-instructionを作成済みの試験PGやAPIサーバ・クライアントで試す。

【ローカルLLM】llama.cppの「投機的サンプリング」を試す

1年前

【ローカルLLM】Colabの標準GPUで「CodeLlama-34B-GGUF」を動かす

1年前

My LLMこと始め ③ Macでいろいろ

10か月前

Text Generation Web UI の利用の覚書メモ

1年前

デート中に彼女に浣腸したらこれまで以上にラブラブになった話

¥500

youri 7b chat gguf(短期記憶あり)

10か月前

GGUFフォーマットのAI言語モデルをollamaに変換する方法

2週間前

新しいStable Diffusion WebUI ForgeでFLUX.1を試す(Windows)

1か月前

ComfyUI上でFLUX.1を使用するための補足(NF4,GGUF対応ほか)

1か月前

gguf版、elyza-japanese-7b-instでチャットモードで会話してみました。(短期記憶あり)

10か月前