マガジンのカバー画像

ローカルLLM関連:初心者の取り組み

136
ローカルで動かす試み関係の記事をまとめてマガジンにしました。
運営しているクリエイター

#Python入門

Gradioの`ChatInterface`こと始め その5:Ollama API編

Ollama-Pythonモジュールでは、細かい設定はできません。ollama のAPIを使う方法を次に試して…

Lucas
6か月前
5

PythonのTkinterモジュール学習のコツ

Ptyhonの自学自習のモチベーションがちょっと下がっているので、GPT-4にコツを辞典的に生成し…

Lucas
6か月前
3

システムプロンプトを簡単に切り替えたい:Classを活用すればいいのか〜 Python入門…

Pythonをマイペースで学習中ですが、ようやくClassが理解できつつある気がします。 それでタ…

Lucas
7か月前
13

Python学習:ollama-pythonモジュールの例で喋らしてみる

Ollamaの日本語表示がちゃんとなるようになったことと、githubにわかりやすい整理がされたので…

Lucas
7か月前
8

Python学習:Pythonのミュータブルとイミュータブルの概念とBTRONの化身と実身の概念…

Pythonのミュータブルとイミュータブルの概念とBTRONの化身と実身の概念の比較序論 Pythonの…

Lucas
7か月前
2

Chat-templateについて

ローカルLLMを走らせる際に、どんな形式でプロンプトを渡すのかを示す言葉が chat-template み…

Lucas
7か月前
3

Llama-cpp-python研究: StableBeluga2用 Terminalスクリプト

Llama-cpp-pythonのドキュメントを読んでもピンとこないので、githubにあるコードを見取り学習してます。 こちらは難しくてよくわからなかった。 わかりやすい感じだったのはこちら。 特に参考になったのは、こちら とくに、これを参考 してストリーミングで出力させるあたりを活用させてもらいます。 def chat( model_name: Annotated[str, typer.Option(help="Model name")] = "go-br

llama-cpp-python をMacbookProにインストールしてみる

mlx環境で今までいろいろとLLMを試してきましたが、llama.cppがまだデファクトみたいなようで…

Lucas
7か月前
7

⭐️⭐️⭐️ MLX Language Model Interactive Terminal ⭐️⭐️⭐️ さらにバージョ…

MLX 対話 Terminalのバージョンアップをまたおこないました。 h で最初の画面 helpです。 r …

Lucas
8か月前
2