人気の記事一覧

QWQが凄すぎて俺のMacがシンギュラリ始めている

2か月前
再生

🎦 ChatGPTを超える?Open WebUIで始める自由自在なAI会話:コスト0円で実現するカスタムLLMの世界

AI:GPU なしのノート PC で簡単にローカル LLM を試す ~ DeepSeek-R1

6日前

Ollama で Hugging Face Hub の GGUF をそのまま使ってみる

3か月前

Ollama で structured outputs (構造化出力)を試す

2か月前

Ollama で 「DeepSeek-R1 」の日本語追加学習モデルを動かす

10日前

Ollama+Langchainを使って軽量モデルLlama3.2で無料でWEBページの要約や翻訳、要約を元にした会話劇を作成する

Ollama で llama3.2-vision を試す

3か月前

Lispで複数のLLMを組み合わせたMoA(Mixture of Agents)を作る

4か月前

【ローカルDify×ローカルLLM】完全にローカルなチャットエージェントを作る

【超入門】 あなたも出来る! 3 ステップで動かすローカルLLM: Ollama + Page Assist利用

3か月前

ComfyUI上でローカルLLMを使っていい感じのプロンプトにして画像生成するまで

4か月前

DeepSeek v3 on Ollama! VS Code + Continue.devで始める新時代のAI開発環境

10日前

お手軽ローカルLLMソフトOllamaで画像認識モデル llama3.2-vision 11b/90bが使えるようになったのでいくつか試し使い所を考察

ComfyUI IF_AI_tools IF Chat Prompt オリジナルアシスタントを作る

4か月前

妻にDeepSeek R1をローカルPCで動かす方法を教えたのでここに手順を残します

Ollamaを使ってローカルでRAGとLLMを使う一番簡単なObsidianの活用方法

3日前

【技術ブログ】ローカルLLMでRAG構築:ゼロからの挑戦

ollamaと戯れるの、たのしい

2週間前

【フジ謝罪会見】10時間のYouTube要約をやってみたよ(DeepSeek-R1編)

11日前

いちばんやさしいローカル LLM

9か月前

DeepSeek-R1 14B を使ってみた

2週間前

【メモリ消費量一覧付き】OllamaでDeepSeek R-1を動かすよ!

2週間前

【ローカルLLM】Ollama Open WebUI 完全解説【初級向け】

¥700〜
割引あり
7か月前

Ollama で Phi4 を動かす on Windows 11

1か月前

【必読】DeepSeek利用時のサーバーリスクを回避する方法

オープンソースLLMをローカル環境で動かしてみた

10日前

【Flux.1】Flux.1時代のローカルAI画像生成【SD1.5】

¥300〜
割引あり
5か月前

ClineからカスタムMCPサーバを使う

2週間前

ローカルLLMで音声合成

2か月前

【中級者&上級者向け】(Ollama)Open WebUIの高速化【ローカルLLM】

2か月前

小型マルチモーダルAI「MiniCPM-V」とは?GPT-4Vを凌駕する性能と活用法

4か月前

【LLM】Ollama利用のCopilot Page Assist機能拡張を使ってみた話【ブラウザ機能拡張】

3か月前

【超入門】Hugging Faceの長いモデル名のggufモデルをPage AssistでOllama用にダウンロードする方法

3か月前

2025年にセルフホステッドを始める最高に簡単な方法

1か月前

【日本語LLM】Ollamaで利用可能な日本語対応embeddingモデル【Ruri】

4か月前

【SLM】Gemma2-2B-JPN-ITを使ってみた話【軽量モデル】

3か月前

Ollama+llama3.2-vision:11bを使った画像のメタタグ生成とR18判定の実装。ローカルLLMで無料で画像判定ができる時代の到来

Google Gemma2でショートショートを生成してみた

【Ollama】誰でも簡単にローカルLLMを呼び出せるオープンソースで画像認識してみた

DeepSeek R1 32BをPCで回してみた。

¥300

【LLM乱世を生き抜け】OllamaのModelsに無いModelも使ってみよう!

10日前

【Ollama】ComfyUIでLLMを使う方法

¥0〜
割引あり
3か月前

【AI生成ガチャ】ファッショナブル・ウーマンメイキング【ローカル全自動】

6か月前

RTX 3090+ollamaでどのくらいの速度で推論できるか試してみた

5日前

DeepSeek-V2.5 を試す

5か月前

【ローカルLLM】 Ollama+Phi-4でエッチなキャラクターロールプレイを実装してみる

¥300

OllamaをWindowsで動かした場合のDocker-OpenWebUIとWSL2内からのネットワークアクセス設定

話題のdeepseek-r1をローカルで動かしてみた

2週間前

OpenAI SwarmでOllamaをつかってみよう

3か月前