マガジンのカバー画像

ブログ

68
Catapp-Art3Dのブログです。
運営しているクリエイター

#AI

【比較】FLUX1-dev-bnb-nf4 vs FLUX1-Schnell-fp8【軽量モデル対決】

【比較】FLUX1-dev-bnb-nf4 vs FLUX1-Schnell-fp8【軽量モデル対決】

はじめにローカルで利用可能なFLUX.1の中位モデルの量子化版 dev-bnb-nf4と、下位モデルの軽量版schnell-fp8との比較 を行いました。

下記のセットアップで比較を行っています。(モデルのみを入れ替えているので、それぞれのモデルに最適なノードになっていないかもしれません)

パフォーマンス比較まず、速度比較ですが、メインの推論ステップに入る前にdev-bnb-nf4は40秒程度

もっとみる
【NF4】Flux.1をローカルで動かした話③【かなり軽くなった】

【NF4】Flux.1をローカルで動かした話③【かなり軽くなった】

はじめにFlux.1-devモデルを軽量化したモデルが利用できるので試してみました。

準備「flux1-dev-bnb-nf4.safetensors」モデルをダウンロードして、ComfyUIの「Unet」フォルダではなく「Checkpoints」フォルダへ保存します。

たぶんNF4は「Non-Float 4-bit Quantization」の略なんでしょう。つまりぶつ切り量子化したモデルで

もっとみる
【Wilma】Linux Mint 22にアップグレードした話【Ubuntu 24.04ベース】

【Wilma】Linux Mint 22にアップグレードした話【Ubuntu 24.04ベース】


※ 実はLinux mint 21からの自動アップグレード(mintupgrade)は失敗したので、クリンインストール+手作業移行です。

いつもLinux Mintで驚かされる事は、大型アップデートなのに、見た目は何も変わっていない事です。内部はかなり変更されているのですが、ユーザーインターフェースや操作方法が全く変わっていません。

昨今のソフトウェアはアップデート・アップグレードという名目

もっとみる
AI特異点(シンギュラリティ)は来るのか?

AI特異点(シンギュラリティ)は来るのか?

上記の定義とはちょっと異なりますが、物理数学では、簡単な組み合わせによる(簡単に)予測できるものが、あるポイントから突然複雑で予測不可能な振る舞いになる現象がよくあります。

たとえば、三体重力や、有名なロジスティック写像です。※ AIにお願いするとささっとコードを書いてくれます。

import numpy as npimport matplotlib.pyplot as plt# ロジスティッ

もっとみる
【ローカルLLM】Mistral-NeMo(12B)を使ってみた話

【ローカルLLM】Mistral-NeMo(12B)を使ってみた話

ローカルLLMとは、ChatGPTのような大規模言語モデルを、ローカルのパソコンで動かす小さなモデルの事です。ゲーミングPC程度の性能があれば、多くの言語モデルを動作させる事ができます。※ 筆者環境はRTX3060(12G)です

NVIDIA一押しのMistral社の多言語対応最新LLMモデルMistral-NeMoをOllamaで利用してみました。

ollama(Windows版)をインスト

もっとみる
【Ollama】Llama3.1を使ってみた話【ローカルLLM】

【Ollama】Llama3.1を使ってみた話【ローカルLLM】

はじめにOllamaでLlama3.1が利用できるようになったので、試してみました。

コマンドラインで簡易的に利用する場合は、Windows/Linux関係なくOllamaのgithubリポジトリから「OllamaSetup.exe」でインストールし、

ollama run llama3.1

とするだけで8Bモデルでチャットできます。GUIで本格的に利用する場合(Ollama Open We

もっとみる
【ラフ画AI生成】Kritaでステーキを描く【練習】

【ラフ画AI生成】Kritaでステーキを描く【練習】


はじめにKrita-ai-diffusionというKritaプラグインを利用すると、KritaでStable DiffusionによるAI画像生成を利用する事ができます。この記事はステーキ画像を練習として生成した過程の記録です。

Krita-ai-diffusion など筆者が利用するAIツールの導入方法はまとめてこちらで説明しています。

初期プロンプトとラフ画あまりステーキに詳しくなく一般

もっとみる
【Linux】Visionモデルを画像管理に応用する【ローカルLLM】

【Linux】Visionモデルを画像管理に応用する【ローカルLLM】

はじめに※ Linux環境での記事ですが、WindowsのWSL Linuxでも利用可能です。

LLMをローカルで利用するメリットの一つとして、大量のデータをローカルPCで解析させるという使い方があります。もちろん、料金の問題もありますが、個人情報や著作物を含む可能性のある雑多な画像データを、送信可能かどうか人が確認する手間が無くなります。Googleドライブに肌面積の多い「アニメイラスト」を保

もっとみる
【ローカル日本語LLM】llama3-Elyzaを試す【llama3】

【ローカル日本語LLM】llama3-Elyzaを試す【llama3】


はじめに最近リリースされたLlama3ベースの日本語チューニングLLM ElyzaをOllama Open WebUIで利用してみました。

公式ELYZA Noteページはこちら

実際にダウンロードしたggufファイルはこちら、(ELYZA社のhuggingfaceページ)

Ollama Open WebUIの導入方法や使い方は下記にまとめています。

利用したmodelfile(テンプレ

もっとみる
【ずんだもん】ローカルLLMにずんだもんの声で応答させる【LLM】

【ずんだもん】ローカルLLMにずんだもんの声で応答させる【LLM】

はじめにローカルLLMを実行できる ollama Open WebUI にずんだもんの声で応答させる「工夫」の紹介をします。各ソフトウェアのインストールさえできれば簡単に実現できます。

※ Open WebUI にはwebAPIのTTS読み上げ機能はありますが、VOICEVOX を直接操作する方法がないので、クリップボード経由での工夫です。Windowsでの説明を行います。

前提① VOICE

もっとみる
Gemma2 9Bは日本語も強いかもしれない

Gemma2 9Bは日本語も強いかもしれない

はじめにGemma2がollamaで利用可能になったため、9Bモデルをローカルで試してみました。(gemma2:9b-instruct-q6_K)

Gemma2とは性能チェックいまだかつて一度もLLMで100点の回答を得た事のない質問に関して、一発で100点満点を出しました。(※ RAGも含めて事前知識なし)

確かに知識としてのLLMの正しさはあまり評価として意味がないものかもしれませんが、質

もっとみる
【ローカルLLM】Ollama Open WebUI 完全解説【初級向け】

【ローカルLLM】Ollama Open WebUI 完全解説【初級向け】

【追記:2024年8月31日】Apache Tikaの導入方法を追記しました。日本語PDFのRAG利用に強くなります。

はじめに本記事は、ローカルパソコン環境でLLM(Large Language Model)を利用できるGUIフロントエンド (Ollama) Open WebUI のインストール方法や使い方を、LLMローカル利用が初めての方を想定して丁寧に解説します。

※ 画像生成AIと同じ

もっとみる
【AI活用】動画キャプチャ画像をAIアップスケーラで高画質化【ローカル】

【AI活用】動画キャプチャ画像をAIアップスケーラで高画質化【ローカル】

はじめにネットで利用できる拡散モデルの高性能アップスケーラは有料かつ高価である事が多い(例:Magnifiy AI・5900円/月)のですが、やはりその理由は、それに見合った価値があるからではないでしょうか。

たとえば、(一般的に高画質でない)動画のキャプチャ画像をトリミングしたものをアップスケールすれば、任意のショットを高精細な静止画の素材として利用する事もできます。一気に素材の利用範囲が広が

もっとみる
【中級】ローカルのみでの写真超解像化術【無料ソフトウェア】

【中級】ローカルのみでの写真超解像化術【無料ソフトウェア】

想定する読者ローカル環境のみを利用して高性能な画像アップスケール技術を利用したい人

ローカルへ Stable Diffusion webUI (forge)、ComfyUI が導入済み

Stable Diffusion 等の基本的な操作ができる人

はじめにこの記事はローカルでアップスケール(写真高画質化目的)を行うノウハウの紹介をします。

ネット上の便利な写真の高画質化サービスはありますが

もっとみる