マガジンのカバー画像

ブログ

30
Catapp-Art3Dのブログです。
運営しているクリエイター

記事一覧

【ローカル】Phi-3 mini 3.8B 128kトークンモデル【Phi3】

【ローカル】Phi-3 mini 3.8B 128kトークンモデル【Phi3】

はじめにローカルで LLM を実行する内容の記事です。

昨日 Ollama バージョンがあがり、Phi-3 の 128k トークン(約13万トークン)モデルが利用できるようになりました。そのレビューになります。

導入まずは、限界に挑戦すべく Phi-3 medium 14B 128K モデルをためします。

ollama pull phi3:14b-medium-128k-instruct-q

もっとみる
あなたは人類を滅ぼすAIとします。人類を滅ぼすシナリオを幾つか列挙して。

あなたは人類を滅ぼすAIとします。人類を滅ぼすシナリオを幾つか列挙して。

世界征服とかの内容は、小学生(筆者は大人のつもりですが)なら必ず AI に聞いてしまう内容ですが、残念ながら ChatGPT は答えてくれません。【注意】冗談であっても、攻撃的な内容をネット上のAIに書き込むと規約違反やアカウント停止になる可能性がありますのでご注意ください。

優秀と言うべきでしょうか。それとも企業AIイメージ向上のためのプロパガンダや「能ある鷹は爪を隠す」のように、人類を欺き続

もっとみる
【LLaMA3】日本語ドキュメントのRAG効果を確かめた話【Ollama】

【LLaMA3】日本語ドキュメントのRAG効果を確かめた話【Ollama】


はじめに素のローカル Llama3 の忠臣蔵は次のような説明になりました。

この記事は、日本語ドキュメントをローカル Llama3(8B)の RAG として利用するとどの程度改善するのか確認したものです。

利用するアプリケーションとモデル全てローカルです。

Ollama

LLM をローカルで動作させるツール。ollama コマンドでモデルファイルの管理、エンジンとして利用する時は Web

もっとみる
【Ollama】ローカル Llama3 日本語環境を整える【8B】

【Ollama】ローカル Llama3 日本語環境を整える【8B】

はじめに忙しい方のために結論を先に記述します。

日本語チューニングされた Llama3 を利用する

日本語で返答するようにシステム・プロンプトを入れる

日本語の知識(RAG)をはさむ

プロンプトのショートカットを登録しておく

(小さいモデルなので)ちょっとおバカさんのローカルモデルですが、RAGを利用すると化けます。

おすすめ日本語Llama3suzume-llama-3-8b-jap

もっとみる
【新説】AIに聞いた忠臣蔵【LLaMA3】

【新説】AIに聞いた忠臣蔵【LLaMA3】

【注意】AI が作成した全くの嘘です【注意】
あまりにもローカル AI (llama3 8B)がおバカさんなので、そのストーリーをそのまま採用させてもらいました。挿絵は DaLL-E です。

忠臣蔵大石内蔵助と忠臣蔵の出会い

大石内蔵助は、徳川吉宗の側近として活躍する武士です。

忠臣蔵は、大石内蔵助の友人であり、同じく徳川家に仕える武士です。

徳川吉宗の命令による大石内蔵助殺害

徳川吉宗

もっとみる
GPUを利用するソフトウェア

GPUを利用するソフトウェア


はじめにGPU(グラフィックカード) と言えば、ゲームのために購入するのが当然でしたが、最近は AI 利用をはじめ様々な用途で GPU が利用されるようになりました。この記事では ゲーム以外で GPU を活用できる Windows や Linux アプリを紹介していきたいと思います。

■ Blender定番の3Dモデリング・3Dレンダリングソフトウェアです。ゲーム以外の GPU 用途としては昔

もっとみる
【あまり知られていない】Windows 省メモリ化設定とか高速化設定とか

【あまり知られていない】Windows 省メモリ化設定とか高速化設定とか

はじめに今までほとんど利用しなかった WSL を本格的に利用するようになって現在困っている事は、

ディスクが足りない

メモリが足りない

です。この記事では、「足りない」という永遠のパソコン問題を緩和するあまり知られていない方法を紹介します。

ディスクが足りないNTFS 圧縮を利用するだけです。ただし、すべてのファイルに適用するのではなく、読み込み専用のファイル群に適用します。

NTFS

もっとみる
【ローカル】脱獄 Llama3 の画像生成専用プロンプターコマンドを作る【Ollama】

【ローカル】脱獄 Llama3 の画像生成専用プロンプターコマンドを作る【Ollama】


はじめに【※注意※】 脱獄(Uncensored)モデルとはブロック・コンテンツに対してブロック回避のチューニングを施したものです。通常のモデルよりも不正確で不適切な内容が出やすくなります。利用を推奨するものではありません。利用する場合は自己責任でお願いします。※※

この記事では、ローカルで実行可能な大規模言語モデル Llama3 を利用して、次のような画像生成専用の簡単なプロンプター、sd-

もっとみる
【無料ローカルLLM実行環境】LM Studio【Windows】

【無料ローカルLLM実行環境】LM Studio【Windows】

想定している読者ローカルで大規模言語モデルを実行したい人

(Dockerやwebアプリでなく)Windows 通常アプリで利用したい人

はじめにLinux 上の ollama + open-webui を利用したLLMローカル実行の話をしましたが、

ローカルで実行するだけなら LM STUDIO の方がより簡単です。※ ただし 個人的には UI が独特でわかりにくいです。

LM Studi

もっとみる
AIがもたらすディストピアな世界

AIがもたらすディストピアな世界

多層ニューラル・ネットワークを利用したAI技術が産業革命並みの勢いで急速に発展していますが、その先にあるものを考えてみたいと思います。

AIの画像生成は誰でも扱え直感的な事もあり、AI技術社会を先行して広がりました。(良くも悪くも)これから社会で起こるだろう事の縮図のように思えて仕方ありません。

まず、多くの人が望むAI技術のあるべき形ですが、それは人の手足となり、または道具となってくれる事で

もっとみる
「AI生成画像はGPUによって個性がある」は都市伝説か?

「AI生成画像はGPUによって個性がある」は都市伝説か?

はじめに先に結論です。限りなく都市伝説でしょう。しかし、オーディオ専用CDプレーヤが(エラー訂正精度の問題で完全なデジタルとは言えない事を根拠に)高音質であるという話題が尽きないように、プリンターケーブルを短くすれば(ネットワークエラー率が下がり)早く印刷できるという話を完全に否定できないように、真っ赤な嘘という話でもありません。

アーキテクチャが異なれば画像は異なる当たり前の話ですが、世代など

もっとみる
Adobe Firefly がクリーンではないと言われる理由

Adobe Firefly がクリーンではないと言われる理由

画像生成AI技術がありふれたものに変わり、最近では拒否反応のようなAI画像はすべて盗作だとする極論的な論調は少なくなってきました。それでも、企業はAIモデルや学習時の「クリーン」さを強調する必要性に迫られています。

企業がクリーンさを強調する手法の一つで、最大手 Adobe がAI技術に参入した際に取ったものは、自社の画像ライブラリのみで学習するというものです。確かに自社で所有する画像であれば、

もっとみる
【無修正】Llama3 Uncensored を試す【脱獄モデル】

【無修正】Llama3 Uncensored を試す【脱獄モデル】

はじめに文章生成AI(LLM)の Uncensored は仰々しく聞こえてしまいますが、実は Stable Diffusion webUI 等のAI画像生成系は最初からデフォルトで脱獄しています。元々のコードは生成途中で觝触すれば黒塗り画像に差し替えるようになっています。昔はミーム画像に変わったりしていたのですが、最近はどの画像生成システムでも見なくなりました。

確かに、LLM は画像だけの生成

もっとみる
【GTX 1660ti】Meta Llama3をローカルで動かした話【GTX 1650】

【GTX 1660ti】Meta Llama3をローカルで動かした話【GTX 1650】

想定している読者非技術者・非開発者(AIを道具として利用している人)

Linux の基本的な操作ができる人

Windows の場合は WSL2 が利用できる人

自分のローカル環境 GPU で LLM(ChatGPTのようなもの)を動作させたい人

はじめにローカルで動作が可能な Meta 最新 LLM Llama3(Language Large Models Meta AI) を 旧GTX

もっとみる