noguchi-shoji

CISO & Head of Engineering at BTC Co. |…

noguchi-shoji

CISO & Head of Engineering at BTC Co. | #FANKS | #IPAjp Expert Advisor | JH WGS member | Ex- #IETF er | Ex-Osakan #CISSP, #CCSP, #CEH.

最近の記事

WSL2でLlama-3 Swallowを試してみる

「Meta社が2024/04/18にリリースした高性能な英語モデルLlama-3-8B、Llama-3-70Bから継続事前学習を行い日本語性能を強化したモデル」であるLlama-3 Swallowの8Bモデルが2つ公開されました。 tokyotech-llm/Llama-3-Swallow-8B-v0.1 tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0.1 二つとも、試してみます。 使用するPCはドスパラさんの「GALLERI

    • WSL2でGemma 2を試してみる

      GoogleのGemma 2 9bモデルが2つ公開されましたので、試してみます。 google/gemma-2-9b google/gemma-2-9b-it 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® Ge

      • WSL2でLlama-3-ELYZA-JPを試してみる

        「『GPT-4』を上回る日本語性能のLLM」はLlama-3-ELYZA-JP-70Bらしいですが、そのファミリーである8Bモデルを試してみます。 8Bのモデルを今回使用します。 elyza/Llama-3-ELYZA-JP-8B elyza/Llama-3-ELYZA-JP-8B-AWQ elyza/Llama-3-ELYZA-JP-8B-GGUF 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™

        • WSL2でMatMul-Free LMを試してみる

          「LLM 1Bパラメータで行列計算を完全に排除できた。メモリ消費量を学習時10倍、推論時61%Max削減」らしいMatMul-Free LMを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeFor

        WSL2でLlama-3 Swallowを試してみる

          WSL2でStable Diffusion 3を試してみる

          Stable Diffusion 3を素で試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce RTX™ 4090 (24GB) ・OS: Ubuntu22.04 on WSL2(Windo

          WSL2でStable Diffusion 3を試してみる

          WSL2でUnique3Dを試してみる

          Hugging Face Spaceで公開されている「任意のオブジェクトの単一の直交RGB画像から高忠実度のテクスチャメッシュを30 秒以内に生成できる」らしいUnique3Dをローカル環境で試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(

          WSL2でUnique3Dを試してみる

          UbuntuでMusePoseを試してみる

          「仮想人間生成のためのポーズ駆動型イメージ-to-ビデオ フレームワーク」であるらしいMusePoseを試してみます。 1. 準備環境構築 python3 -m venv museposecd $_source bin/activate リポジトリをクローンして、パッケージをインストールします。 # clonegit clone https://github.com/TMElyralab/MusePosecd MusePose# requirements.txtpip

          UbuntuでMusePoseを試してみる

          WSL2でRWKV-infctx-trainer-LoRAを試してみる...

          「Infctx-LoRAに4ビット量子化モードを追加し、単一 24GB GPUで14Bモデルのトレーニングを可能にした」らしいRWKV-infctx-trainer-LoRAを試してみます。 24GBという文字列を見ると反応していますね。はい。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce R

          WSL2でRWKV-infctx-trainer-LoRAを試してみる...

          WSL2でID-Animatorを試してみる

          「ゼロショット ID を保持したヒューマン ビデオ生成フレームワーク。 1枚のID画像を参照するだけで、高品質なID固有の人物動画を生成できる」らしいID-Animatorを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GP

          WSL2でID-Animatorを試してみる

          WSL2でJapanese Stable LM 2 1.6Bを試してみる

          「16億パラメータで学習した日本語の小型言語モデル」であるJapanese Stable LM 2 1.6Bを試してみます。 現在2つのモデルが公開されています。 Japanese Stable LM 2 Base 1.6B Japanese Stable LM 2 Instruct 1.6B 今回は、2つ目のJapanese Stable LM 2 Instruct 1.6Bを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペ

          WSL2でJapanese Stable LM 2 1.6Bを試してみる

          WSL2でFugaku-LLM-13B-instruct-ggufを試してみる

          理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLM。今回はそのうちのひとつであるFugaku-LLM-13B-instruct-ggufを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop

          WSL2でFugaku-LLM-13B-instruct-ggufを試してみる

          WSL2でFugaku-LLM-13B-instructを試してみる

          理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLMを試してみます。 ※別記事でggufを試してしまったので、明確にするためにタイトルを「Fugaku-LLM」から「Fugaku-LLM-13B-instruct」に修正しています。 現在3つのモデルが公開されています。 Fugaku-LLM-13B Fugaku-LLM-13B-instruct Fugaku-LLM-13B-instruct-gguf

          WSL2でFugaku-LLM-13B-instructを試してみる

          MacBook ProでOpenELMを試してみる

          Appleが公開した「オープンソースの効率的言語モデルのファミリー」らしいOpenELM。 mlx-lmを使用して、OpenELM-270M-Instructモデルを試してみます。 試したマシンは、MacBook Pro M3 Proチップ、メモリ18GBです。 1. 準備venv構築 python3 -m venv openelmcd $_source bin/activate パッケージのインストール pip install mlx-lm 2. 流し込むコード

          MacBook ProでOpenELMを試してみる

          WSL2でOpenELMを試してみる

          Appleが公開した「オープンソースの効率的言語モデルのファミリー」らしいOpenELM。 今回はInstructモデルの以下の4つを試してみます。 OpenELM-270M-Instruct OpenELM-450M-Instruct OpenELM-1_1B-Instruct OpenELM-3B-Instruct 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Pro

          WSL2でOpenELMを試してみる

          WSL2でPhi-3-mini-128k-instructを試してみる

          「Phi-3 データセットを使用してトレーニングされた、38 億パラメータの軽量の最先端のオープンモデル」らしい、Phi-3-mini-128k-instructを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NV

          WSL2でPhi-3-mini-128k-instructを試してみる

          WSL2でsuzume-llama-3-8B-japaneseを試してみる

          「3,000 以上の日本語会話に合わせて微調整されており、このモデルには Llama 3のインテリジェンスがありながら、日本語でチャットする機能が追加されている」らしい、Suzumeを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB

          WSL2でsuzume-llama-3-8B-japaneseを試してみる