noguchi-shoji

CISO & Head of Engineering at BTC Co. |…

noguchi-shoji

CISO & Head of Engineering at BTC Co. | #FANKS | #IPAjp Expert Advisor | JH WGS member | Ex- #IETF er | Ex-Osakan #CISSP, #CCSP, #CEH.

記事一覧

WSL2でlocal-gemmaを試してみる

27Bモデルのgemma 2がRTX 4090(24GB)でもロードできる?と噂のlocal-gemmaを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel…

noguchi-shoji
11日前
2

WSL2でEra3Dを試してみる

「一枚の画像から高解像度の多視点画像を生成する新しい多視点拡散方式」らしいEra3Dを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・C…

noguchi-shoji
2週間前
5

WSL2でCF-3DGSを試してみる

「写真のようにリアルな新しいビュー画像を効率的に合成することに成功し、COLMAP 処理への依存を排除​​しながら、トレーニング時間の短縮とリアルタイム レンダリング機…

noguchi-shoji
2週間前
6

WSL2でLlama-3 Swallowを試してみる

「Meta社が2024/04/18にリリースした高性能な英語モデルLlama-3-8B、Llama-3-70Bから継続事前学習を行い日本語性能を強化したモデル」であるLlama-3 Swallowの8Bモデルが2…

noguchi-shoji
3週間前
5

WSL2でGemma 2を試してみる

GoogleのGemma 2 9bモデルが2つ公開されましたので、試してみます。 google/gemma-2-9b google/gemma-2-9b-it 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペ…

noguchi-shoji
3週間前
14

WSL2でLlama-3-ELYZA-JPを試してみる

「『GPT-4』を上回る日本語性能のLLM」はLlama-3-ELYZA-JP-70Bらしいですが、そのファミリーである8Bモデルを試してみます。 8Bのモデルを今回使用します。 elyza/Llama-…

noguchi-shoji
3週間前
16

WSL2でMatMul-Free LMを試してみる

「LLM 1Bパラメータで行列計算を完全に排除できた。メモリ消費量を学習時10倍、推論時61%Max削減」らしいMatMul-Free LMを試してみます。 使用するPCはドスパラさんの「GA…

noguchi-shoji
3週間前
5

WSL2でStable Diffusion 3を試してみる

Stable Diffusion 3を素で試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GP…

noguchi-shoji
1か月前
5

WSL2でUnique3Dを試してみる

Hugging Face Spaceで公開されている「任意のオブジェクトの単一の直交RGB画像から高忠実度のテクスチャメッシュを30 秒以内に生成できる」らしいUnique3Dをローカル環境で…

noguchi-shoji
1か月前
6

UbuntuでMusePoseを試してみる

「仮想人間生成のためのポーズ駆動型イメージ-to-ビデオ フレームワーク」であるらしいMusePoseを試してみます。 1. 準備環境構築 python3 -m venv museposecd $_source …

noguchi-shoji
1か月前
52

WSL2でRWKV-infctx-trainer-LoRAを試してみる...

「Infctx-LoRAに4ビット量子化モードを追加し、単一 24GB GPUで14Bモデルのトレーニングを可能にした」らしいRWKV-infctx-trainer-LoRAを試してみます。 24GBという文字列…

noguchi-shoji
1か月前
9

WSL2でID-Animatorを試してみる

「ゼロショット ID を保持したヒューマン ビデオ生成フレームワーク。 1枚のID画像を参照するだけで、高品質なID固有の人物動画を生成できる」らしいID-Animatorを試してみ…

noguchi-shoji
2か月前
5

WSL2でJapanese Stable LM 2 1.6Bを試してみる

「16億パラメータで学習した日本語の小型言語モデル」であるJapanese Stable LM 2 1.6Bを試してみます。 現在2つのモデルが公開されています。 Japanese Stable LM 2 Bas…

noguchi-shoji
2か月前
12

WSL2でFugaku-LLM-13B-instruct-ggufを試してみる

理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLM。今回はそのうちのひとつであるFugaku-LLM-13B-instruct-gg…

noguchi-shoji
2か月前
11

WSL2でFugaku-LLM-13B-instructを試してみる

理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLMを試してみます。 ※別記事でggufを試してしまったので、明…

noguchi-shoji
2か月前
15

MacBook ProでOpenELMを試してみる

Appleが公開した「オープンソースの効率的言語モデルのファミリー」らしいOpenELM。 mlx-lmを使用して、OpenELM-270M-Instructモデルを試してみます。 試したマシンは、Ma…

noguchi-shoji
2か月前
11
WSL2でlocal-gemmaを試してみる

WSL2でlocal-gemmaを試してみる

27Bモデルのgemma 2がRTX 4090(24GB)でもロードできる?と噂のlocal-gemmaを試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16G

もっとみる
WSL2でEra3Dを試してみる

WSL2でEra3Dを試してみる

「一枚の画像から高解像度の多視点画像を生成する新しい多視点拡散方式」らしいEra3Dを試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB)
・GPU: N

もっとみる
WSL2でCF-3DGSを試してみる

WSL2でCF-3DGSを試してみる

「写真のようにリアルな新しいビュー画像を効率的に合成することに成功し、COLMAP 処理への依存を排除​​しながら、トレーニング時間の短縮とリアルタイム レンダリング機能を提供」してくれるらしいNVlabsのCF-3DGSを試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor

もっとみる
WSL2でLlama-3 Swallowを試してみる

WSL2でLlama-3 Swallowを試してみる

「Meta社が2024/04/18にリリースした高性能な英語モデルLlama-3-8B、Llama-3-70Bから継続事前学習を行い日本語性能を強化したモデル」であるLlama-3 Swallowの8Bモデルが2つ公開されました。

tokyotech-llm/Llama-3-Swallow-8B-v0.1

tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0

もっとみる
WSL2でGemma 2を試してみる

WSL2でGemma 2を試してみる

GoogleのGemma 2 9bモデルが2つ公開されましたので、試してみます。

google/gemma-2-9b

google/gemma-2-9b-it

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GPU: NVIDIA® GeForce RTX

もっとみる
WSL2でLlama-3-ELYZA-JPを試してみる

WSL2でLlama-3-ELYZA-JPを試してみる

「『GPT-4』を上回る日本語性能のLLM」はLlama-3-ELYZA-JP-70Bらしいですが、そのファミリーである8Bモデルを試してみます。

8Bのモデルを今回使用します。

elyza/Llama-3-ELYZA-JP-8B

elyza/Llama-3-ELYZA-JP-8B-AWQ

elyza/Llama-3-ELYZA-JP-8B-GGUF

使用するPCはドスパラさんの「GAL

もっとみる
WSL2でMatMul-Free LMを試してみる

WSL2でMatMul-Free LMを試してみる

「LLM 1Bパラメータで行列計算を完全に排除できた。メモリ消費量を学習時10倍、推論時61%Max削減」らしいMatMul-Free LMを試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GPU: NVIDIA® GeForce RTX™ 4

もっとみる
WSL2でStable Diffusion 3を試してみる

WSL2でStable Diffusion 3を試してみる

Stable Diffusion 3を素で試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB)
・GPU: NVIDIA® GeForce RTX™ 40

もっとみる
WSL2でUnique3Dを試してみる

WSL2でUnique3Dを試してみる

Hugging Face Spaceで公開されている「任意のオブジェクトの単一の直交RGB画像から高忠実度のテクスチャメッシュを30 秒以内に生成できる」らしいUnique3Dをローカル環境で試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GP

もっとみる
UbuntuでMusePoseを試してみる

UbuntuでMusePoseを試してみる

「仮想人間生成のためのポーズ駆動型イメージ-to-ビデオ フレームワーク」であるらしいMusePoseを試してみます。

1. 準備環境構築

python3 -m venv museposecd $_source bin/activate

リポジトリをクローンして、パッケージをインストールします。

# clonegit clone https://github.com/TMElyralab/

もっとみる
WSL2でRWKV-infctx-trainer-LoRAを試してみる...

WSL2でRWKV-infctx-trainer-LoRAを試してみる...

「Infctx-LoRAに4ビット量子化モードを追加し、単一 24GB GPUで14Bモデルのトレーニングを可能にした」らしいRWKV-infctx-trainer-LoRAを試してみます。

24GBという文字列を見ると反応していますね。はい。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Proce

もっとみる
WSL2でID-Animatorを試してみる

WSL2でID-Animatorを試してみる

「ゼロショット ID を保持したヒューマン ビデオ生成フレームワーク。 1枚のID画像を参照するだけで、高品質なID固有の人物動画を生成できる」らしいID-Animatorを試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 GB
・GPU: NVIDIA

もっとみる
WSL2でJapanese Stable LM 2 1.6Bを試してみる

WSL2でJapanese Stable LM 2 1.6Bを試してみる

「16億パラメータで学習した日本語の小型言語モデル」であるJapanese Stable LM 2 1.6Bを試してみます。

現在2つのモデルが公開されています。

Japanese Stable LM 2 Base 1.6B

Japanese Stable LM 2 Instruct 1.6B

今回は、2つ目のJapanese Stable LM 2 Instruct 1.6Bを試してみま

もっとみる
WSL2でFugaku-LLM-13B-instruct-ggufを試してみる

WSL2でFugaku-LLM-13B-instruct-ggufを試してみる

理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLM。今回はそのうちのひとつであるFugaku-LLM-13B-instruct-ggufを試してみます。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Processor
・Mem: 64 G

もっとみる
WSL2でFugaku-LLM-13B-instructを試してみる

WSL2でFugaku-LLM-13B-instructを試してみる

理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLMを試してみます。

※別記事でggufを試してしまったので、明確にするためにタイトルを「Fugaku-LLM」から「Fugaku-LLM-13B-instruct」に修正しています。

現在3つのモデルが公開されています。

Fugaku-LLM-13B

Fugaku-LLM-13B

もっとみる
MacBook ProでOpenELMを試してみる

MacBook ProでOpenELMを試してみる

Appleが公開した「オープンソースの効率的言語モデルのファミリー」らしいOpenELM。
mlx-lmを使用して、OpenELM-270M-Instructモデルを試してみます。

試したマシンは、MacBook Pro M3 Proチップ、メモリ18GBです。

1. 準備venv構築

python3 -m venv openelmcd $_source bin/activate

パッケー

もっとみる