noguchi-shoji

CISO & Head of Engineering at BTC Co. |…

noguchi-shoji

CISO & Head of Engineering at BTC Co. | #FANKS | #IPAjp Expert Advisor | JH WGS member | Ex- #IETF er | Ex-Osakan #CISSP, #CCSP, #CEH.

最近の記事

WSL2でID-Animatorを試してみる

「ゼロショット ID を保持したヒューマン ビデオ生成フレームワーク。 1枚のID画像を参照するだけで、高品質なID固有の人物動画を生成できる」らしいID-Animatorを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GP

    • WSL2でJapanese Stable LM 2 1.6Bを試してみる

      「16億パラメータで学習した日本語の小型言語モデル」であるJapanese Stable LM 2 1.6Bを試してみます。 現在2つのモデルが公開されています。 Japanese Stable LM 2 Base 1.6B Japanese Stable LM 2 Instruct 1.6B 今回は、2つ目のJapanese Stable LM 2 Instruct 1.6Bを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペ

      • WSL2でFugaku-LLM-13B-instruct-ggufを試してみる

        理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLM。今回はそのうちのひとつであるFugaku-LLM-13B-instruct-ggufを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop

        • WSL2でFugaku-LLM-13B-instructを試してみる

          理化学研究所のスーパーコンピュータ「富岳」を用いて学習した、日本語能力に優れた大規模言語モデルFugaku-LLMを試してみます。 ※別記事でggufを試してしまったので、明確にするためにタイトルを「Fugaku-LLM」から「Fugaku-LLM-13B-instruct」に修正しています。 現在3つのモデルが公開されています。 Fugaku-LLM-13B Fugaku-LLM-13B-instruct Fugaku-LLM-13B-instruct-gguf

        WSL2でID-Animatorを試してみる

          MacBook ProでOpenELMを試してみる

          Appleが公開した「オープンソースの効率的言語モデルのファミリー」らしいOpenELM。 mlx-lmを使用して、OpenELM-270M-Instructモデルを試してみます。 試したマシンは、MacBook Pro M3 Proチップ、メモリ18GBです。 1. 準備venv構築 python3 -m venv openelmcd $_source bin/activate パッケージのインストール pip install mlx-lm 2. 流し込むコード

          MacBook ProでOpenELMを試してみる

          WSL2でOpenELMを試してみる

          Appleが公開した「オープンソースの効率的言語モデルのファミリー」らしいOpenELM。 今回はInstructモデルの以下の4つを試してみます。 OpenELM-270M-Instruct OpenELM-450M-Instruct OpenELM-1_1B-Instruct OpenELM-3B-Instruct 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Pro

          WSL2でOpenELMを試してみる

          WSL2でPhi-3-mini-128k-instructを試してみる

          「Phi-3 データセットを使用してトレーニングされた、38 億パラメータの軽量の最先端のオープンモデル」らしい、Phi-3-mini-128k-instructを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NV

          WSL2でPhi-3-mini-128k-instructを試してみる

          WSL2でsuzume-llama-3-8B-japaneseを試してみる

          「3,000 以上の日本語会話に合わせて微調整されており、このモデルには Llama 3のインテリジェンスがありながら、日本語でチャットする機能が追加されている」らしい、Suzumeを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB

          WSL2でsuzume-llama-3-8B-japaneseを試してみる

          WSL2でLlama-3-8B-Instructを試してみる

          「Llama 3 インストラクション調整モデルは対話のユースケース向けに最適化されており、一般的な業界ベンチマークで利用可能なオープンソース チャット モデルの多くを上回る」らしいLlama 3を試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GP

          WSL2でLlama-3-8B-Instructを試してみる

          WSL2でllm.cを試してみる

          「シンプルで純粋なC / CUDAのLLM学習。245MBのPyTorchや107MBのcPythonは必要ない!」らしいllm.cを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce R

          WSL2でllm.cを試してみる

          WSL2でBAGSを試してみる

          「追加の2Dモデリング機能を導入し、画像上のぼやけにもかかわらず3D一貫性のある高品質のシーンを再構築できるように、具体的にはBlur Proposal Network(BPN) からピクセルごとのコンボリューションカーネルを推定することでblurをモデル化」したらしいBlur Agnostic Gaussian Splatting (BAGS)を試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Cor

          WSL2でBAGSを試してみる

          WSL2でAniPortraitを試してみる

          「音声と参照ポートレート画像によって駆動される高品質のアニメーションを生成するための新しいフレームワーク」らしいAniPortraitを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce

          WSL2でAniPortraitを試してみる

          WSL2でSplaTAMを試してみる

          「3Dガウススプラッティング放射輝度フィールドによってシーンを表現すると、単一の未配置の単眼RGB-Dカメラを使用して高密度SLAM(同時ローカライゼーションおよびマッピング)が可能になることを初めて示した」らしいSplaTAMを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RT

          WSL2でSplaTAMを試してみる

          WSL2でRakutenAI-7B-chatを試してみる

          「Mistral AI社のオープンモデル「Mistral-7B-v0.1」を基に、継続的に大規模なデータを学習させて開発された70億パラメータの日本語基盤モデル」であるRakuten AI 7Bモデル3つのうち、「インストラクションチューニング済モデルを基にファインチューニングを行ったチャットモデル」であるRakuten AI 7B Chatを試してみます。 ・Rakuten/RakutenAI-7B : ベースモデル ・Rakuten/RakutenAI-7B-instr

          WSL2でRakutenAI-7B-chatを試してみる

          WSL2でAnimateDiff-Lightningを試してみる

          「超高速のテキストからビデオへの生成モデル。オリジナルの AnimateDiff よりも 10 倍以上速くビデオを生成できる」らしいAnimateDiff-Lightningを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・G

          WSL2でAnimateDiff-Lightningを試してみる

          WSL2でSakana AIを試してみる

          「進化的モデルマージにより日本語数学LLMとして構築したEvoLLM-JPは、数学のみならず、日本語の全般的な能力に長けている」らしいEvoLLM-JPを試してみます。 追記(2024/3/22) 10Bのモデルですが、torch_dtypeを"auto"からtorch.bfloat16に変更すると、推論のスピードが改善しました。 モデルEvoLLM-JPは、3種提供されています。今回は3つとも試します。 - 大規模言語モデル  SakanaAI/EvoLLM-JP-v1

          WSL2でSakana AIを試してみる