noguchi-shoji

Head of Engineering, CISO at BTC Co. | #IPA…

noguchi-shoji

Head of Engineering, CISO at BTC Co. | #IPAjp Expert Advisor | JH WGS member | #FANKS | Ex- #IETF er | Ex-Osakan #CISSP, #CCSP, #CEH.

最近の記事

WSL2でPhi-3-mini-128k-instructを試してみる

「Phi-3 データセットを使用してトレーニングされた、38 億パラメータの軽量の最先端のオープンモデル」らしい、Phi-3-mini-128k-instructを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NV

    • WSL2でsuzume-llama-3-8B-japaneseを試してみる

      「3,000 以上の日本語会話に合わせて微調整されており、このモデルには Llama 3のインテリジェンスがありながら、日本語でチャットする機能が追加されている」らしい、Suzumeを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB

      • WSL2でLlama-3-8B-Instructを試してみる

        「Llama 3 インストラクション調整モデルは対話のユースケース向けに最適化されており、一般的な業界ベンチマークで利用可能なオープンソース チャット モデルの多くを上回る」らしいLlama 3を試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GP

        • WSL2でllm.cを試してみる

          「シンプルで純粋なC / CUDAのLLM学習。245MBのPyTorchや107MBのcPythonは必要ない!」らしいllm.cを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce R

        WSL2でPhi-3-mini-128k-instructを試してみる

          WSL2でBAGSを試してみる

          「追加の2Dモデリング機能を導入し、画像上のぼやけにもかかわらず3D一貫性のある高品質のシーンを再構築できるように、具体的にはBlur Proposal Network(BPN) からピクセルごとのコンボリューションカーネルを推定することでblurをモデル化」したらしいBlur Agnostic Gaussian Splatting (BAGS)を試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Cor

          WSL2でBAGSを試してみる

          WSL2でAniPortraitを試してみる

          「音声と参照ポートレート画像によって駆動される高品質のアニメーションを生成するための新しいフレームワーク」らしいAniPortraitを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce

          WSL2でAniPortraitを試してみる

          WSL2でSplaTAMを試してみる

          「3Dガウススプラッティング放射輝度フィールドによってシーンを表現すると、単一の未配置の単眼RGB-Dカメラを使用して高密度SLAM(同時ローカライゼーションおよびマッピング)が可能になることを初めて示した」らしいSplaTAMを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RT

          WSL2でSplaTAMを試してみる

          WSL2でRakutenAI-7B-chatを試してみる

          「Mistral AI社のオープンモデル「Mistral-7B-v0.1」を基に、継続的に大規模なデータを学習させて開発された70億パラメータの日本語基盤モデル」であるRakuten AI 7Bモデル3つのうち、「インストラクションチューニング済モデルを基にファインチューニングを行ったチャットモデル」であるRakuten AI 7B Chatを試してみます。 ・Rakuten/RakutenAI-7B : ベースモデル ・Rakuten/RakutenAI-7B-instr

          WSL2でRakutenAI-7B-chatを試してみる

          WSL2でAnimateDiff-Lightningを試してみる

          「超高速のテキストからビデオへの生成モデル。オリジナルの AnimateDiff よりも 10 倍以上速くビデオを生成できる」らしいAnimateDiff-Lightningを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・G

          WSL2でAnimateDiff-Lightningを試してみる

          WSL2でSakana AIを試してみる

          「進化的モデルマージにより日本語数学LLMとして構築したEvoLLM-JPは、数学のみならず、日本語の全般的な能力に長けている」らしいEvoLLM-JPを試してみます。 追記(2024/3/22) 10Bのモデルですが、torch_dtypeを"auto"からtorch.bfloat16に変更すると、推論のスピードが改善しました。 モデルEvoLLM-JPは、3種提供されています。今回は3つとも試します。 - 大規模言語モデル  SakanaAI/EvoLLM-JP-v1

          WSL2でSakana AIを試してみる

          WSL2でStable Video 3Dを試してみる

          「3D オブジェクトの周囲の軌道ビデオを高解像度でイメージからマルチビューに生成するための潜在ビデオ拡散モデル」であるStable Video 3D(SV3D)を試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVI

          WSL2でStable Video 3Dを試してみる

          WSL2(?)でOpenSoraを試してみる

          「高品質のビデオを効率的に制作し、モデル、ツール、コンテンツに誰もがアクセスできるようにすることに特化した取り組み」であるOpenSoraを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForc

          WSL2(?)でOpenSoraを試してみる

          Ubuntuでc4ai-command-r-v01を試してみる

          Cohere For AIが提供する「350億パラメータの高性能生成モデル」であるc4ai-command-r-v01を試してみます。 1. モデルについて概要 現在(2024/3/15)、ベースモデルとその4ビット量子化モデルが公開されています。 ・CohereForAI/c4ai-command-r-v01 ・CohereForAI/c4ai-command-r-v01-4bit READMEにある内容から、適当にピックアップします。 この10言語には日本語も含

          Ubuntuでc4ai-command-r-v01を試してみる

          WSL2でSwallow-MS 7Bを試してみる

          「Mistral 7BおよびMixtral 8x7Bの日本語能力を強化した大規模言語モデル」であるSwallow-MS 7B, Swallow-MX 8x7B)が公開されたので、試してみます。 今回モデルは2つ公開されています。 Swallow-MS 7B base: tokyotech-llm/Swallow-MS-7b-v0.1 Swallow-MX 8x7B: tokyotech-llm/Swallow-MX-8x7b-NVE-v0.1 弊環境のVRAM状況を踏

          WSL2でSwallow-MS 7Bを試してみる

          WSL2でViewDiffを試してみる...が

          「本物の環境で現実世界の3Dオブジェクトの高品質でマルチビューの一貫した画像を生成」するらしいViewDiffを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce RTX™ 4090 (2

          WSL2でViewDiffを試してみる...が

          WSL2でTripoSRを試してみる

          「Tripo AI と提携し、LRM: Large Reconstruction Model For Single Image to 3D にインスパイアされた高速3Dオブジェクト再構築モデル」であるTripoSRを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090

          WSL2でTripoSRを試してみる