マガジンのカバー画像

ローカルLLM関連記事

36
運営しているクリエイター

#LoRa

Qwen2-VL-7B-InstructのLoRA

Qwen2-VL-7B-InstructのLoRA

OCRなどで高性能と話題のQwen2-VL-7B-InstructをLoRAしたのでまとめました。

LoRAにはこのライブラリを用います。

環境としてDockerを用いました。
自分が使ったコマンドは以下です。

docker run -it --gpus all -v $(pwd):/mnt/workspace registry.cn-hangzhou.aliyuncs.com/models

もっとみる

LLama2の訓練可能な全層をQLoRAで学習する

はじめにLLama2はMetaが23年7月に公開した、GPT-3に匹敵するレベルのオープンソース大規模言語モデル(LLM)です。

最近はFalcon 180bのような、より大きなモデルも出ていますが、デファクトスタンダードとして定着している感があります

LLMに新たな情報を加える手法として、ファインチューニング、特にQLoRAが注目されています。

しかしQLoRA、特に初期設定では一部のパラ

もっとみる
LLMのファインチューニング で 何ができて 何ができないのか

LLMのファインチューニング で 何ができて 何ができないのか

LLMのファインチューニングで何ができて、何ができないのかまとめました。

1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。

OpenAIのドキュメントには、次のように記述されています。

しかし実際には、それよりもかなり複雑です。

LLMには「大量のデータを投げれば自動

もっとみる

大規模言語モデル RWKV-worldで学習で巨大なデータ(学会の予稿集のpdf)をファインチューニング(LoRA)する

概要学会の予稿集のような、大規模な文章(pdf)データを大規模言語モデルに学習させてみます

1.5 M tokenほどあります

モデルは、学習と出力が高速なRWKVにしました

他のタスクでGPUリソースを使っているので、0.1B/ 1.5Bモデルでのお試しです

1.5Bは学習時にVRAM 7GBほど使います

執筆時、日本語最強のオープンLLMと謳われるRWKV-4-World-JPNtu

もっとみる
ござるな rinna を LoRA でシュッと

ござるな rinna を LoRA でシュッと

さて皆さん。ChatGPT。使うの楽しいですよね?

でも使ってるうちに思いません?

俺だけの最強の LLM が、、、力が欲しい、、、!!

はい。

Newby である私もご多分に漏れずそのストリームに身を任せてしまいました。

とりあえず以前は rinna や CALM をシュッと動かしました。

あの時は Colab も無課金だったなぁ、、、( ゚д゚)(遠い目)

はい。

それはさてお

もっとみる
LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ

LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ

「LLM」の「LoRA」「RLHF」によるファインチューニング用のツールキットをまとめました。

1. PEFT「PEFT」は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。

現在サポートしている手法は、次の4つです。

◎ LLaMA + LoRA
「Alpaca-LoRA」は、「LLaMA」に「LoRA」を適用

もっとみる
GPT/LLMモデルの進化!追加の知識を組み込む最新テクニック

GPT/LLMモデルの進化!追加の知識を組み込む最新テクニック

OpenAIの範囲外の話題でも、オープンソースコミュニティの作業を見ることができます。LLMに知識を追加するには、fine-tuningを使用することができます。OpenAIはfine-tune APIを提供していますが、LLM関連のオープンソースコミュニティの作業に少し調査レポートしました。関連情報を共有します。

fine-tuning以外のオプションStanfordのLLaMAに基づくAlp

もっとみる
手元で動く軽量の大規模言語モデルを日本語でファインチューニングしてみました(Alpaca-LoRA)

手元で動く軽量の大規模言語モデルを日本語でファインチューニングしてみました(Alpaca-LoRA)

イントロ最近、ChatGPTやGPT-4などの大規模言語モデル(LLM)が急速に注目を集めています。要約タスクや質疑応答タスクなど様々なタスクで高い性能を発揮しています。これらのモデルはビジネス分野での応用が非常に期待されており、GoogleやMicrosoftが自社サービスとの連携を進めているという報道も相次いでいます。

今回は、手元で動作する軽量な大規模言語モデル「Alpaca-LoRA」を

もっとみる