マガジンのカバー画像

ローカルLLM関連記事

31
運営しているクリエイター

2023年7月の記事一覧

大規模言語モデル RWKV-worldで学習で巨大なデータ(学会の予稿集のpdf)をファインチューニング(LoRA)する

概要学会の予稿集のような、大規模な文章(pdf)データを大規模言語モデルに学習させてみます

1.5 M tokenほどあります

モデルは、学習と出力が高速なRWKVにしました

他のタスクでGPUリソースを使っているので、0.1B/ 1.5Bモデルでのお試しです

1.5Bは学習時にVRAM 7GBほど使います

執筆時、日本語最強のオープンLLMと謳われるRWKV-4-World-JPNtu

もっとみる

llama2のファインチューニング(QLORA)のメモ


2023/11/13追記

以下の記事は、Llama2が公開されて数日後に書いた内容です。
公開から数ヶ月経った23年11月時点では、諸々の洗練された方法が出てきていますので、そちらも参照されることをおすすめします。

(以下、元記事です)
話題のLamma2をファインチューニングします。
QLoRAライブラリを使うパターンと、公式推奨の2つを試しました。前者が個人的にはオススメです。

前提H

もっとみる

llama2のセットアップメモ (ダウンロードと推論)

話題のモデルのセットアップ

Llama2とは商用利用が可能(諸説あり)で、GPT3並の性能を持つ、オープンソースモデルの本命です(2023/7/19時点)

利用方法

いくつかあります

手段1 Metaの公式モデルを使う

登録必要

あまり使いやすくない印象です

13b以上は、GPU並列利用が基本(?)

手段2 Hugging faceの公式連携モデルを使う

登録必要

便利です

もっとみる