先日、ようやっと LoRA についてある程度理解できた。
と、思ったら??
何やら QLoRA というやべぇのが新たに登場したらしい。
論文達よ。そろそろ私に眠る時間をくれないか??
しかし、凄いというならできる限り理解するっきゃないでしょ(^^)/
ということで、いつものように論文を ChatGPT 先生にお渡ししてあれこれ質問しながらシュッと教えを乞うてみた。
QLoRA: Efficient Finetuning of Quantized LLMs
ふむ。名前からして LoRA さんと同じようなものであるというのは雰囲気でわかる。
しかし Q とは?まさに Question である。
一番わかりやすい結論からシュッといきますよ!!
わ、、、わかりやすすぎるぅぅぅぅぅ( ゚Д゚)
もはや追加説明することもないでしょう。。。
LoRA と何が違うの?
ま、ここが気になるポイントですわね。
ポイントは Q !!
Quantized !!
量子化 !!
Yeah !!
はい。
詳しく知りたい方は論文を読むとよいのですが、シュッとまとめると。
LoRA はレイヤーに対してアダプターを重ねますのよ。
QLoRA はベースモデルのパラメーターを量子化(ちっちゃくする)してから、それを考慮した最適なアダプターを重ねますの。
シュッとまとめないと、、、
みたいな手法を使って軽量化しつつ精度を落とさないようにしてるのでございますわよ~
つまりメモリ効率がとってもいいのですわ~
ということはメモリをたくさん使う大規模モデルの学習もできそうな感じなのですわ~
ということでシュッと書いたので終わり。