StableLMのファインチューニングってできるのかな?と調べたところ、GitHubのIssueで「モデル自体の性能がまだ良くないから、ファインチューニングの段階ではないよ」というコメントがありまして。
その根拠として提示されていた大規模言語モデル間の性能比較シートがとても参考になったので共有したいと思います。
シートの中身を見てみる
stablelm-base-alpha-7bは54行目にありまして、確かに他の言語モデルと比較するとまだまだな性能のようです。応援したいですね。
シートの列の意味
それぞれの列の意味については推定ですが以下の通りです。
RAMが1桁台であればご家庭のゲーミングPCでも動くというわけですが、それを踏まえるとllama_13B_q4あたりは別格の性能ですね。
現場からは以上です。