Rinna-3.6Bが今のところ日本語対応のモデルの中で一番感触がいい気がするので、Rinna-3.6Bに日本語版Alpaca_Cleanedデータセットを学習させてみた。
学習には大先生のコードを使用
このコードの8ビット量子化をオフにして、ファインチューニング用のデータセットをAlpaca_Cleaned_Japaneseに変更
エポック3でlossは1.2338まで落ちた。
その結果
やはり日本語に特化したトークナイザがいい仕事をしているように思える。
プログラムコードとかでファインチューニングしたらどうなるだろうか
とりあえず次は6エポックまで回してみる