マガジンのカバー画像

shi3z note

541
運営しているクリエイター

2023年5月の記事一覧

RedPajama+100言語以上に対応したRWKV-World 0.1Bと0.4Bを試す

RedPajama+100言語以上に対応したRWKV-World 0.1Bと0.4Bを試す

百聞は一見にしかず!
RWKV-Worldというモデルが0.1Bでけっこういいぞと評判だったので早速試してみた。

ちなみに0.1Bから7Bまで用意されているが、とりあえずお手軽な0.1Bと0.4Bを比較した。

比較には、公式のベンチマークbenchmark_world.pyを使用

RWKV-4-World-0.1B-v1-20230520-ctx4096の結果

Question: Make

もっとみる
AI以後

AI以後

昨日は金沢のイベントに登壇して、ITに興味のある地元の中学生・高校生を相手に何か喋れと言われたので、まあ喋ったのだが・・・

質問のところで大人から「天才の人たちに大学が不要という話は理解したが、我々凡人はそういうわけにはいかない。天才の人たちは我々凡人に何をしてくれるのか」という話を聞かれて、ああ困ったなと思った。

まず、天才は凡人の奴隷ではない。どちらも独立した人間であり、凡人に絶対的に奉仕

もっとみる
Rinna-3.6BにAlpaca_Cleaned_Japanをファインチューニングする

Rinna-3.6BにAlpaca_Cleaned_Japanをファインチューニングする

Rinna-3.6Bが今のところ日本語対応のモデルの中で一番感触がいい気がするので、Rinna-3.6Bに日本語版Alpaca_Cleanedデータセットを学習させてみた。

学習には大先生のコードを使用

このコードの8ビット量子化をオフにして、ファインチューニング用のデータセットをAlpaca_Cleaned_Japaneseに変更

エポック3でlossは1.2338まで落ちた。

その結果

もっとみる
今一番賢いオープンソースLLMのFalcon-40Bを試す

今一番賢いオープンソースLLMのFalcon-40Bを試す

LLM Leaderboardというランキングで、初登場一位になったFalconを試します。

ちなみに動作には、A100 40GBが必要でした(V100 32GBはメモリオーバーで動作せず)。

40Bだからまあでかいわな。
ちなみにFalcon-7Bもある模様

とりあえずサンプルコードの出力をそのまま貼ります
入力として与える文章は下記のもの

Result: Girafatron is o

もっとみる
OpenCALM-7BにAlpaca_Cleaned_JAでLoRAファインチューニングした結果

OpenCALM-7BにAlpaca_Cleaned_JAでLoRAファインチューニングした結果

OpenCALM-7BにAlpaca_Cleaned_JapaneseでLoRAファインチューニング
Epoch16 r16 alpha16
質問文は以下の三つ

generate("自然言語処理とは?")
generate("日本の首都は?")
generate("スターウォーズで一番強いのは?")

Below is an instruction that describes a task.

もっとみる
OpenCALM-7BのLoRAファインチューニングでハイパラ探索する

OpenCALM-7BのLoRAファインチューニングでハイパラ探索する

OpenCALM-7BのLoRAファインチューニングでハイパラ探索をしてみました。大先生のスクリプトを使用。ちょっとここんとこ盛大にABCIのポイントを使いすぎてるなあ。せっかくなので共有

所感

rが大きい方がいい結果になってる気がする
aが大きすぎるとうまく学習できてない予感
r16a16くらいがバランス良さそうなので、次回はそれでもっと長くepoch回してみることにする

生ログ

./7

もっとみる
Pomera+iPad Proで最強モバイル環境

Pomera+iPad Proで最強モバイル環境

メインのマシンをM2のMacBook Proに変えたのだが、16インチもあるので結構でかい。これから夏に入ろうというのに、こんなデカブツを背負ってウロウロ歩き回るなんてまっぴらごめんである。

どうしたもんかなあ、と思ってとりあえずポメラを買った。今頃ではあるが、昨年6年ぶりにリニューアルを果たしたキーボード入力専用マシンである。

ポメラのキーボードは定評があるし、今後、原稿のようなものはGPT

もっとみる
RedPajama-INCITE-7BをLoRAファインチューニングでハイパラ探索した結果

RedPajama-INCITE-7BをLoRAファインチューニングでハイパラ探索した結果

7Bのハイパラ探索をしてみたので結果を共有します。
ABCIを使用。エポックは全て6。rとalphaを変えただけの探索です

感想

以下、長い出力が続くので先に感想を書いておきます。
LoRAにおいて、rは次元数、alphaはスケーリングファクタということになっています。rが多いほどエポックが沢山必要になりそうな気がします(6エポックに対してr32は力不足か?)。スケーリングファクタも、デカすぎ

もっとみる
RedPajama-INCITE-BaseのLoRAファインチューニングでハイパラ探索した

RedPajama-INCITE-BaseのLoRAファインチューニングでハイパラ探索した

の続き
日本語化したAlpaca_cleanedデータセットでRedPajama-INCITE-Base-3Bをいろんなハイパーパラメータでファインチューニングした結果です。
結論から言うとほとんどうまくいってません。
んで、元のコードをよく読むと、7B-v0.1しか対応してないということだったのでやり直します。

モデルの命名規則
lacj-3b-e<エポック数>-r<rの数>a<alphaの数

もっとみる
RedPajama-INCITE-BaseにAlpacaJaのLoRAファインチューニングでハイパラ探索する

RedPajama-INCITE-BaseにAlpacaJaのLoRAファインチューニングでハイパラ探索する

AI研究とは農業だ!
エリート様がやらないなら自分でやるしかねえ!
ABCI、俺に力を貸してくれ!

というわけで、ABCIを使ってRedPajama-INCITE-Base3DにAlpaca-Cleaned-Japaneseをファインチューニングしながら、LoRAのハイパラ探索をしてみます。

そもそもLoRAのハイパラとは、lora_rとlora_alphaが代表的である。

`r`, th

もっとみる
ファインチューニングなしで好きな画像が出せるFastComposer

ファインチューニングなしで好きな画像が出せるFastComposer

8時間前、MITのハン研究室からFastComposerが発表された。
一枚だけ画像を用意するだけで特定の人物を登場させたり、複数人数を出すこともできる。

めちゃめちゃ簡単な上、めちゃめちゃ処理が速く、めちゃめちゃ面白いのでMemeplexにも入れようか考え中。

GPUある人は↓から

H20 LLM Studioを試す

H20 LLM Studioを試す

H2O LLM Studioというのが、要するにLLM版Automatic1111みたいな、要はWebUIとして最高でございますという話だったので使ってみた。

インストールは超簡単。

ただ、CSV形式じゃないと学習データに使えないっぽいのでそこの使い勝手があまり良くないかな。最近の流行はJSONL形式だしね

あと、仕方ないのかもしれないが設定できる項目が多すぎて目が回りそうになる。

まあで

もっとみる

rinnaの30億パラメータ日本語会話モデルを試す

rinnaから日本語会話モデルがリリースされていたので試した。

import torch from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft", use_

もっとみる

何かと不便だったのでAlpaca_cleaned_ja.jsonをhuggingfaceに移す

ファインチューニングをいろいろ試すのに何かとgithubでは不便だったのでhuggingfaceに移しました。

これで簡単にファインチューニングできるか試すことができます。

https://huggingface.co/datasets/shi3z/alpaca_cleaned_ja_json