LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。
細かいやり方は大先生のページを参照のこと。
例によってこんな関数を書いた
def line(prompt):
input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
tokens = model.generate(
input_ids.to(device=model.device),
min_length=50,
max_length=300,
temperature=1.0,
do_sample=True,
pad_token_id=tokenizer.pad_token_id,
)
output = tokenizer.decode(tokens[0])
print(output)
これは「質問に答える」モデルではなく、「文章の続きをつくる」モデルであることに注意。質問するのではなく、これから回答を書くつもりでプロンプトを書くのがコツ。
試しに「酒とは、」と入れて見る。
凄いじゃん!
ちゃんとしてる。
もう少し高度なことを聞いて見る。
途中から女性へのプレゼントの話になってしまったが、まあこれはこれでありか。
もうちょっと違う聞き方もしてみよう。
すげえ。
これは素直にすげえと思った。万能か。
次に、物語っぽいこともやらせてみるか。
なんだこれ。なんだか今まで見たことがないタイプの出力だぞ。
契約書とか読めるかな
凄い。読んでる。
これは面白い。3.6Bとはいえ、やはり読ませたデータが重要なのだ。
凄い。
じゃあ発言小町っぽいのはどうだろうか
絶対読んでるだろ。
日本のネットミームはどうだろうか
tsudaる!!そしてリキッドルーム!!!
他にも色々試したけどnoteに書けるのはこのあたりが限界。
とにかくLINEの3.6Bモデル。面白すぎる。
使い方次第で大化けする予感必至。
というのも、やはり読ませてるデータが面白いんだろうなめちゃくちゃ。
結局、おれたちが欲しかったのって、俺たちの文化圏の仲間のとしてのAIだったんじゃないのか。まあちょっとデータがインターネット老人会寄りではあるが。それはテキストデータとしてネットに転がってるのが老人会っぽいものが多くて、たぶん今の若者はTikTokか、せいぜいYouTuberしか見てないので、YouTuberの情報はテキスト化されないから、今後はYouTubeやTikTok、ニコ生を学習したモデルの登場が待たれる。