LINEのLLMがおもしろい
モデルがいろんなのが出すぎていて困っているのだが、その中でもLINEの公開したモデルがおもしろいらしい。試してみた。実行環境はgoogle colabのT4。
コードはHow To Useをほぼそのまま使っている。
line-corporation/japanese-large-lm-3.6b · Hugging Face
# パッケージのインストール
!pip install transformers sentencepiece
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline, set_seed
model = AutoModelForCausalLM.from_pretrained("line-corporation/japanese-large-lm-3.6b", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("line-corporation/japanese-large-lm-3.6b", use_fast=False, legacy=False)
generator = pipeline("text-generation", model=model, tokenizer=tokenizer, device=0)
input = "おはようございます、今日の天気は"
text = generator(
input,
max_lenth=300,
temperature=1.0,
do_sample=True,
pad_token_id=tokenizer.pad_token_id,
)
print(text)
出力結果が以下。本当は一行だが見やすいように改行している。
おはようございます、今日の天気は雨模様ですね。
梅雨のこの時期の 体調管理は難しいです。
今日は、「「3つの質問ノート」に書き込んで 自分を納得させてみましょう」をお話します。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
私はあるきっかけがあって、ノートに書くこと を始めました。
それは、仕事に関することや、日常のことでも 結構、どんなことでも良いのです。
例えば、
・今日はこんなことがあって、こんな気持ちだったな、
・最近忙しくて、睡眠不足になっているな、
・上司に腹が立ち、ムシャクシャしているな。
・あの件はどうなったかな?
などの内容です。 この3つの質問は、必ず「朝」と「夜」に書きます。 そして、3つにそれぞれ3項目です。
いきなり出鼻をくじかれる。これは一体なんなんだ。。。。
サンプルの時点で変すぎるだろ。
さて、少し調子を狂わされたがいつもの質問を投げる。この時、注意すべきはこれはチャットのモデルではないので文章の続きを書かせるようにプロンプトを作ることだ。
短い回答だと行けそうだが、やはりとんでもない回答も多い。ローカルLLMに正しい知識はあまりできないか。。。流石にGTPくらいのパラメータ数じゃないといけないのかもしれない。
ただ、もう少し触っているが、評判通り面白いことは間違いない。
ツイッターのクソリプか?
どういう会話してんだこれ。クソスレかな?
これは古のブログ感あるな。それか2ちゃん。
とにかくLINEさん、とんでもないものを作りましたね。。。素晴らしい。
この記事が気に入ったらサポートをしてみませんか?