Google Colab で RecurrentGemma を試す
「Google Colab」で「RecurrentGemma」を試したので、まとめました。
1. RecurrentGemma
「RecurrentGemma」は、Google で開発された新しいリカレントアーキテクチャに基づいて構築されたオープンモデルです。 事前学習済みモデルと指示チューニングモデルの両方が英語で利用可能です。
「Gemma」と同様、質問応答、要約、推論などのさまざまなテキスト生成タスクに適しています。新しいアーキテクチャにより、「Gemma」よりも必要なメモリが少なく、長いシーケンスを生成する際に高速な推論を実現します。
2. Colabでの実行
Colabでの実行手順は、次のとおりです。
(1) パッケージのインストール。
# パッケージのインストール
!pip install --upgrade git+https://github.com/huggingface/transformers.git accelerate
(2) 「HuggingFace」からAPIキーを取得し、Colabのシークレットマネージャーの「HF_TOKEN」に登録。
(3) トークナイザーとモデルの準備。
今回は、「google/recurrentgemma-2b-it」を使います。
from transformers import GemmaTokenizer, AutoModelForCausalLM
# トークナイザーとモデルの準備
tokenizer = GemmaTokenizer.from_pretrained(
"google/recurrentgemma-2b-it"
)
model = AutoModelForCausalLM.from_pretrained(
"google/recurrentgemma-2b-it",
device_map="auto",
torch_dtype="auto",
)
(3) 推論の実行。
# プロンプトの準備
chat = [
{ "role": "user", "content": "Who is the cutest in Madoka Magica?" },
]
prompt = tokenizer.apply_chat_template(chat, tokenize=False, add_generation_prompt=True)
# 推論の実行
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
prompt_len = inputs["input_ids"].shape[-1]
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0][prompt_len:]))
Determining the "cutest" character in a series like Madoka Magica is subjective and depends on personal preferences. However, some characters commonly considered cute in the series include:
**Mami Tomoe:**
* Her innocent and sweet personality.
* Her innocent appearance with the white hair and pigtails.
* Her gentle and caring nature.
**Kyoko Sasahara:**
* Her kind and gentle personality.
* Her big, kind eyes.
* Her loyalty to her
この記事が気に入ったらサポートをしてみませんか?