Google Colab で Pixtral-12B を試す
「Google Colab」で「Pixtral-12B」を試したのでまとめました。
1. Pixtral-12B
「Pixtral-12B」は、Mistralが開発した初のマルチモーダルモデルです。
特徴は、次のとおりです。
2. Colabでの実行
Colabでの実行手順は、次のとおりです。
(1) モデルカードでAgreeをクリック。
(2) パッケージのインストール。
# パッケージのインストール
!pip install --upgrade mistral_common
!pip install vllm
(3) 「HuggingFace」からAPIキーを取得し、Colabのシークレットマネージャーの「HF_TOKEN」に登録。
(4) モデルの準備。
メモリオーバーにならないように、max_model_lenを4000を指定しました。
from vllm import LLM
# モデルの準備
llm = LLM(
model="mistralai/Pixtral-12B-2409",
tokenizer_mode="mistral",
max_model_len=4000
)
(5) 推論の実行。
from vllm.sampling_params import SamplingParams
# プロンプトの準備
prompt = "Describe this image in one sentence."
image_url = "https://assets.st-note.com/img/1726141564-Kr0COEhQibdMFaJB6Y1HjXl7.jpg"
messages = [
{
"role": "user",
"content": [
{"type": "text", "text": prompt},
{"type": "image_url", "image_url": {"url": image_url}}
]
},
]
# 推論の実行
outputs = llm.chat(
messages,
sampling_params=SamplingParams(max_tokens=8192)
)
print(outputs[0].outputs[0].text)
メモリの消費量は、次のとおりです。
この記事が気に入ったらサポートをしてみませんか?