見出し画像

Google Colab で Heron で学習したマルチモーダルモデルを試す

「Google Colab」で「Heron」で学習したマルチモーダルモデルを試したので、まとめました。

【注意】Google Colab Pro/Pro+のA100で動作確認しています。


1. Heron

Heron」はチューリングが開発した日本語を含む複数言語対応の大規模マルチモーダル学習ライブラリです。

「Heron」で学習したマルチモーダルモデルも提供されています。

turing-motors/heron-preliminary-git-Llama-2-70b-v0
turing-motors/heron-chat-blip-ja-stablelm-base-7b-v0
turing-motors/heron-chat-git-ELYZA-fast-7b-v0
turing-motors/heron-chat-git-ja-stablelm-base-7b-v0

2. Colabでの実行

Colabでの実行手順は、次のとおりです。

(1) Colabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」の「A100」を選択。

(2) パッケージのインストール。

# パッケージのインストール
!git clone https://github.com/turingmotors/heron.git
%cd heron
!pip install -r requirements.txt

(3) モデルの準備。
turing-motors/heron-chat-blip-ja-stablelm-base-7b-v0」を使用しました。

import torch
from heron.models.video_blip import VideoBlipForConditionalGeneration

# モデルの準備
model = VideoBlipForConditionalGeneration.from_pretrained(
    "turing-motors/heron-chat-blip-ja-stablelm-base-7b-v0",
    torch_dtype=torch.float16,
    ignore_mismatched_sizes=True
)
model = model.half()
model.eval()
model.to("cuda:0")

(4) プロセッサの準備。

from heron.models.video_blip import VideoBlipProcessor
from transformers import LlamaTokenizer

# プロセッサの準備
processor = VideoBlipProcessor.from_pretrained(
    "Salesforce/blip2-opt-2.7b"
)
tokenizer = LlamaTokenizer.from_pretrained(
    "novelai/nerdstash-tokenizer-v1",
    additional_special_tokens=['▁▁']
)
processor.tokenizer = tokenizer

(5) 推論の実行。
画像のURLは公式のぼっち画像、プロンプトは「##human: この画像の面白い点は何ですか?\n##gpt: 」としています。

import requests
from PIL import Image

# 入力画像の準備
url = "https://img.youtube.com/vi/1-o7fmQqSNg/maxresdefault.jpg"
image = Image.open(requests.get(url, stream=True).raw)

# プロンプトの準備
text = "##human: この画像の面白い点は何ですか?\n##gpt: "

# 前処理の実行
inputs = processor(
    text=text,
    images=image,
    return_tensors="pt",
    truncation=True,
)
inputs = {k: v.to("cuda:0") for k, v in inputs.items()}
inputs["pixel_values"] = inputs["pixel_values"].to("cuda:0", torch.float16)

# EOSトークンの準備
eos_token_id_list = [
    processor.tokenizer.pad_token_id,
    processor.tokenizer.eos_token_id,
    int(tokenizer.convert_tokens_to_ids("##"))
]

# 推論の実行
with torch.no_grad():
    out = model.generate(
        **inputs,
        max_length=256,
        do_sample=False,
        temperature=0.,
        eos_token_id=eos_token_id_list,
        no_repeat_ngram_size=2
    )
print(processor.tokenizer.batch_decode(out))

['<|endoftext|> 画像の面白い点は、3人の女性が一緒にポーズをとっていることだ。彼らは道路の横断歩道で、信号待ちをしている。このシーンは、彼女たちが一緒に旅行しているか、一緒に何かをしていることを示唆している。彼女たちは、旅行中に写真を撮ったり、ポーズを取ったりして、思い出に残る瞬間を共有しているのかもしれない。\n<|pad|>']



この記事が気に入ったらサポートをしてみませんか?