見出し画像

【Gemma】”Llama 2超え”と噂のGoogleのオープンソースLLMの性能を徹底比較してみた

Gemmaの概要

Gemmaは、Googleが開発した最新のオープンソースLLMです。現在は、2Bおよび7Bパラメータのモデルが公開されており、様々なタスクでの使用が可能です。

Gemmaの語源は「宝石」から来ているとされています。

また、公式テクニカルレポートによると、Gemmaモデルは最近話題のGemini(Transformerのデコーダ)をもとに構築されており、言語理解や推論などに関するベンチマークで、高いパフォーマンスを示します。

特に、Gemmaは軽量でありながら、その他のモデルの性能よりも高いのが特徴的です。

加えて、深層学習フレームワーク「Keras 3.0」を介して、JAX、PyTorch、TensorFlow など、すべての主要なフレームワークにわたって、「推論」と「ファインチューニング」を実行できるとのこと。また、Colabおよび Kaggleノートブックに加え、Hugging FaceやNVIDIA などの人気プラットフォームと統合しているので、Gemmaを簡単に始めることができます。

現在、Gemmaでは以下の4つのモデルが公開されています。

  • gemma-7b: Base 7B model.

  • gemma-7b-it: Instruction fine-tuned version of the base 7B model.

  • gemma-2b: Base 2B model.

  • gemma-2b-it: Instruction fine-tuned version of the base 2B model.

Gemmaモデルは、2Tおよび6Tトークンの主に英語のデータで学習されています。

ちなみに、NVIDIA公式によると、「最近公開されたChat with RTXで、近々Gemmaを利用可能にする」とのこと。


【ココが重要】

Gemmaのライセンス

公式ページGemma Terms of Useによると、誰でも無償で商用利用することが可能です。

利用用途可否商用利用⭕️
改変⭕️
配布⭕️
特許使用Gemma Terms of Useに記載なし私的使用⭕️

参考:


つまり改変して商用利用も可能。これは作り手にとっては便利すぎるコピーレフトってやつ。

ref


この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?