記事一覧
固定された記事
130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)
本記事のサマリーELYZA は「Llama 2 13B」をベースとした商用利用可能な日本語LLMである「ELYZA-japanese-Llama-2-13b」シリーズを一般公開しました。前回公開の 7B シリーズからベースモデルおよび学習データの大規模化を図ることで、既存のオープンな日本語LLMの中で最高性能、GPT-3.5 (text-davinci-003) も上回る性能となりました。また、推論の高速化を実現したチャット型デモを併せて公開しています。 はじめにこんにちは
コード生成・補完に特化した日本語LLM「ELYZA-japanese-CodeLlama-7b」を公開しました(商用利用可)
はじめにこんにちは、ELYZAの堀江、 中村、 佐々木、 平川です。今回、Meta社が開発し公開しているCode Llamaに対し日本語の追加事前学習を行った以下のモデルを公開することとなりました。 今回公開する `ELYZA-japanese-CodeLlama-7b` は、我々が用いた日本語の追加事前学習の一連のメソッドが、Llama2以外のものでも汎用的に適用可能であるかを実験したものの一部で、元々のモデルが持つ能力を保持したまま日本語の能力を獲得できることを示す一