最近の記事
商用利用可能な130億パラメータの日本語LLM「Tanuki-ZeRo」を一般公開 【代表的な日本語ベンチマークで世界6位: オープンモデルで1位相当、GPT3.5やClaude v2を一部凌駕, 23/3/30時点】
(前半はパロディ風のネタ記事です。ご了承ください) 4/1追記: ページ下部に、記事へのご指摘に関するまじめなQ&Aを追加しました。 3/31追記: 一部、ご批判がありましたので、jaster特化のモデルを作った学術的(?)な経緯などについて、以下の(真面目な方の)記事で、まとめています。真面目な方は、こちらを先に読まれることを強くおすすめします。 10bクラスのLLMは未学習タスクに対して、0 shot 推論性能が非常に乏しいという復数の検証結果や、実用面を考えた際は