人気の記事一覧

Mergekitを使ったMoE(Mixture of Experts)作成のテクニック

5か月前

Google Colab:Mergekitによる日本語モデルMoEの作成

6か月前

混合専門家モデル(MoE):トランスフォーマーの効率とスマートな進化

OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM