複数LLMを協調させるMoAの論文紹介
論文名
Mixture-of-Agents Enhances Large Language Model Capabilities
arXivリンク
https://arxiv.org/pdf/2406.04692
ひとこと要約
LLMのマルチエージェント化して協調させる手法:Mixture-of-Agents (MoA)を提案。単体のモデルでは到達できない性能を引き出すことに成功
メモ
MoA概要
複数の層から構成
各層には複数のLLMエージェントを配置
Qwen1.5-110B-Chat
Qwen1.5-72B-Chat
WizardLM-8x22B
LLaMA-3-70B-Instruct
Mixtral-8x22B-v0.1
dbrx-instruct
(GPT-4o)← w/ GPT-4oに限る
下位層の出力を上位層が参照しながら、反復的に回答を洗練し
エージェントには「Proposer」と「Aggregator」の2つの役割
Proposerは多様な回答を生成し、Aggregatorはそれらを集約して高品質な出力を生成
MoAアーキ
通常のMoA
3層
コスト効率を重視した「MoA-Lite」
2層
AggregatorはQwen1.5-72B-Chat
出力品質を最優先にした「MoA w/ GPT-4o」
タスク
AlpacaEval 2.0
MT-Bench
FLASK
事前実験
概ねProposerモデルの数や種類を増やすと精度が高くなる
モデルの特性で、「Proposer」に向いたモデルと「Aggregator」に向いたモデルがある
結果
全てのベンチーマークでMoAによる精度向上が見られた
AlpacaEval 2.0では、オープンソースモデルのみを用いたMoAがGPT-4 Omniを上回った
MoA w/ GPT-4oが最も精度が高かった
この記事が気に入ったらサポートをしてみませんか?