見出し画像

複数LLMを協調させるMoAの論文紹介

論文名

Mixture-of-Agents Enhances Large Language Model Capabilities

arXivリンク

https://arxiv.org/pdf/2406.04692


ひとこと要約

LLMのマルチエージェント化して協調させる手法:Mixture-of-Agents (MoA)を提案。単体のモデルでは到達できない性能を引き出すことに成功


メモ

MoA概要

  • 複数の層から構成

  • 各層には複数のLLMエージェントを配置

    • Qwen1.5-110B-Chat

    • Qwen1.5-72B-Chat

    • WizardLM-8x22B

    • LLaMA-3-70B-Instruct

    • Mixtral-8x22B-v0.1

    • dbrx-instruct

    • (GPT-4o)← w/ GPT-4oに限る

  • 下位層の出力を上位層が参照しながら、反復的に回答を洗練し

  • エージェントには「Proposer」と「Aggregator」の2つの役割

  • Proposerは多様な回答を生成し、Aggregatorはそれらを集約して高品質な出力を生成

MoAアーキ

  • 通常のMoA

    • 3層

  • コスト効率を重視した「MoA-Lite」

    • 2層

    • AggregatorはQwen1.5-72B-Chat

  • 出力品質を最優先にした「MoA w/ GPT-4o」


タスク

  • AlpacaEval 2.0

  • MT-Bench

  • FLASK


事前実験

  • 概ねProposerモデルの数や種類を増やすと精度が高くなる

  • モデルの特性で、「Proposer」に向いたモデルと「Aggregator」に向いたモデルがある


結果

  • 全てのベンチーマークでMoAによる精度向上が見られた

  • AlpacaEval 2.0では、オープンソースモデルのみを用いたMoAがGPT-4 Omniを上回った

  • MoA w/ GPT-4oが最も精度が高かった

この記事が気に入ったらサポートをしてみませんか?