見出し画像

AIの新たな進化:小型モデルが大型モデルの推論を模倣する時代へ

AIの進化は止まらない。最近の研究では、より小さなモデルが大規模な基礎モデル(LFM)の推論プロセスを模倣することに焦点が当てられている。この新たな進歩は、Orcaという13億パラメータのモデルを通じて具体化されている。Orcaは、GPT-4からの豊かな信号を学び、ChatGPTの教師の助けを借りて、LFMの推論プロセスを模倣することを学ぶ。

論文原文:

1. より小さなモデルの能力向上

最近の研究では、大規模な基礎モデル(LFM)が生成する出力から学習する模倣学習を通じて、より小さなモデルの能力を向上させることに焦点が当てられています。しかし、これらのモデルの品質にはいくつかの問題があります。それらは、浅いLFM出力からの限定的な模倣信号、小規模な均一な訓練データ、そして最も注目すべきは、小さなモデルの能力を過大評価する厳格な評価の欠如です。これらは、LFMのスタイルを模倣する傾向があるが、その推論プロセスを学ぶことはないためです。

2. Orca:LFMの推論プロセスを模倣するモデル

これらの課題に対処するために、我々はOrcaという13億パラメータのモデルを開発しました。Orcaは、GPT-4からの豊富な信号(説明トレース、ステップバイステップの思考プロセス、その他の複雑な指示)を学び、ChatGPTからの教師の助けを借りて、LFMの推論プロセスを模倣することを学びます。

3. Orcaの成果とその意義

Orcaは、Vicuna-13Bのような従来の最先端の指示調整モデルを、Big-Bench Hard(BBH)のような複雑なゼロショット推論ベンチマークで100%以上、AGIEvalでは42%上回ります。さらに、OrcaはBBHベンチマークでChatGPTと同等のパフォーマンスを達成し、SAT、LSAT、GRE、GMATなどのプロフェッショナルおよび学術試験で競争力のあるパフォーマンス(最適化されたシステムメッセージとの4ポイントギャップ)を示します。これらはすべて、CoTなしのゼロショット設定で行われ、GPT-4には後れを取ります。我々の研究は、ステップバイステップの説明から学ぶことが、モデルの能力とスキルを向上させる有望な方向であることを示しています。

4. 小さなモデルが大きなモデルの推論を模倣

Twitterのスレッドによれば、13億パラメータのモデルは、ChatGPTの教えによって導かれ、GPT-4の豊かな信号(説明、ステップバイステップ、複雑な指示)から学びます。これにより、SoTA指示調整LLM(Vicuna-13B)を推論で100%上回ることができます。

5. 進行的学習の推進

この進行的な学習を推進するために、我々は大規模で多様な模倣データにアクセスし、適切なサンプリングと選択を行います。これにより、Orcaは、複雑なゼロショット推論ベンチマークであるBig-Bench Hard(BBH)やAGIEvalなどで、従来の最先端の指示調整モデルを大幅に上回ることができます。

6. 人間やより進んだAIモデルが生成するステップバイステップの説明から学ぶ

我々の研究は、人間やより進んだAIモデルが生成するステップバイステップの説明から学ぶことが、モデルの能力とスキルを向上させる有望な方向であることを示しています。これは、AIの進化とその能力向上において重要な一歩を示しています。

示唆

Orcaの開発は、AIの進化とその能力向上において重要な一歩を示しています。特に、より小さなモデルが大きなモデルの推論を模倣する能力は、AIの学習と進化の新たな可能性を開くものです。これは、AIが単に大規模なデータからパターンを学ぶだけでなく、より高度な推論プロセスを模倣し、理解することが可能であることを示しています。この進歩は、AIの応用範囲をさらに広げ、より複雑な問題解決に対するその能力を強化する可能性があります。

この記事が気に入ったらサポートをしてみませんか?