![見出し画像](https://assets.st-note.com/production/uploads/images/106800631/rectangle_large_type_2_775757473822925f5f67d0f0f4575554.png?width=1200)
Arxiv論文:Tree of Thoughts 🌳🌲🌴🌿🍃
論文概要(Abstractを要約)
言語モデルはさまざまなタスクに対応するための問題解決ツールとして利用されています。しかし、その推論過程は、現状では個々の単語(トークン)レベルで、左から右へ順序に沿って決定が行われることに限定されています。この制限は、全体を見渡した探索や戦略的な先読みが必要なタスク、または初期の決定が結果に大きな影響を及ぼすタスクにおいて、言語モデルの能力を制約しています。
この問題を解決するために、「Tree of Thoughts(ToT)」という新しい推論フレームワークを導入します。ToTは、「Chain of Thought」アプローチを拡張し、一貫性のあるテキストの塊(思考)による問題解決への中間ステップを探索することを可能にします。
ToTにより、言語モデルは、複数の異なる推論パスを考慮し、選択肢を自己評価することで次の行動を決定する、というより意図的な意思決定を行うことができます。さらに、全体的な選択を行うために、必要に応じて先読みしたり、過去の決定に戻って再評価(バックトラッキング)することも可能です。
実験により、ToTが計画や探索が必要な3つの新たなタスク(「24のゲーム」、「クリエイティブライティング」、「ミニクロスワード」)において、言語モデルの問題解決能力を大幅に向上させることが確認されました。例えば、「24のゲーム」では、「Chain of Thought」プロンプトを使用したGPT-4ではタスクのわずか4%しか解決できなかったのに対し、ToTを用いた方法では成功率が74%まで向上しました。
![](https://assets.st-note.com/img/1685340897300-aEfDZAXIx4.png?width=1200)
サンプルリポジトリ
論文著者のほか数名がリポジトリを公開してくれています。
論文著者 Shunyu Yaoさんのリポジトリ
Eternal Reclaimerさん(19才!)のリポジトリ
感想
確かに正解にたどり着く可能性は高まりまるようですが、結局のところ総当たり戦で戦って湯水のようにトークンと計算資源を浪費してしまう印象を受けました。
アイデアとしては面白い気はするので、ほかの工夫を1つ2つ組み合わせると大化けするかもしれません。
OpenAIの有料APIを使う場合は、ご利用は計画的にどうぞ。
おしまい
この記事が気に入ったらサポートをしてみませんか?