見出し画像

【GPTs】LLaMA3-70bをGPTsに組み込んで、LLMを使い分けて回答を強化する


背景

April 18, 2024に発表されたLlama3-70b-8192は、Metaによって開発された最新の大規模言語モデルの一つで、Llama3シリーズに属しています。このモデルは70億のパラメータを持ち、8192トークンの最大コンテキストウィンドウを特徴としています。このモデルは特にテキスト生成タスクに使用され、質問応答、言語翻訳、感情分析など、多岐にわたる用途で利用可能です​ (Amazon Web Services, Inc.)​。

Llama3-70bは、様々なデータソースからの情報を組み合わせることで訓練されており、コード生成や理論的推論タスクでの性能向上に貢献しています。また、データ並列化、モデル並列化、パイプライン並列化などの技術を利用して効率的に訓練され、大規模GPUクラスタ上での高い計算効率を実現しています​ (ai.meta)​ 。

そんなすごいLLMがオープンソースだなんて。是非優れたAI同士を無料で対話させ続けてたいと考えGPTsに組み込むことにしました。

動作確認

まずLlama3-70b-8192が無料で使えるイーロンマスクが率いるxAI社のgroqに登録し、API Keysを取得してGoogle Colabで動かしてみます。
CPUのモデルでも処理は2秒くらいでした。結構軽いモデルなのがわかります。(やり方は割愛)

google colab

GPTsに組み込む

ActionsにSchemaを追加します。
modelは以下に紹介されているものが使用できるようにして、デフォルトでモデルは「llama3-70b-8192」を設定しています。

schema

GPTsで動作確認

「AIの1年後についてgroqとChatGPTの意見を聞きたい。 まずはgroqから考えを提示してください。」
と質問をして、何故か最初にAPI通信のエラーが出ます(要修正)

その後の流れとしては、groqの意見を踏まえてChatGPTはどう考えるのかと質問をしています。

総評

これ組み込むのまぁまぁ時間掛かりました。だからなんやねん。って話ですが、これを使って何かサービスを考えます。一応、「Llama3がGPTsに組み込めるんだよ」って報告ですね。


この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?