Perplexityで「Llama 3.1 405B」が使えるのだが……
こんにちは!AI整体師です。
Open AIが「ChatGPT-4o mini」をリリースして盛り上がってる最中、今度はMetaが「Llama 3.1 405B」をリリースしてきました。
早速、X界隈ではAIの達人たちが性能検証をしているらしく、僕にはチンプンカンプンで意味不明なので、皆さんの検証結果を眺めながら楽しんでおります。
自分サイズの話で言うと、Perplexityに「Llama 3.1 405B」が実装されました。
Perplexityを有料契約している人は、「Llama 3.1 405B」を選択して使えるようになってます。
軽く使ってみた感想
僕も早速使ってみたんですが、正直なところ「え?回答スピード遅っ!」でした。。
僕がPerplexityのモデルで普段使ってるClaude 3.5 sonnetと比較したんですが、思わずこんなポストをしてしまうくらい回答スピードが明らかに遅い!
X界隈では「ChatGPT-4oよりも性能が高くて、回答が爆速!」なんて意見もあったんですが、僕の体感値ではめっちゃ遅かったです。
これは、”Perplexityというハード”上で動かすには向いてないのかもしれないので、たった数回触っただけで結論を出すのは違うと思うんですが、僕はこういう結果になりました。
ちなみに「Groq」というサイトから使うとマジで爆速だったので、多分ハードの問題なんだと思います。
余談ですが
Perplexityで「Llama 3.1 405B」を使ったところ、いつもと違う出力の仕方をしました。
基本のPerplexityは、プロンプトで指定しない限り、参考文献を”項目として”出力しないんです。
何度か他のプロンプトで試してみたら、「Claude 3.5 sonne」では全く出ないのに、「Llama 3.1 405B」ではいつも以上に多い頻度で、参考文献の項目を出力しました。
これは「Llama 3.1 405B」の標準的な回答の仕方なのか?よくわかりませんが、ちょっと面白い挙動だなぁと思いました。
まとめ
対してみんなの役に立つ情報ではありませんが、自分が触った結果や感触は、振り返りをする時のために残しておこうと思い書きました。
本当にすごい速さでAIは進化していきますね。
全く付いていけてませんが、これからも楽しく自分のペースで追いかけていこうと思います。
でわでわ、次回の記事で!
この記事が参加している募集
よろしければ応援やサポートお願いします🙇♂️ いただいたサポートは、これからの活動や検証に使わせていただきます!