llama.cppのexampleで遊んでみた→XcodeでiPhoneプレビューでローカルLLMを動かす
llama.cppをクローンしたときにexampleというフォルダが入っていて
ここにお試しみたいなアプリが入っています。
その中の
こちらをXcodeでビルドして遊んでみました。
View Modelsをタップしてみましょう
ちなみに生成速度でてますが108 token/seconds
ってめちゃめちゃ早いです
僕のM2MAXのパワーで出ているので
実機で試すとどのくらいのスピードになるか気になりますね!
この記事が気に入ったらサポートをしてみませんか?