見出し画像

【Xcode】ローカルLLMをiPhoneの実機で試した!!

前回の記事の続きです
https://note.com/flymywife/n/nf898cff3fb6e

上記の記事を参考に実機テストができました(^^)
iPhoneをプライバシーとセキュリティからデベロッパーモードにしたり
llama.cppが読み込めない原因が信頼ボタンクリックしたりしましたが
なんとかできました!

当方iPhone SE3であります!

TinyLlama1.1Bです

19 token/s は思ったより早いです。
1.1Bという小さいモデルだからできるスピードかもしれませんが
感覚的に普通に会話してる感じでした。
これはローカルLLM on iPhoneに期待が持てます。
しかし会話は合ってないですね
日本語はきっと得意ではないでしょう
もう少しパワーあるモデルと会話したくて
Mistral 7Bを入れてみました。

おはよう

と打って会話を試みたところ
返答が来たかと思ったら画面がかたまっちゃいました。
ちょっと重すぎたみたいです。

日本語が苦手そうなので

hello

と打ってみました

返答は来なかったです。

多分
iPhone搭載のAppleシリコン自体の速度は悪くないけど
キャッシュとかメモリとかがPCに比べて少ないから
メモリが溢れると固まっちゃうんだと思います。

しかし小さいモデルであれば
実用レベルの速度で動くことがわかってよかったです!


この記事が気に入ったらサポートをしてみませんか?