![見出し画像](https://assets.st-note.com/production/uploads/images/143740914/rectangle_large_type_2_772e4b692cdcaf78ef62c7912262e80d.png?width=1200)
Apple Intelligenceのインパクト
日本時間の6/11未明に、毎年恒例のApple World-Wide Developer's Conferenceが開かれ、様々な新機能が発表されました。
すでに色々な記事が出つつありますが、個人的に今回の発表で一番インパクトがあったのは、Apple Intelligenceでした。ポイントとなるのは、以下だと思います。
Unified AI Experience - Appleのエコシステム全般に渡って同一のエクスペリエンスで利用可能である。
これはAppleがiPhone, iPad, Macと多岐にわたるデバイスを持っている強みが如実に発揮されています。LLMのビッグネームの、OpenAI、Microsoft、Googleには中々できないことです。
On-device AI Privacy - AIの計算をデバイスローカルに行うので、プライバシーが保たれる。
ただ、実は、大きなモデルの場合は、Appleが用意したPrivate Cloud Computeで計算されるので、全てがローカルというわけではないですね。
Siri Rebirth - Siriがやっとその真価を発揮できそう。
Siriのデモを見ていると、Siriの登場時に期待したことがやっとまともにできるようになりそうだと言う期待を持てました。
Free - 無料で使える。
SiriにはApple Intelligenceで対応できないのはOpenAIのChatGPTにユーザーの同意を取って投げるという仕組みが入っている。これも含めて無料で使えるのはApple Platformのメリットになる。
ちなみに、今後OpenAI以外のLLMもサポートすると言ってましたね。なので、将来OpenAI以外の自分の使いたいLLMを使うというようなことも可能になるのかもしれません。
デバイスを跨ったIntelligence
今回の発表を見た後にあえて今後の展開として欲しいものが浮かびました。それは、On-device intelligenceからOver-device intelligenceへの拡張です。
AIで必要な情報のIndexing(ビデオではSemantic Indexと言ってました)はon-deviceだと言っていたので、あくまでもデバイス内に止まっているようです。これはData Privacyを考えるととてもSecureなアプローチで大変良いのですが、ヘビーなAppleユーザーであれば、iPhone, iPad, Macを使っている方も珍しくないでしょう。同じApple IDで使っているマシンのSemantic Indexはデバイスを超えてマージされてもいいというユーザーは結構いるのではないでしょうか。デバイスを跨ったIntelligence (Over-device Intelligence)があってもいいのではないかということです。もちろん、on-deviceであるからこそ担保されているprivacyに穴を開けることになるので、議論が必要だと思いますが、上にも書いたように、すでにPrivate Cloud Computeでデバイスの外に出る場合があるので、これをセキュアに拡張するという方向性で実現してもいいのではないかと思いました。これが可能になると、たとえば、iPhone上でMacの中の情報を用いたAI機能の出力を使うということが出来ると思います。この辺は、今後の課題として検討してもらえると嬉しい気がします。
注意点
今回の発表で注意すべき点が二つあります。
チップとしては、A17ProとM1~M4にしか対応してないので、それより古いチップを使っているデバイスは買い替えが必要になる。
日本語にはまだ対応していない。日本語でどこまでできるようになるのかも含めて、来年のリリースが待ち遠しいですね。
それにしても、Apple Eco Systemとして多くのデバイスとOSやソフトウエアを一社で展開しているAppleの強みを改めて思い知らされました。このようなマルチデバイス間で統合されたAIエクスペリエンスを提供できるのは今はAppleだけですね。MicrosoftやGoogleがパートナーと共にそのエクスペリエンスに追いつくには結構時間がかかるのではないかと予想します。
追記 (2024.6.12)
なんだか、今回のApple Intelligenceの発表に期待外れという話があるんですね。
これにはびっくりです。おそらく見ているところが違うんですかね。生成AIのモデルの精度とかを第一に考えると期待外れだったのかもしれないですが、私はAppleに生成AIモデルの精度競争レースに参加して欲しいとは思ってません。そんなことより、生成AIをどのようにデバイスとそのOSに統合するのかが重要だと思ってました。その意味で、今回の発表が完璧とは言えないまでも、その問いに真摯に答えたのは確かだと思います。OpenAIやGoogleやMetaには生成AIモデルの精度を高めるのはもちろんやって欲しいですが、それはツールの精度の領域です。Appleがやるべき/やっているのは、それをどのようにComputingのExperienceに統合していくのかということです。次元が違うのだと思います。そこを一緒にして議論をするのは、Appleの目指す先である我々が欲しいComputingの未来を見誤ることになると思います。
この記事が気に入ったらサポートをしてみませんか?