見出し画像

『AppleがAI/生成AI「Apple Intelligence」を発表。OSレイヤーにAIを組み込む意義は大きい』~【web3&AI-テックビジネスのアイディアのタネ】2024.6.11

先進テックで未来の生活はもっと良くなる!」と信じて、Web3・AI・ガジェットなどのデイリーニュースから毎日ひとつピックアップしてご紹介しています。

新規ビジネスのアイディアのタネがほしい方、未来を想像してワクワクしたい方、読んでちょっといいなと思った方、ぜひフォロー・高評価よろしくお願いします!


■AppleがAI/生成AI「Apple Intelligence」を発表、アプリ横断でオンデバイス/クラウドのハイブリッドAIに

3行まとめ
記事の要旨を3つの要素で3行にまとめました。

**1. AppleはAI機能「Apple Intelligence」を発表。アプリ内の言語や画像を理解して新しいコンテンツを生成したり、複数のアプリをまたいだ連携機能が利用可能。**
**2. デバイス上での処理がベースで、ユーザーの行動にあわせた生成結果を生成。写真は、プライバシー保護のためのシステム「Private Cloud Compute」を利用。**
**3. ユーザーは、データの保存場所やアクセス権限を管理可能。クラウドサーバーの利用は、必要最低限のみに限定。**

昨晩、Appleの開発者向けイベント「WWDC24」が開催されました。
「Apple Vision Pro」が日本でも発売されることや、iOS18・WatchOS11の発表もありましたが、やはり注目は「Apple Intelligence」の発表でしょう。

Apple Vision Proで「VR」と決して呼ばず「空間コンピューティング」と言い続けましたが、AIを「Apple Intelligence」だと言葉を上書きしてくるところはAppleらしい王者のマーケティング手法です。

発表内容自体は、大きなサプライズはなかったと市場は評価したようで、WWDC後のAppleの株価は1.9%安となりました。

しかし、「OSレイヤーにAIを組み込むこと」を正式に発表したことは大きな意義があると感じました。


OSレイヤーにAIを組み込むポジションを採った意義は大きい

AppleがAIを導入するからには、AIサプライヤーでは実現不可能な「OSレイヤーにAIを組み込むこと」を実現しなければなりません。

Soraに対抗する動画生成AIやSunoを超える音楽生成AIのApple版を出したり、写真をAIが自動処理する消しゴムマジックや編集マジックをGoogleと競っても、新たな価値や時代の変革をもたらさないどころか、Appleのエコシステムを活性化させるサードパーティーをつぶしかねません。

 アプリ内の言語や画像を理解して、新しいコンテンツを生成したり、複数のアプリをまたいだ連携機能が利用できたりする。

 「Apple Intelligence」には、大規模言語モデル(LLM)が備わっており、iPhoneの通知に優先順位をつけてユーザーに知らせたり、メールの返信を生成AIで作成して送信したり、メールを要約したりする機能が利用できるようになる。これらは、開発者向けにSDKが公開され。サードパーティー製のアプリでも利用できるという。

その点、今回の「Apple Intelligence」の発表では、「写真ライブラリーとメッセージアプリが連携した演出機能」や「メールアプリでの機能に、カレンダーアプリの予定を反映した生成AI機能」など、複数のアプリを横断してAIを活用できる方針を示しました。

そして今後はサードパーティー製のアプリでも複数アプリをAIで連携させられるSDKが公開されることも発表されました。

Genmojiという絵文字を画像生成AIで作る機能や、ChatGPTを無料利用できることなど、単体のAI機能の発表もありましたが、やはりAppleが今回「OSレイヤーにAIを組み込み、アプリ間連携ができるようにすること」を発表したことが最も重要なポイントです。


rabbit r1が実現したかったことを叶えられる

スマホがアプリの過度な充実で複雑になりすぎて、画面はアイコンだらけになってしまっています。

次世代AI専用デバイスとして登場した「rabbit r1」は、やりたいことを伝えると、適切なサービスのAPIで処理して結果を返すというUX思想でした。

つまり、ユーザーはアプリを意識する必要なく、やりたいことと結果だけ意識すればいいというシンプルさが魅力でした。

しかし、アプリ間連携を実現させるには現在アプリ側で公開されているAPIでは不十分で、有機的な連携を実現させるにもカスタムOS程度ではダメだということが露呈しています。

その点、Appleというポジションであれば「rabbit r1」が本来やりたかったUXを実現できるようになるはずです。

また、アプリベンダーとしても「Apple Intelligence」に対応させることが自社サービスを使ってもらえる条件となっていくでしょう。

スマホが登場して約15年で一番のUXの変化が「Apple Intelligence」をきっかけに起きるだろうと期待しています。


日本語対応は来年以降。待ち遠しい!

 米国内の英語環境では今夏から試験的に利用できるようになり、今秋にベータ版が提供される。
 また、ほかの言語とプラットフォームには、来年以降追加するとしている。

「Apple Intelligence」が日本語で利用可能になるのは来年以降とされています。ということは9月にiPhone16が発売されるはずですが、その時点では日本語で「Apple Intelligence」は使えないことになります。

「Apple Intelligence」はメールやスケジュールなどプライバシーに関わる情報も扱うことから端末ローカルで処理するのを基本としており、そのため対応機種もiPhone15 Pro/Pro MaxやM1以降のチップを搭載したiPadなどとハイスペック機に限られています。

先述のとおりサードパーティーアプリも「Apple Intelligence」への対応が必要になりますので、初期はできることも少ないでしょう。

機種も限られアプリもないという時期が予想されるわけですが、それでも「Apple Intelligence」は今までのスマホとは全く違う体験を提供してくれることを期待せざるを得ません。

できればARグラスを外部モニターとして完全にPCの代替ができるよう、iPhoneでも空間コンピューティングに対応できるようになることも期待したいところですが、まずは先行する海外の「Apple Intelligence」の動向に注目していきたいと思います。

この記事が気に入ったらサポートをしてみませんか?