It’s Glowtime!
ANDPAD ZEROの藤田です。
さて、つい先週、9月10日午前2時にAppleのビッグイベント「It’s Glowtime.」があったことをご存知でしょうか?
本業がiOSアプリケーションエンジニアの私としてはチェックせずにはいられないイベントです。
ぜひタイムリーな話題をnoteでまとめられればと思い今回は筆をとりました。
今回のイベントで発表された新たな機能についても、解説していきますのでぜひ最後までお読みください!
Appleのイベントって?
Appleのイベントは大きく2つ存在します。
開発者向けのイベントである「WWDC(Worldwide Developers Conference)」と、一般顧客向けのイベントである「Apple Special Event」です。今回紹介する「It’s Glowtime.」も、この「Apple Special Event」の秋のイベントとして開催されました。
WWDCは毎年6月ごろに実施され、開発中の各OSの機能や新規追加APIについての紹介が行われます。これまでの私の記事の中でも度々単語として出てきたこともあるかと思います。
今年のWWDC24では、iOS18やiPad OS18、VisionOS2等の紹介がなされました。
このWWDCは、開発者向けのイベントという特徴があり、コードをはじめとした少し専門的な説明も多くでてきます。
一方、Apple Special Eventは直近に発売されるApple製品紹介のためのイベントで、年に数回あります。だいたい春に1回と秋に1〜2回あり、特にiPhoneの発表がある秋のイベントがメジャーかと思います。
今年の春(5月)のイベントではiPad Air(第6世代)やiPadPro(第7世代)、Apple Pencil Proが発表され、今月(9月)もiPhone16をはじめとした多くの新製品が発表されました。
もちろん私もiPhone16Proは予約開始直後にすぐ予約しております。
ケースやフィルム等もすでに手配しており、実機が手に入ることが非常に待ち遠しいです!
(おそらくこの記事が公開されているころには入手できているはず・・・)
さて、ここからは、今回の「It’s Glowtime.」で行われた発表について軽くまとめさせていただこうと思います。
ただ製品紹介をまとめるだけならすでに多くの方が記事を出されていますし、それだけではANDPAD ZEROのnoteとして少し物足りないですよね…!そこで、今回の記事では、建設業界でも活用が広まりそうな”ビビッ”ときた内容をピックアップしてまとめていこうと思います。
Apple Intelligence
Apple IntelligenceはApple製の生成AI機能です。
iPhone16系のデバイスは全てApple Intelligenceのために設計されたとのことで、今回の発表でもApple Intelligenceに関する発表がいくつかされました。まずはこのApple Intelligenceについて気になった箇所をご紹介していきます。
Private Cloud Compute
まず、Apple Intelligenceの大きな特徴はプライバシーとセキュリティを非常に重要視していることです。
これまでも生成AIを利用して情報漏洩したという事件がちらほら発生していたと思います。こうした事件は、生成AIの学習方法が原因となっていました。少し詳しく説明すると、ユーザーが生成AIに問い合わせた内容は裏でAIの学習に利用されることから、入力してしまった個人情報や機密情報をユーザーが意図しない形でAIに学習されてしまいます。結果として、第三者に対して公開したくない情報の一部が意図しない形で拡散されることで発生していたということです。
こういった問題を解消するため、Apple Intelligenceではベースとして各デバイス内でAIの機能を完結させられるようになっています。
一方で、複雑な処理を必要とする場合には、デバイス内で完結させることのできないケースも出てくると思います。
そんなケースのために、Appleは「Private Cloud Compute」というサービスを用意しています。
この「Private Cloud Compute」を活用すると、データが暗号化して通信されるため、データの傍受や改ざんに強く、また、サーバ側でも送られたデータは保存せずにユーザのリクエストのみに利用されることとなっています。「Apple社員もこの情報は閲覧できない」と謳われています。
Visual Intelligence
Visual Intelligenceは画像認識機能です。
イベントでの紹介によれば、街中で気になったお店を撮影するとそのお店の営業時間や評価といった詳細情報を確認できたり、イベントポスターを撮影するとそのポスターのイベントの日時がカレンダーに自動登録されたり、欲しい自転車を撮影するとどこで購入できるのかをGoogleで調べることができたり、といったことができるようです。
このVisual Intelligenceで興味をひかれる点は、サードパーティ・ツールに接続ができると言及されていたことです。例えば、カレンダーアプリに連携したり、GoogleやChat-GPTに連携できるといった説明がありました。
私たち開発者にとっては、Visual Intelligenceでの認識結果を受け取ることができれば、開発できるアプリの幅はかなり広がります。どういった方法でサードパーティ・ツールと連携できるか、実際にANDPADアプリとの連携も可能かといったところはこれからでありますが、Visual Intelligenceを早く検証してみたいとワクワクしています。
*イベントでは後術するCamera Controlで操作をしていたため、本機能はCamera Controlが搭載されているiPhone16系のデバイスでのみ利用できるようです。
Summarize Text
今回の発表で個人的に特に便利そうだと思ったのが「Smmarize Text」という、テキストの要約機能です。イベントではメールアプリのリストや通知画面で要約した内容で表示してくれると紹介されていました。
メールアプリを例にしてもう少し説明していきます。これまではメールアプリの一覧では、送信者と受信日時、メールの先頭の一部のみが表示されていました。これではいつ誰からきたメールかはわかりますが、メールの内容は実際にメールを開くまでわかりませんでした。
しかし、Apple Intelligenceによって、メールの内容は2行程度に要約され、一覧上からでも内容がわかるようになります。
メールアプリを例にして説明しましたが、イベントによれば、通知にもApple Intelligenceが適用されると紹介されていました。
チャットアプリの通知もこれまでは誰から通知がきたのかくらいしかわからなかったのですが、通知画面で内容まで把握ができると、コミュニケーションのロスもかなり削減できると思います。建設現場で1日に100を超えるようなメールを受信する現場監督も、隙間時間に必要なメールをサクっと確認することができ、重要な情報をタイムリーに確認できるようになりそうですね。
イベント上ではかなりさらっと紹介されていましたが、業務で利用するにあたっては、一番活きる機能になるのではと考えています。
リリース時期と対応デバイス
さて、このApple Intelligenceですが、iOS18等がリリースしてすぐ使えるわけではないようです。
まず、2024年10月にアメリカで利用が開始され、日本(日本語)では2025年に利用可能となると発表されています。
また、Apple Intelligenceが利用できるデバイスもある程度決まっており、以下のようになるようです。
iPhone15 Pro / iPhone 15 Pro Max
iPhone16 / iPhone16 Plus / iPhone16 Pro / iPhone16 Pro Max
M1チップ以上搭載のiPad Air(第5世代以降)
M1チップ以上搭載のiPad Pro(第3世代以降)
M1チップ以上搭載のMac
Camera Control
次に、Apple Intelligence同様、私がビビっと来た機能として、Camera Controlを紹介します。
Camera ControlはiPhone16から新しく搭載されたカメラ制御に特化したボタンです。
カメラアプリをすぐ立ち上げられたり、カメラのズームやシャッターをより直感的に(実機のカメラのように)制御したりできる他、先の項目で説明したVisual Intelligence機能でも利用するボタンになります。
ズームやシャッターを実際のカメラと同じような感覚で操作できるというのも面白そうですが、なんといってもカメラをすぐ立ち上げられるということはとても有用だと感じています。
すぐ撮影したいのにカメラアプリを探してるうちにシャッターチャンスを逃したりといったことは誰しも経験があると思います。そういった時に物理ボタンですぐにカメラにアクションすることができるこのCamera Controlは威力を発揮してくれると思います。
こうしたシーンは、建設現場でも多く見られると思います。最近ではスマホで現場写真を撮影して共有することが非常に多くなってきていると思いますが、いざ撮影したい時にパッとカメラを開けずにもたついてしまうことも少なくないのではないでしょうか。
理想を言えばCamera ControlでANDPADのカメラがすぐに起動し、黒板付き写真が簡単に撮影できることですが、おそらく標準のカメラアプリのみのサポートになりそうです。
ちなみにアプリ内の機能にショートカットでアクセスするような機能は、カメラに限らず、割と古くからある3D TouchやHaptics Touchといった機能で実装可能でした。
これはホーム画面にあるアプリのアイコンを強く押したり、長押しすることで、アプリの特定画面へショートカットアクセスしたり、特殊コマンドを実行したりすることができる機能でしたが、ホーム画面上でアプリアイコンを強く押したり、長押しするといったアクション自体が、あまり直感的ではなく、あまり活用されていなかった印象です。そういう意味でも、今回のCamera Controlは画期的であると言えるのではないでしょうか?
使いこなせたらより便利になると思うのですがいいアイデアをお持ちであれば、ぜひどなたか教えてください!
最後に
今回の記事はいかがでしたでしょうか?
おそらくこの記事が出る頃にはiOS18もリリースされており、また、私もiPhone16 Proを入手してホクホク顔になっているのではないかと思います。今回はAppleのイベントで出てきた内容についてまとめましたが、実際にiOS18やiPhone16 Proの実機をいろいろと触ってみて、より面白い情報があれば今後の記事としていこうと思います。
これからもANDPAD ZEROのnoteではみなさんに楽しんでいただけるような様々な記事をお届けさせていただきます。
今後ともよろしくお願いいたします。
以上、藤田でした!
この記事が気に入ったらサポートをしてみませんか?