今日もしなやかに参りたいと思います。

Appleの恒例イベントWWDC(開発者会議)ですが、毎年楽しみに各種メディアのレポートを見ています。リアル会場にて参加したことはありません。渡航費、滞在費、参加費用を考えると50万円はかかるため、毎年、会社の経費で行ける方はうらやましく思っていました。COVID-19の影響でオンライン開催となり、見たいセッションが無料でオンデマンドでみられるというApple製品はそれほどだがAppleの手がける技術が好きなエンジニアとしては夢のような状況となっています。Apple Parkで撮影され洗練されたキーノートセッションを皮切りに、毎晩(たまに寝落ちしながらも)各セッションを見ています。

今回注目したのは2点、Apple SiliconとAirPods Proのソフトウェアアップデートによる空間オーディオです。

Apple Silicon

 処理性能と省電力性の両立を求めて2005年にPowerPCからIntelへと移行したように、今回のIntelからARMへの移行も同じ目的から、と思われます。ただ、それだけでは終わらないでしょう。実態はSoC(System on Chip)なので独自の回路を追加してそれが差別化となることを狙っていると考えます。GPUコアやニューラルネットコアを入れ、独自の命令を追加して既成品では達成し得ないパフォーマンスを実現してくるのではと思います。

もう一つは開発の効率化があげられるのでしょう。iPadとmacBookのハードウェアの差分は少なくなり、共通プラットフォームの元で差分だけを編集設計ということも考えられます。また、iPadOS向けに作成したミドルウェア、アプリなどがそのままmacOSでも使えるということもあり得ると思います。

何か素晴らしいことが起こらないか、次のニュースが楽しみです。

空間オーディオ

左右の音声に指向性オーディオフィルターによる周波数調整を行い、前方・後方の左右、センターチャンネルと高さ方向の音声成分を含むサラウンド音場をAirPods Proで再現する機能、ということです。AirPods Proがもっているセンサー情報から演算した位置情報を使って音源を正しい位置に定位させるヘッドトラッキング機能に対応し、顔を向けた方向の音が正面から聞こえるということで、映画や音楽にて臨場感を楽しむことが出来るのでしょう。

私としてはARプラットフォームであるARkit4の発表にて、Location Anchors(特定の場所にARの情報を保存)が追加されたこと、がさらに興味をそそられました。ここから妄想が始まりますが、Ambient Computingによる人間の能力拡張ができるのではないか?とワクワクします。旅先を歩いていて、知らない間に見どころを通り過ぎてしまうことはよくありますが、その場所に音声ARがあらかじめ埋め込まれていれば、空間オーディオにてその方向から説明が聞けるとか、同じようなことがテーマパークや美術館でも実現できるのではと考えます。視覚障害者が安全に移動できるよう、工事エリアや駅のプラットフォームに近づくとその方向からアラートが聞こえてくる、さらに近づくと大きな音量で教えてくれる、といった音声ARによる人間の能力拡張にて、QOLの向上が可能になると思います。近所を歩いていて毎回同じことを言われるとか、大都会で「前から車が来ます、気を付けてください」と1分に100回連呼されてもうざい!ので、個人の行動や好みを理解し必要な情報を取捨選択する技術が重要となるのでしょうね。

ちょっと長くなりました。これに懲りずにまた覗いてください!


この記事が気に入ったらサポートをしてみませんか?