見出し画像

visionOSのエンジニアに質問した内容のメモ


概要

SwiftでvisionOSのアプリをつくろう

登壇者について

Satoshi Hattoriさん(@shmdevelop)
東京在住のソフトウェアエンジニアです。サイバーエージェントに所属しており、バーチャルプロダクションを実現する撮影スタジオで働いています。visionOS 30 Days 開発チャレンジや仮想カメラ実装などGitHubにアップしています。 ARKitが大好きで、最近はvisionOSの開発を追求中です。Vision Proが普及した社会が楽しみですね。

登壇内容

visionOSはSpatial Compuingという新たなパラダイムを示しています。今後ヘッドセット型端末での体験が数多く提供されてゆくでしょう。
このトークではvisionOSの基本的な概念の解説をしSwiftを使ったサンプルアプリ実装の説明をします。まだ現時点ではvisionOSでの開発をしたことがない方が多いでしょう。
SwiftUI、RealityKitの実装経験がない方もまた多いと思います。すべてを理解する必要はなく、基本的な構成を学習すればあなたも空間的なアプリを実装することができます。
プロジェクト作成から動作までの流れを解説し空間的表現をデモと動画で説明します。Spatial Computingの体験を皆でつくっていきましょう!

Ask The Speakerで質問したこと

Q1,Vision Proは、5感のうち、視覚と聴覚について意見が聞きたい

視覚

  • 視覚部分はとてもいい。

  • Meta Quest3と比べて、視界の歪みが少ない。

  • 歪みのなさと遅延のなさがとてもいい。

  • とても自然に見える。

視覚

  • 聴覚のところは、期待してはなかったが良かった。

  • Appleの発表によると、空間を認識して反響を算出した上で、音を届けている

  • 例えば、Youtubeを見る中でYoutubeの位置によって聞こえる向きが違う

  • 単純に、音源の位置以上に周辺の環境を認識して音を作っている

  • 体験としては、上記はすごくできている気がする

  • シンプルに音質がいい。音は品質がとても高い

  • Face Timeで通話をしていて、音がクリアで自然で、とてもいい。



Q2,コントローラーの操作の慣れについてどうなのか?

  • これまで触ってもらった人は、テストモードで40~50人ぐらいぐらい

  • メガネをかけていたり、キャリブレーションできないケースを除いて、体験が成り立たないケースはほぼなかった。

  • ゲストモードにすると、最初に手と目の位置のキャリブレーションから始まるため、問題なく操作できた

  • 5分~10分ぐらいの体験は問題なくできた

  • IT業界の人たちを対象としていたため、何も知らない人にとってはわからない


最後に

登壇内容のメモは別の記事などにまた書きます~~

いいなと思ったら応援しよう!

いせりゅー
嬉しいです!!