ARKitのフェイストラッキングの3Dメッシュについて色々と調べる

ARKitのフェイストラッキング(ARFaceTrackingConfiguration)では、トラッキング中の顔の3Dメッシュを表すARFaceGeometryオブジェクトが得られるが、このARFaceGeometryクラス、メッシュの各頂点の3D座標の配列や、頂点インデックスの配列はプロパティとして用意されているものの、

@nonobjc public var vertices: [vector_float3] { get }

@nonobjc public var triangleIndices: [Int16] { get }

どの頂点が鼻のここを示しているとか、そういう情報は一切ありません。

しかし、鼻を構成する頂点群をいじって鼻を高くしようとか、目を大きくしようとか、そういうことをやりたいときに、どの頂点が顔のどこを示しているのかはわかる必要があります。しかしそういう方法はドキュメントにも書かれていません(ブレンドシェイプの話は除く)

というわけで、いくつか疑問だった点について、実際にARKitを動かして試してみます。

ARFaceGeometryが持つ頂点数は決まっているのか?

____________________

ここからはマガジン購読者だけが読めますが、

「がんばって書いた記事は無料公開、
 雑にさくっと書いた記事は有料マガジンに」

という方針なのであまり大したことは書いていません。

が、たったの400円で、すぐに購読解除してもその月は過去記事もさかのぼって読めるので、少しでも気になる内容がある方にはオトクかと思います。

____________________

この続きをみるには

この続き: 1,118文字
この記事が含まれているマガジンを購読する
文章やサンプルコードは多少荒削りかもしれませんが、ブログや書籍にはまだ書いていないことを日々大量に載せています。たったの400円で、すぐに購読解除してもその月は過去記事もさかのぼって読めるので、少しでも気になる内容がある方にはオトクかと思います。

日々の学びメモ

月額400円

技術的なメモやサンプルコード、思いついたアイデア、考えたこと、お金の話等々、頭をよぎった諸々を気軽に垂れ流しています。

この記事が気に入ったら、サポートをしてみませんか?気軽にクリエイターを支援できます。

8
フリーランスiOSエンジニア兼サンフランシスコのFyusion社勤務。 著書に「iOS×BLE Core Bluetooth プログラミング」「iOSアプリ開発 達人のレシピ100」。GitHubで「iOS Sampler」シリーズ他さまざまなオープンソースを公開している。