iOS 14.2 beta 3で追加されたAPI
現地時間の10月13日、iPhone 12(Mini / 無印 / Pro / Pro Max)が発表された。WWDC以外での新製品発表は、開発者にとってはもうひとつの楽しみがある。新デバイス発表に伴うAPIの追加だ。
たとえば2017年6月に行われたWWDCでARKitは発表されたが、同年の9月にiPhone Xが発表されてからFace TrackingのAPIがSDKに追加された。新しいiPhoneが出れば何かしらのハードウェア的な新しい点があり、何かしらのAPIが追加される。
同日にiOS 14.2 beta 3が出ていたので、APIの差分をざーっと見てみた。
AVFoundation
カメラを司るフレームワークなので一番期待できる。以下の新しいAPIが追加されていた。
AVCaptureColorSpace
・AVCaptureColorSpace.HLG_BT2020
(AvailabilityはiOS 14.1+)
AVCapturePhotoOutput
・isContentAwareDistortionCorrectionEnabled
・isContentAwareDistortionCorrectionSupported
(いずれもAvailabilityはiOS 14.1+)
AVCapturePhotoSettings
・isAutoContentAwareDistortionCorrectionEnabled
(AvailabilityはiOS 14.1+)
AVCaptureResolvedPhotoSettings
・isContentAwareDistortionCorrectionEnabled
(AvailabilityはiOS 14.1+)
AVPlayerItem
・appliesPerFrameHDRDisplayMetadata
(AvailabilityはiOS 14.0+)
AVSemanticSegmentationMatte.MatteType
・glasses
(AvailabilityはiOS 14.1+)
いずれもドキュメントに解説は一切なかった。しかしAPIの名前から静止画撮影においてContentAwareDistortionCorrectionを有効にできるようになったこと、メガネのセグメンテーション・マットが取得できるようになったこと、等がわかる。
Segmentation Matteはこれまで髪・肌・歯について取得可能でした。実装等については100円で販売中の拙著に書いています。
Core Bluetooth
ここから先は
#WWDC2020 の勉強メモ
堤がWWDC 2020およびiOS 14についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。NDAの都合上、Ap…
最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/