【Core ML】 モデルのIntegrationをシンプルにするMLTensor - "Deploy machine learning and AI models on-device with Core ML" を見たメモ①
WWDC24の "Deploy machine learning and AI models on-device with Core ML" (Core MLで機械学習とAIモデルをオンデバイスで展開する)セッションを見たメモ。
セッション概要
セッションのアジェンダ
本セッションのアジェンダは以下の5つ:
Integration
MLTensor
Models with state
Multifunction models
Performance tools
ちなみに最後の"Wrap-up"では以下の3つだけピックアップされてるので、このセッションで重要なのはこのへんなのだと思う:
本記事では "Integration" と "MLTensor" についてまとめる。
Models with stateについてはこちら:
Multifunction modelsについてはこちら:
"Performance tools" については以下3記事に書いた:
"Integration"
Integrationは「おさらい」といった感じなのであまり拾うところはなかったが、面白い話もあった:
iOS 17とiOS 18の相対的な予測時間を比較すると、多くのモデルでiOS 18の方が速い
この高速化はOSに付属しており、モデルの再コンパイルやコードの変更は必要ない
つまり再変換とか何もしなくてもiOS 18ではiOS 17よりも推論が速く動く!
MLTensor
課題
MLTensorの前提となる課題感の話から。
ここから先は
#WWDC24 の勉強メモ
WWDC 2024やiOS 18, visionOS 2についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。 …
最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/