![見出し画像](https://assets.st-note.com/production/uploads/images/32303872/rectangle_large_type_2_0d1ba976ec3d466880136bdd2b73bc4c.jpg?width=800)
iOS 14でSpeechフレームワークによる日本語の音声認識は改善されたのか? #WWDC14 #iOS14
WWDC 2020のキーノートでは、iOS 14では純正の翻訳アプリ"Translate"が発表された。
これがなんと、「オフラインで動作」する上に、「日本語もサポート」しているらしい!
ということは、iOSの音声認識APIであるSpeechフレームワークも大幅パワーアップされているかもしれない!
Translateに伴いSpeechフレームワークもテコ入れされてたらいいな... #WWDC20
— Shuichi Tsutsumi (@shu223) June 22, 2020
とキーノート後の新APIの発表を心待ちにしたが、しかし残念ながらiOS 14におけるSpeechフレームワークのAPI差分はゼロだった。(Speechの更新としてはacousticFeatureValuePerFrameがmacOS 11でサポートされただけ)
期待が外れ、Speechフレームワーク(音声認識API)も更新なし。しかしAPIが変わってないだけで内部的に刷新されてる可能性は大いにあると引き続き期待している...https://t.co/kdRMsBftOM
— Shuichi Tsutsumi (@shu223) June 23, 2020
いやしかし、Speechフレームワークの場合はAPIには表れない、内部的なアップデートは十分あり得る。そのへんはコードを動かしてみないとわからないので実際にiOS 13とiOS 14で動かしつつ検証してみた。
日本語のオフラインサポート
SFSpeechRecognizerを日本語を指定して初期化し、
let recognizer = SFSpeechRecognizer(locale: Locale(identifier: "ja-JP"))!
ここから先は
![](https://assets.st-note.com/production/uploads/images/30546/profile_06a075ed16533f7e4dbf64e4f60f99be.jpg?fit=bounds&format=jpeg&quality=85&width=330)
#WWDC2020 の勉強メモ
堤がWWDC 2020およびiOS 14についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。NDAの都合上、Ap…
最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/