
iOS 14でSpeechフレームワークによる日本語の音声認識は改善されたのか? #WWDC14 #iOS14
WWDC 2020のキーノートでは、iOS 14では純正の翻訳アプリ"Translate"が発表された。
これがなんと、「オフラインで動作」する上に、「日本語もサポート」しているらしい!
ということは、iOSの音声認識APIであるSpeechフレームワークも大幅パワーアップされているかもしれない!
Translateに伴いSpeechフレームワークもテコ入れされてたらいいな... #WWDC20
— Shuichi Tsutsumi (@shu223) June 22, 2020
とキーノート後の新APIの発表を心待ちにしたが、しかし残念ながらiOS 14におけるSpeechフレームワークのAPI差分はゼロだった。(Speechの更新としてはacousticFeatureValuePerFrameがmacOS 11でサポートされただけ)
期待が外れ、Speechフレームワーク(音声認識API)も更新なし。しかしAPIが変わってないだけで内部的に刷新されてる可能性は大いにあると引き続き期待している...https://t.co/kdRMsBftOM
— Shuichi Tsutsumi (@shu223) June 23, 2020
いやしかし、Speechフレームワークの場合はAPIには表れない、内部的なアップデートは十分あり得る。そのへんはコードを動かしてみないとわからないので実際にiOS 13とiOS 14で動かしつつ検証してみた。
日本語のオフラインサポート
SFSpeechRecognizerを日本語を指定して初期化し、
let recognizer = SFSpeechRecognizer(locale: Locale(identifier: "ja-JP"))!
この続きをみるには
この続き:
1,532文字
/
画像1枚
昨年は書籍という形にまとめましたが、今年はこのマガジンに集約することにしました。
最初は記事が少ないので格安から開始して、充実してくるごとに本来あるべき価格に戻していく予定です。というわけで早いうちに買うと非常にお得です。
昨年の書籍は約80ページ+本に載せなかった事項もたくさん、ということで最終的にはそれなりの量になるのではと思います。