Coralの夏の更新:トレーニング後の量的サポート、TF Lite delegate、および新しいモデル!

Coral’sは、顧客との仕事、流通の拡大、新機能の構築に忙しい夏を過ごしました。もちろん、R&Rには時間がかかります。ローカルAIのプラットフォームの更新、初期の作業、新しいモデルを皆さんと共有できることを楽しみにしています。

コンパイラがバージョン2.0に更新され、トレーニング後の量子化を使用して構築されたモデルのサポートが追加されました(完全な整数量子化を使用する場合のみ(以前は量子化対応トレーニングが必要でした))、いくつかのバグが修正されました。 TensorflowチームがMedium postで言及しているように、「トレーニング後の整数量子化により、ユーザーはトレーニング済みの浮動小数点モデルを完全に量子化して、8ビット符号付き整数(つまり int8)のみを使用できます。」モデルサイズを縮小すると、この方法で量子化されたモデルは、Coral製品にあるEdge TPUによって高速化できるようになりました。

また、Edge TPU Pythonライブラリをバージョン2.11.1に更新して、Coral製品の転移学習用の新しいAPIを追加しました。新しいデバイス上の逆伝播APIを使用すると、画像分類モデルの最後のレイヤーで転送学習を実行できます。モデルの最後のレイヤーはコンパイルの前に削除され、デバイス上で実装されてCPUで実行されます。ほぼリアルタイムの転送学習が可能になり、モデルを再コンパイルする必要がありません。以前にリリースされた刷り込みAPIは、既存のクラスをすばやく再トレーニングしたり、他のクラスをそのままにして新しいクラスを追加できるように更新されました。事前に訓練された基本モデルのクラスを保持することもできます。デバイス上での転送学習の両方のオプションの詳細をご覧ください。

これまで、Edge TPUでモデルを高速化するには、Edge TPU Python APIまたはC ++を使用してコードを記述する必要がありました。しかし、TensorFlow LiteインタープリターAPIを使用すると、Edge TPUのTensorFlow Liteデリゲートがリリースされたため、Edge TPUでモデルを高速化できます。 TensorFlow Lite Delegate APIは、TensorFlow Liteインタープリターがグラフ実行の一部またはすべてを別のエグゼキューターに委任できるようにするTensorFlow Liteの実験的な機能です。この場合、他のエグゼキューターはEdge TPUです。 Edge TPUのTensorFlow Liteデリゲートの詳細をご覧ください。

CoralはEdge TPUおよびAutoMLチームとも協力して、EfficientNet-EdgeTPUをリリースしています。EfficientNet-EdgeTPUは、Edge TPUで効率的に実行するようにカスタマイズされた画像分類モデルのファミリです。モデルはEfficientNetアーキテクチャに基づいており、Edge TPUでの低遅延に最適化されたコンパクトなサイズでサーバー側モデルの画像分類精度を実現します。 Google AIブログでモデルの開発とパフォーマンスの詳細を確認し、コーラルモデルのページでトレーニングおよびコンパイルされたバージョンをダウンロードできます。

また、夏の終わりに合わせて、今年の授業や研究室での実験をお望みの方には、アローが学生教師割引を提供していることもお知らせしたいと思います。

Coralプラットフォームの進化を続けられることを嬉しく思います。coral-support@ google.comでフィードバックを送信してください。

Coral Dev Boardは、Edge TPUコプロセッサーを搭載したシングルボードコンピューターです。 機械学習モデル用の高速なデバイス上の推論を必要とする新しいプロジェクトのプロトタイピングに最適です。

Google Coral EDGE TPU 海外代理店薦める,グローバル出荷:https://store.gravitylink.com/global
Coral USB Acceleratorは、コンピューターのコプロセッサーとしてEdge TPUを提供するUSBデバイスです。 Linuxホストコンピューターに接続すると、機械学習モデルの推論が高速化されます。

この記事が気に入ったらサポートをしてみませんか?