見出し画像

GCPの歴史 vol.3

続きです。

2015年 Cloud Datalabのリリース

機械学習は
・データ分析とモデルの作成
・モデルの学習
・学習済みモデルの活用
のフェーズの分けられます。GCPはそれぞれのフェーズに適したサービスが提供されています。2015年にGoogleはPythonをブラウザ上でインタラクティブに実行できるJupyter NotebookをべーすとしたCloud Datalabをリリースしました。Cloud Datalabは機械学習のモデルに適したサービスです。TensorFlowなどを使ってモデルを作成できます。GCPのクライアントライブラリが例えばBigQueryの操作が容易に実行できます。
機械学習モデルを作成する際はデータ分析に基づくトライアンドエラーが必要でデータのビジュアライゼーションなどもじゅうようになります。CLoud DatalabではBigQueryから取得したデータをインタラクティブにグラフ表示することもできます。現在はJupyterLabの昨日が利用できるAI Platform Notebookも提供されています。

2016年 Cloud Machine Learning Engine の登場

機械学習モデルの学習フェーズでは大量のマシンリソースが必要になります。例えば画像を識別するモデルを作成した場合、大量の画像データを用いてそのモデルを学習する必要があります。GCPに2016年に登場したCMLEはその学習の場を提供してくれます。GCPにある大量のマシンリソースを使って並列に作業させることで、オンプレミスの限られたサーバー環境では1週間かかっていたような学習の処理を一日で終わらせることもできます。学習済みのモデルをGCPにデプロイしクライアントアプリからリクエストを送って予測を行うような処理もできます。(=学習モデルの活用フェーズでも活躍するサービスです)

2017-2018年 進化するGCPのAI

GCPでは自分でモデルを作成しなくてもあらかじめ提供されている学習モデルを使うことでアプリに知能をあたえることが可能です。学習済みモデルには次のようなものがありそのままAPIで利用できます。
・Cloud Natural Language:自然言語処理
・Cloud Speech-to-Text:音声データをテキストに変換
・Cloud Text-to-Speech:テキストを音声データに変換
・Cloud Translation:機械翻訳
・Cloud Vision:画像認識
・Cloud Bideo Intelligence:動画解析
必要とする機械学習の機能がこれらの学習モデルを利用することで代用できるのならばモデルの作成すら必要ありません。また、メンテナンスも全く必要なく勝手に精度も上がっていきます。
一方で専門分野になるとGoogleが用意している学習ずみモデルでは対応できないケースが多くなり、その分野に特化した学習モデルが必要になります。Cloud Machine Learning Engineなどで新たに機械学習モデルを作成することもできますが、GCPが2018年に登場したCloud AutoMLを使うと、機械学習に関する専門知識がなくても、GCPの学習ずみモデルをベースに自社のサービスに合わせてカスタマイズを加えた機械学習モデルを構築できます。

Cloud AutoMLの第一弾としてリリースされたCloud AutoML Visionは画像認識の機械学習モデルを自社サービス向けにカスタマイズするものです。タグをつけた画像を一定数アップロードすると数分〜一日程度で性能評価のためのデモが可能になりトレーニングずみモデルはGCP上に直接デプロイできます。
その後CLoud AutoMLから自然言語処理用のCloud AutoML Natural Language、機械翻訳のAutoML Translationがリリースされています。

最後に

2018年までの歴史を紐解いてきました。2020年現在で身近に感じる機械学習やディープラーニングといった具体的な手法は専門知識が必要そうだと感じていた一方でできるだけ簡略化して独自プロダクトに落とし込める製品を提供するGoogleの理念は、やはり流石のものがあるなと感じました。
次回は2019ーのお話です。ではまた。


N


私の常日頃の生活をベースに、皆さんの役に立てたり、探しているものを紹介できたらと思っています。今後もよろしくお願いします!