見出し画像

AWS のGenerative AI に関する発表のすごさ

AWS が生成AIへの参入を発表した。
自分は仕事でよくAWSを使うし、機械学習については一定の知識を持っていると思うので、このニュースの知られていない凄さの一端を解説することはできるかもしれないと思った。違うこと、足りていないことなどあったら、まさかり投げてほしい。

久々に、AWSから度肝を抜かれるような発表が出た。 自分がこのニュースを知ったのは日経新聞の通知だった。正直、このタイトルはこのニュースの本質を表していない。本文を読んでも、重要なことが書いていない。ただ、このニュースが無かったら、自分は今頃何も知らずにベッドで寝ていただろう。そういう点で、とてもありがたいニュースだった。

今回の発表について

今回の発表の重要なところを抜き出すと、以下のようになります。

  • Generative AI and foundation models

    • 生成系機械学習と、Foundation Model (以下、FM。自然言語において、LLMと呼ばれているもの)

    • ChatGPTがその可能性の一端を示したように、生成系機械学習で役に立つ可能性があるものも多い

  • Amazon Bedrock and Amazon Titan models

    • 新サービス、Amazon Bedrock

      • AI21 Labs, Anthropic, Stability AI(Stable Diffusion!!!), Amazon などの多様なベンダーが提供するモデルを使える

      • 社外秘のデータを使って、FMを専用にカスタマイズできる

      • 言語生成、チャットボット、検索、文章要約、画像生成、画像分類などが準備されているようだ

    • 新モデル、Amazon Titan

      • Amazon 版、GPT (性能は、不明)

      • Amazon が作成したLLM(Large Language Model)

      • Titan Embeddings という埋め込みAPIも提供される模様

      • 有害なコンテンツの検出と削除などを行うように構築されている

    • モデルのカスタマイズ

      • S3のデータをBedrockに入れて、finetuning することができる

      • すべてのデータは暗号化され、VPCを離れることがない

  • 新EC2インスタンスの発表

    • トレーニングコストを最大50%削減できる、「AWS Trainium搭載 Amazon EC2 Trn1nインスタンス」提供開始

    • 全世代のInferentiaとくらべて最大4倍のスループットと最大10倍のレイテンシーの「AWS Inferentia2搭載 Amazon EC2 Inf2インスタンス」を提供開始

  • Amazon CodeWhisperer

    • Amazon 版、Code Copilot

    • 個人開発者向けに無償提供

    • Python, Java, JavaScript, TypeScript, and C#, Go, Kotlin, Rust, PHP, and SQL などに対応。

    • VS Code, IntelliJ IDEA, AWS Cloud9などの、Extension を提供

色々書きましたが、以下でもう少し細かく解説しようと思います。

Amazon Bedrock and Amazon Titan models

Amazon Bedrock という新サービスのアナウンス。まだα版なので、限定されたユーザーしか使えない模様。セキュリティ周りの話も含めて、本気で生成系AIを実用化することを考えたサービスだなと、AWSの意気込みを強く感じた。

2023年4月現在、ChatGPTやGithub Copilot などの生成系AIを使用するにあたって、セキュリティは非常に大きな問題になっている。OpenAI が提供するChatGPTで他人のトークタイトルが表示される問題は、記憶に新しい。送ったデータが学習に使われるかもしれないという不安もつきまとう。これは、現在提供されている生成系AIは、所有することができず、SaaS と言うかたちで使うしかないことが大きな原因だ。

SaaS しか使えないのは、そもそもOpenAIがコードや重みを公開していないというのもあるが、一般的な人や企業には、モデルが動く環境がないというのもある。たとえば、GPT-3 は1750億パラメータ持っていると言われており、これを手元で動かすのは難しい(軽量のモデルも出てはいるようだが)。

Amazon Bedrock が解決しようとしているのは、専用のモデルをホスティングすることができないという問題だ。AWS がマシンとモデルを提供し、動かすインフラの費用を対価として支払う。料金表が出てきていないので何とも言えないが、きっと驚くほど高い値段ではないと想像している。従量課金制で、多く使うときには柔軟にスケールアップできることは容易に想像ができる。アプリケーションに組み込むことを最優先で考えられたサービスとして提供されることになるはずだ。

Amazon Titan models については、実際触ってみないと何とも言えないが、OpenAI のGPT-4 もWebで集めることができるデータを元に学習されているはずなので、Amazon ぐらいの資金力があれば、同等の性能を出せていても全く不思議はないと考えている。これも、楽しみだ。

モデルのカスタマイズについて、Managed でカスタマイズできるというのがよい。そして、データがVPC内で完全に守られるというのもよい。もう、Google Form にメールアドレスを入れたり、OptOutのチェックボックスにチェックを入れたりしないで良くなるのだから。今まで、規約をいろいろな角度から眺めていろいろな解釈を試みていたが、AWSがセキュリティを担保してくれるなら使おう!という人も多いのではないか?と思っている。

新EC2インスタンスの発表

学習用のアクセラレータが載ったインスタンスと、推論用のアクセラレータが載ったインスタンスがそれぞれ発表された。性能の向上については、上述の通り。何より驚かされたのは、それらのチップ開発にまつわるストーリーだ。

正直、今までAWSの専用アクセラレータは使いづらいなと感じていた。Elastic Inference 用にPyTorch で作ったモデルをコンバートしたこともあった。成功すると運用費用が下がって嬉しいが、新しい論文を実装したモデルだと対応していないこともあったりして、徒労に終わったこともある。恨めしく思ったことは何度もあるが、感謝したことは殆どなかったのが正直なところだ。

しかし、今回のストーリーを読んで、あっけにとられた。FMをファインチューニングする世界になったら、モデルのコンバートなんて作業は必要ない。AWS の専用チップでの学習に最適化されたコードとFMがAWSから提供され、独自データだけを投げ込めばファインチューニング済みのモデルが作成される。

推論に関しても同様だ。AWS の独自チップでファインチューニングされたモデルはAWS の独自チップで推論できるようになっているに違いない。そうなると、他のアクセラレータ(Nvidia製のGPU)が必要になることはほとんど無くなりそうだ。

この未来を夢見て、AWSは2018年から独自チップ開発をしていたと書いてあるのだ。本当に?と思うが、もしそうなら半端ない先見の明だと思う。

Amazon CodeWhisperer

これは、Github Copilot との違いがよくわからなかった。
実際に、使って比べて初めて分かることも多そうだ。

Github も、Public なレポジトリしか使用していないと主張しているので、理論的には同じ性能を再現できるはずである。どのぐらいの精度でどのぐらい使いやすいExtension になっているのか、使い始めるのが楽しみだ。

まとめ

Amazon Bedrock をはじめ、一連の発表には正直度肝を抜かれた。今までAmazon の機械学習周りの機能でとりたてて便利だ!と思うものはあまりなかったが、Bedrockに関しては、是非今すぐ触ってみたいと思う。
実際に企業が導入しようとすると、セキュリティの問題は切っても切り離せない。セキュアにデータを扱うこともできる仕組みが準備されていそうなので、早く一般公開されてほしいと願っている。

今日のランチ

博多うどん処 泰吉: https://tabelog.com/fukuoka/A4001/A400103/40053069/

  • 肉ごぼうわかめランチうどんごはん抜き: 780円

  • 麺二倍: 100円



この記事が気に入ったらサポートをしてみませんか?