見出し画像

リリースノート3.8.0 Part2 公開型推論API機能

Node-AI スクラムマスターの中野です!

バージョン3.8.0で追加された主要な機能の紹介 Part2 になります!

作成したAIモデルの推論を外部から実行できる「公開型推論API」機能が利用可能となりました!
一部制限事項がありますが全てのNode-AIユーザの方に無料でお使いいただけます!

詳しい機能の内容や制約についてはマニュアルをご参照ください。

さて、作成したAIモデルはどのように活用されていますか?
精度の高いAIモデルを作ることがAI活用のゴールではありません。ビジネス課題にAIモデルを適用するには、新たなデータを投入し、将来を予測することが必要になります(数値予測モデルの場合)。

これまでのNode-AIでは、そのために予測カードからCSVファイルをアップロードして予測値を得ることや、AIモデルを専用のソフトウェア(Node-AI Berry)で動作させて予測値を得るといった手順が必要でした。

予測カードの活用方法については以下の記事もご参照ください。

しかし、作成したAIモデルをもっと手軽に、システム連携も視野に入れて利用したい、といった声を多数いただいていました。

予測カードのデメリットとして、推論実行に人手の操作が必要なのでシステム連携が困難という課題があります。
またNode-AI Berryのデメリットとして、Dockerを使用するので専門知識が必要となり導入の障壁が高いものとなっています。

そこで今回追加したのが、「公開型推論API機能」となります。
公開型推論API機能は作成したAIモデルの「学習カード」を「評価カード」に接続し、実行することで利用可能となります。

以下が評価カード実行後に表示される画面となります。推論APIは画面右側の赤枠部分で設定することができます!

推論API機能

「推論APIを利用開始」ボタンをクリックすると、そのAIモデル専用のIDが払い出されます。このIDを利用することで、Node-AIの外部から推論の実行が可能となります!

ここでは、curlコマンドで推論する例を紹介します!
Windows10以降のユーザの方はcurlをcurl.exeに置き換えて実行してください。

curl -H "model-token: 払い出されたID" -F "file=@推論に使うcsvファイルのパス" -X POST https://api.inference.nodeai.io/v1/inference

成功すれば以下のような文字列が出力されます。

index,Predicted
2011-01-15 06:00:00,97.5111312866211

このように、既存のシステムやプログラムから推論APIにリクエストすることで、AIモデルを簡単に自社に導入することができます!
※ただしネットワーク遅延や制約事項もあるのでご注意ください。

AIモデルの活用に困っていた方は、ぜひお試しください!


この記事が気に入ったらサポートをしてみませんか?