投稿日: Dec 1, 2021
Amazon SageMaker Inference Recommender は、機械学習モデルをデプロイして最適な推論パフォーマンスとコストを実現するために、利用可能な最良のコンピューティングインスタンスと設定を選択するのに役立ちます。
機械学習モデルをデプロイするために最高の料金パフォーマンスを提供するコンピューティングインスタンスを選択することは、複雑で反復的なプロセスであり、数週間の実験が必要になる場合があります。最初に、モデルのリソース要件と入力データのサイズに基づいて、70 を超えるオプションから適切な機械学習インスタンスタイプを選択する必要があります。次に、選択したインスタンスタイプ向けにモデルを最適化する必要があります。最後に、ロードテストを実行し、クラウド設定を調整して最適なパフォーマンスとコストを実現するために、インフラストラクチャをプロビジョンおよび管理する必要があります。これらすべてが、モデルのデプロイを遅らせ、市場投入までの時間を長期化させる可能性があります。
Amazon SageMaker Inference Recommender は、パフォーマンスを最大化し、コストを最小化するために、適切なコンピューティングインスタンスタイプ、インスタンス数、コンテナパラメータ、および推論用のモデル最適化を自動的に選択します。SageMaker Studio、AWS Command Line Interface (CLI)、または AWS SDK から SageMaker Inference Recommender を操作して、数分以内に機械学習モデルをデプロイするためのレコメンデーションを取得できます。その後、推奨されるいずれかのインスタンスにモデルをデプロイするか、選択した一連のインスタンスタイプでフルマネージドのロードテストを実行できます。インフラストラクチャのテストを心配する必要はありません。SageMaker Studio でロードテストの結果を確認し、レイテンシー、スループット、およびコストの間のトレードオフを評価して、最適なデプロイ設定を選択できます。
Amazon SageMaker Inference Recommender は、AWS 中国リージョンを除く、SageMaker が利用可能なすべてのリージョンで一般的にご利用いただけます。詳細については、SageMaker モデルのデプロイのウェブページおよび SageMaker Inference Recommender のドキュメントを参照してください。