無料利用枠
1 か月あたり 100,000 のメトリクスレコードを取り込み、(API を介して) 1 か月あたり 100 万のメトリクスレコードを取得し、1 か月あたり 100,000 のメトリクスレコードを保存します。無料利用枠は最初の 6 か月間利用できます。
ML トレーニングのイテレーションを分析および比較して、最適なパフォーマンスを発揮するモデルを選択します
SageMaker Experiments は、ML 実験を大規模に追跡および分析するためのマネージドサービスです。
仕組み
拡大イメージを見る任意の IDE で実行された実験をログに記録する
ML 実験は、ローカルのノートブックや IDE、クラウドで実行されるトレーニングコード、またはクラウドのマネージド IDE (例: SageMaker Studio) などのさまざまな環境で実行されます。SageMaker Experiments では、データサイエンティストにとって使いやすい数行の Python コードを使用するだけで、任意の環境または IDE から一元的に実験の追跡を開始できます。
ML 実験のメタデータを一元的に管理する
ML モデルの開発プロセスには、モデルのパフォーマンスに対する増分的な変更の影響を評価しながら、データ、アルゴリズム、パラメータのさまざまな組み合わせを実験することが含まれます。Sagemaker Experiments では、ML のイテレーションを追跡し、メトリクス、パラメータ、アーティファクトなどのすべての関連メタデータを一元的な場所に自動的に保存できます。
実験を評価する
複数のイテレーションから最適なモデルを見つけるには、モデルのパフォーマンスを分析および比較する必要があります。SageMaker Experiments は、散布図、棒グラフ、ヒストグラムなどのビジュアライゼーションを提供します。さらに、Sagemaker Experiments SDK を使用すると、ログ記録されたデータをノートブックにロードして、オフラインで分析できます。
共同でモデルを構築する
データサイエンスのプロジェクトを成功させるには、組織内でのチームを中心としたコラボレーションが鍵となります。 SageMaker Experiments は SageMaker Studio と統合します。これにより、チームメンバーは同じ情報にアクセスして実験結果の一貫性を確認できるため、コラボレーションが容易になります。SageMaker Studio の検索機能を利用すると、過去の関連する実験を迅速に見つけることができます。
ML 実験を再現および監査する
モデルのパフォーマンスに変化があった場合、その変化の根本原因を理解する必要があります。また、モデルの開発プロセスを文書化して、再現して簡単にテストできるようにしたい場合もあります。Sagemaker Experiments を利用すると、追跡した実験から ML ワークフローにアクセスして再現できます。