EC2 Capacity Blocks for ML を利用すべき理由
Amazon Elastic Compute Cloud (Amazon EC2) Capacity Blocks for ML を使用すると、将来の開始日に備えて、アクセラレーテッドコンピューティングインスタンスを簡単に予約できます。Capacity Blocks は、最新の NVIDIA H200 Tensor Core GPU、NVIDIA H100 Tensor Core GPU、NVIDIA A100 Tensor Core GPU をそれぞれ搭載した Amazon EC2 P5en、P5e、P5、および P4d インスタンスと、AWS Trainium を搭載した Trn1 インスタンスをサポートします。EC2 Capacity Blocks は、高性能機械学習 (ML) ワークロード向けに設計された Amazon EC2 UltraClusters に共同配置されています。高速コンピューティングインスタンスは最大 6 か月間に対して 1~64 インスタンス (512 個の GPU または 1024 個の Trainium チップ) のクラスターサイズで予約できるため、さまざまな ML ワークロードを柔軟に実行できます。EC2 Capacity Blocks は 8 週間前から予約可能です。
利点
ユースケース
-
NVIDIA
-
Arcee
-
Amplify Partners
-
Canva
-
Dashtoon
-
Leonardo.Ai
-
OctoAI
-
Snorkel