投稿日: Dec 13, 2023

  • AWS Graviton4:幅広いクラウドワークロードに対応する、これまでで最も強力でエネルギー効率に優れた AWS プロセッサ
  • AWS Trainium2:AWS 上で最高の計算性能を提供し、エネルギー消費量を抑えながら基盤モデルをより安価に、すばやくトレーニングするのを支援
  • Anthropic、Databricks、Datadog、Epic、Honeycomb、SAP など多くのお客様が、AWS 自社設計のチップ最新版を活用

※本プレスリリースは、現地時間 2023 年 11 月 28 日に米国で発表されたプレスリリースの抄訳版です。

(ラスベガス — 2023 年 11 月 29 日)Amazon.com, Inc.(NASDAQ: AMZN)の関連会社である Amazon Web Services, Inc.(AWS)は、同社の年次イベント AWS re:Invent において、自社設計による 2 種類のチップファミリーの次世代版である AWS Graviton4 プロセッサと AWS Trainium2 アクセラレーターを発表しました。新発表のチップは、機械学習におけるトレーニングや生成系 AI アプリケーションなど、お客様の幅広いワークロードにおいて、価格性能とエネルギー効率を向上します。Graviton4 と Trainium2 は、チップ設計における AWS の最新のイノベーションを体現したものです。AWS のチップは世代が進むごとに、価格性能とエネルギー効率が向上しており、AMD、Intel、NVIDIA などのパートナーが提供する最新チップを用いたチップ / インスタンスの組み合わせに加えて、Amazon Elastic Compute Cloud(Amazon EC2)上で、ほぼあらゆるアプリケーションやワークロードを実行するためのさらなる選択肢をお客様に提供します。

AWS Graviton4 とAWS Trainium2 (プロトタイプ)

  • Graviton4 は現行世代の Graviton3 プロセッサに比べて、最大で 30%高い計算能力、50%多いコア数、75%高速なメモリ帯域を備え、お客様が Amazon EC2 上で実行する幅広いワークロードに最も優れた価格性能とエネルギー効率を提供します。
  • Trainium2 は第 1 世代の Trainium アクセラレーターと比較して、トレーニング処理が最大で 4 倍高速になるよう設計されています。最大 10 万個まで EC2 UltraCluster にデプロイすることができ、エネルギー効率を最大で 2 倍に高めると同時に、基盤モデルと大規模言語モデルのトレーニングをわずかな時間で実行することが可能です。

AWS コンピュート・ネットワーキング担当バイスプレジデント デビッド・ブラウン(David Brown)は、次のように述べています。「半導体はお客様のすべてのワークロードの基盤であり、AWS のイノベーションで重要な分野となっています。お客様にとって重要な、実際のワークロードにフォーカスしてチップ設計を行なうことで、最先端のクラウドインフラストラクチャを提供することが可能になります。Graviton4 は、(※訳注:第一世代をリリースした2018年から) わずか 5 年で提供する Graviton の第 4 世代であり、幅広いワークロードに対応する、これまでで最もパワフルでエネルギー効率に優れたチップです。また、生成系 AI への関心が急速に高まるなか、Tranium2 でお客様が機械学習モデルのトレーニングをより安価なコストと高いエネルギー効率で、迅速に実行できるよう支援します」

Graviton4:幅広いワークロードにおける価格性能とエネルギー効率の水準を引き上げるプロセッサ
AWS は現在、全世界で Graviton を搭載した 150 種類以上の Amazon EC2 インスタンスを大規模に提供しています。これまでに生産した Graviton プロセッサは 200 万個を超え、EC2 をご利用の トップ 100 社・団体のお客様を含む、 5 万以上のお客様が Graviton ベースのインスタンスを利用することで、お客様のアプリケーションにおける最も優れた価格性能を達成しています。Datadog、DirecTV、Discovery、Formula 1(F1)、NextRoll、Nielsen、Pinterest、SAP、Snowflake、Sprinklr、Stripe、Zendesk を含む多くのお客様が、データベース、アナリティクス、ウェブサーバー、バッチ処理、広告配信、アプリケーションサーバー、マイクロサービスといった幅広いワークロードの実行に Graviton ベースのインスタンスを使用しています。しかし、より大規模なインメモリデータベースやアナリティクスに関するワークロードをクラウドに移行する場合、計算、メモリ、ストレージ、ネットワークに関するお客様の要件はさらに高まります。その結果、このような厳しい要件のワークロードを実行するためには、さらなる性能向上とインスタンスサイズの拡大と同時に、コスト管理も求められます。加えてお客様は、環境への影響を軽減するため、よりエネルギー効率の高いコンピューティングの選択肢を求めています。Graviton は、Amazon Aurora、Amazon ElastiCache、Amazon EMR、Amazon MemoryDB、Amazon OpenSearch、Amazon Relational Database Service(Amazon RDS)、AWS Fargate、AWS Lambda など多くの AWS マネージドサービスでサポートされており、これらのサービスのユーザーに Graviton による価格性能向上のメリットを提供します。

Graviton4 プロセッサは、Graviton3 に比べて最大で 30%高い計算能力、50%多いコア数、75%高速なメモリ帯域を備えています。さらに、あらゆる物理的な高速ハードウェアインターフェースを完全に暗号化することで、セキュリティの水準を高めています。Graviton4 はメモリ最適化された Amazon EC2 R8g インスタンスでの利用が可能であり、お客様の高性能なデータベースやインメモリキャッシュ、ビッグデータ分析のワークロードの実行を改善します。R8g インスタンスは、現行世代の R7g インスタンスに比べて、最大で 3 倍の vCPU と 3 倍のメモリの搭載が可能であり、より大きなインスタンスサイズを提供します。これにより、お客様は大量のデータを処理し、ワークロードを拡張できるほか、処理時間を短縮し、総所有コストを低減することが可能です。Graviton4 を搭載した R8g インスタンスは、本日よりプレビュー版が公開され、数か月内に一般提供を開始する予定です。Graviton4 ベースの R8g インスタンスの詳細については、aws.amazon.com/ec2/instance-types/r8g をご確認ください。

Trainum2 搭載の EC2 UltraCluster:クラウド上で最も高性能でエネルギー効率に優れた AI モデルトレーニングインフラストラクチャを提供
今日の生成系 AI アプリケーションを支える基盤モデルや大規模言語モデルは、膨大なデータセットでトレーニングされています。これらのモデルは、テキスト、オーディオ、画像、ビデオ、さらにはソフトウェアコードに至るまで、さまざまな新しいコンテンツの生成を通じて、ユーザー体験の概念を根底から変えることを可能にしています。最先端の基盤モデルや大規模言語モデルは数千億から数兆のパラメータを持ち、機械学習に最適化されたチップ数万個にまで拡張可能な、信頼性に優れた高性能な計算能力が求められます。AWS はすでに、最新の NVIDIA GPU や Trainium、Inferentia2 などの機械学習アクセラレーターを搭載した、幅広く奥深い Amazon EC2 インスタンスの選択肢を提供しています。現在、Databricks、Helixon、マネーフォワード、Amazon Search チームなど多くのお客様が、大規模なディープラーニングモデルのトレーニングに Trainium を使用しており、Trainium が提供する優れた性能と拡張性、信頼性、低コストというメリットを活かしています。しかし、たとえ現在提供されているなかで最速のインスタンスであっても、お客様はますます高度化するモデルを、より安価なコストで高速にトレーニングし、同時にエネルギー消費量を削減するため、性能と拡張性のさらなる向上を求めています。

Trainium2 は、最大数兆のパラメータを持つ基盤モデルと大規模言語モデルの高度なトレーニングのために開発されたアクセラレーターです。第 1 世代の Trainium アクセラレーターと比べて、最大で 4 倍高速なトレーニング性能と、3 倍のメモリ容量を提供し、エネルギー効率(1 ワットあたりの性能)を最大で 2 倍向上する設計となっています。Trainium2 は Amazon EC2 Trn2 インスタンスでの利用が可能であり、1 つのインスタンスには 16 個の Trainium2 アクセラレーターが搭載されます。Trn2 インスタンスは、AWS Elastic Fabric Adapter(EFA)のペタビット規模のネットワークと相互接続された次世代の EC2 UltraCluster において、Trainium2 アクセラレーターを最大 10 万個まで拡張できる予定であり、最大 65 エクサフロップスの計算性能と、スーパーコンピュータ級の性能をオンデマンドで提供します。お客様は、このレベルの規模を活用すれば、数か月かかっていた 3,000 億パラメータの大規模言語モデルのトレーニングを数週間で完了できる見込みです。機械学習におけるトレーニング性能の大規模なスケールアウトをはるかに安価に提供することで、Trn2 インスタンスは、生成系 AI の次なる進化の波を生み出し、加速させるお客様の取組を支援します。Trainum2 の詳細については、aws.amazon.com/machine-learning/trainium/ をご確認ください。

※抄訳版注釈
Anthropic、Databricks、Datadog、Honeycomb および SAP のコメントに関しては、本社発表プレスリリースをご参照ください