Pourquoi choisir les instances Amazon EC2 P5 ?
Les instances Amazon Elastic Compute Cloud (Amazon EC2) P5 optimisées par les GPU NVIDIA H100 Tensor Core et les instances P5e et P5en optimisées par les GPU NVIDIA H200 Tensor Core offrent les meilleures performances dans Amazon EC2 pour les applications de deep learning (DL) et de calcul haute performance (HPC). Elles vous permettent d’accélérer votre temps de solution jusqu’à 4 fois par rapport aux instances EC2 basées sur le GPU de la génération précédente, et de réduire le coût d’entraînement des modèles ML jusqu’à 40 %. Ces instances vous permettent d’itérer vos solutions plus rapidement et de les commercialiser plus rapidement. Vous pouvez utiliser les instances P5, P5e et P5en pour l’entraînement et le déploiement de grands modèles de langage (LLM) et de modèles de diffusion à complexité croissante indispensables aux applications d’intelligence artificielle (IA) générative les plus exigeantes. Ces applications incluent la réponse aux questions, la génération de code, la génération de vidéos et d’images et la reconnaissance vocale. Ces instances vous permettent également de déployer à grande échelle des applications HPC complexes dans les domaines de la découverte pharmaceutique, de l’analyse sismique, des prévisions météorologiques et de la modélisation financière.
Pour améliorer les performances et réduire les coûts, les instances P5 et P5e complètent des GPU NVIDIA H100 et H200 Tensor Core avec des performances de processeur deux fois supérieures, une mémoire système deux fois plus élevée et un stockage local quatre fois plus élevé que les instances basées sur des GPU de génération précédente. Les instances P5en associent les GPU NVIDIA H200 Tensor Core à un CPU Intel Sapphire Rapids haute performance, permettant ainsi un PCIe Gen5 entre le CPU et le GPU. En comparaison avec les instances P5e et P5, les instances P5en fournissent jusqu’à deux fois plus de bande passante entre le CPU et le GPU et une latence réseau inférieure, ce qui améliore les performances d’entraînement distribué. La prise en charge des instances P5 et P5e fournit jusqu’à 3 200 Gbit/s de réseau à l’aide d’Elastic Fabric Adapter (EFA) de deuxième génération. Les instances P5en avec la troisième génération d’EFA et Nitro v5 permettent de réduire jusqu’à 35 % la latence par rapport aux instances P5 qui utilisent la génération précédente d’EFA et de Nitro. Ainsi, les performances de communication collective sont améliorées pour les charges de travail d’entraînement distribué telles que le deep learning, l’IA générative, le traitement des données en temps réel et les applications de calcul haute performance (HPC). Afin de fournir des capacités de calcul à grande échelle avec une faible latence, ces instances sont déployées dans les Amazon EC2 UltraClusters qui permettent d’accéder à jusqu’à 20 000 GPU H100 ou H200 interconnectés avec un réseau non bloquant à l’échelle du pétabit. Les instances P5 et P5e et P5en dans les EC2 UltraClusters peuvent fournir jusqu’à 20 exaflops de capacité de calcul agrégée, soit des performances équivalentes à celles d’un superordinateur.
Instances Amazon EC2 P5
Avantages
Caractéristiques
Témoignages de clients
Voici quelques exemples de la manière dont les clients et partenaires ont atteint leurs objectifs commerciaux grâce aux instances Amazon EC2 P4.
-
Anthropic
Anthropic construit des systèmes d'IA fiables, interprétables et orientables qui offriront de nombreuses opportunités de créer de la valeur commerciale et dans l'intérêt public.
-
Cohere
Cohere, l'un des principaux pionniers de l'IA linguistique, permet à chaque développeur et à chaque entreprise de créer des produits incroyables grâce à une technologie de traitement du langage naturel (NLP) de pointe tout en préservant la confidentialité et la sécurité de leurs données.
-
Hugging Face
Hugging Face a pour mission de démocratiser le bon ML.
Informations sur le produit
Taille de l'instance | Processeurs virtuels | Mémoire d’instance (Tio) | GPU | Mémoire de GPU | Bande passante du réseau (Gbit/s) | GPUDirect RDMA | Pair à pair GPU | Storage d'instance (To) | Bande passante EBS (Gbit/s) |
---|---|---|---|---|---|---|---|---|---|
p5.48xlarge | 192 | 2 | 8 H100 | 640 Go HBM3 |
EFA à 3200 Gbit/s | Oui | NVSwitch 900 Go/s | 8 x 3.84 (SSD NVMe) | 80 |
p5e.48xlarge | 192 | 2 | 8 H200 | 1128 Go HBM3e |
EFA à 3200 Gbit/s | Oui | NVSwitch 900 Go/s | 8 x 3.84 (SSD NVMe) | 80 |
p5en.48xlarge | 192 | 2 | 8 H200 | HBM3e 1 128 Go | EFA 3 200 Gbit/s | Oui | NVSwitch 900 Go/s | 8 x SSD NVMe 3,84 | 100 |
Premiers pas avec les cas d’utilisation du ML
Premiers pas avec les cas d’utilisation du HPC
Les instances P5, P5e et P5en sont une plateforme idéale pour exécuter des simulations d’ingénierie, des calculs financiers, des analyses sismiques, des modélisations moléculaires, de la génomique, du rendu et d’autres charges de travail HPC basées sur des GPU. Les applications HPC exigent souvent des performances réseau élevées, un stockage rapide, d'importantes capacités de mémoire, des capacités de calcul élevées ou tous ces éléments. Les trois types d’instances prennent en charge EFA qui permet aux applications HPC utilisant le MPI (Message Passing Interface) mettre à l’échelle leur nombre de GPU jusqu’à plusieurs milliers. AWS Batch et AWS ParallelCluster aident les développeurs HPC à créer et mettre à l'échelle rapidement des applications HPC distribuées.
En savoir plus