Généralités

Présentation

Q : Qu'est-ce qu'Amazon Elastic Compute Cloud (Amazon EC2) ?

Amazon EC2 est un service web qui fournit une capacité de calcul sécurisée et redimensionnable dans le cloud. Destiné aux développeurs, il est conçu pour faciliter l'accès aux ressources informatiques à l'échelle du Web.

Q : Que puis-je faire avec Amazon EC2 ?

Tout comme Amazon Simple Storage Service (Amazon S3) permet le stockage dans le cloud, Amazon EC2 permet le « calcul » dans le cloud.  L'interface simple du service Web Amazon EC2 vous permet d'obtenir et de configurer des capacités avec un minimum d'efforts. Elle vous confère le contrôle total de vos ressources informatiques et permet d'exécuter des applications dans l'environnement informatique éprouvé d'Amazon. Amazon EC2 permet d'obtenir et de démarrer des instances de serveurs en quelques minutes, puis d'augmenter ou de diminuer rapidement leurs capacités en fonction des l'évolution de vos besoins de calcul. Amazon EC2 modifie l'aspect financier de l'informatique, en vous permettant de ne payer que les capacités que vous utilisez effectivement.

Q : Comment puis-je commencer à utiliser Amazon EC2 ?

Pour vous inscrire à Amazon EC2, cliquez sur le bouton « Inscrivez-vous pour ce service Web » sur la page de détails d'Amazon EC2. Vous devez avoir un compte AWS pour pouvoir accéder à ce service, si vous n'en avez pas encore, vous serez invité à en créer un lorsque vous commencerez le processus d'inscription à Amazon EC2. Après votre inscription, veuillez consulter la documentation d'Amazon EC2 qui comprend notamment notre Guide de démarrage.

Q : Pourquoi me demande-t-on de confirmer mon numéro de téléphone lorsque je m'inscris à Amazon EC2 ?

L'inscription à Amazon EC2 nécessite que vous ayez un numéro de téléphone valide, ainsi qu'une adresse électronique sur nos fichiers AWS au cas où nous devions vous contacter. La vérification de votre numéro de téléphone ne prend que quelques minutes. Vous recevrez un appel pendant le processus d'inscription et vous devrez saisir un code d'identification PIN à l'aide des touches du téléphone.

Q : Quelles sont les nouvelles fonctionnalités offertes aux développeurs ?

Jusqu'à maintenant, les petits développeurs ne disposaient pas des fonds nécessaires à l'obtention de ressources importantes de calcul, et qui leur garantirait de disposer de la capacité nécessaire pour traiter les pics de charge inattendus. Amazon EC2 aide les développeurs à tirer parti des avantages d'Amazon à grande échelle, sans investissement initial ni compromis sur les performances. Les développeurs sont désormais libres d'innover tout en sachant qu'indépendamment du succès de leur affaire ils pourront être sûrs de disposer de la capacité de calcul adéquate pour répondre à leurs besoins à bon marché et simplement.

La nature "Elastique" du service permet aux développeurs de dimensionner instantanément pour répondre aux pics de trafic ou de demandes. Lorsque les demandes de calcul changent de manière inattendue, (augmentent ou diminuent) Amazon EC2 peut y répondre de manière instantanée, ce qui signifie que les développeurs ont la possibilité de contrôler le nombre de ressources utilisées à tout moment. En revanche, les services d'hébergement traditionnels fournissent habituellement une quantité fixe de ressources pour une période de temps définie, ce qui signifie que la capacité des utilisateurs est limitée pour répondre lorsque leur utilisation change rapidement, de manière imprévue, ou passe par des pics importants à divers intervalles.

Q : Comment puis-je faire fonctionner des systèmes dans l'environnement Amazon EC2 ?

Une fois que votre compte est mis en place et que vous avec sélectionné vos AMI, vous pouvez démarrer votre instance. Vous pouvez démarrer votre AMI sur n'importe quel nombre d'instances à la demande à l'aide de l'API RunInstances. Il suffit d'indiquer le nombre d'instances à lancer. Si vous souhaitez dépasser votre quota à la demande, remplissez le formulaire de demande d'instance Amazon EC2.

Si Amazon EC2 est en mesure d'accéder à votre demande, RunInstances aboutira et nous commencerons à lancer vos instances. Vous pouvez vérifier l'état de votre instance en utilisant l'appel API DescribeInstances. Vous pouvez terminer par programmation n'importe quelle quantité de vos instances en utilisant l'appel API TerminateInstances.

Si l'une de vos instances en cours d'exécution utilise un partition de démarrage Amazon EBS, vous pouvez également appeler l'API StopInstances pour dégager les ressources de calcul tout en préservant les données de la partition de démarrage. Vous pouvez appeler l'API StartInstances lorsque vous êtes prêt à redémarrer l'instance associée avec la partition de démarrage Amazon EBS.

De plus, vous avec l'option de pouvoir utiliser les instances Spot pour réduire vos coûts de calcul lorsque vous pouvez choisir quand vos applications fonctionnent. Apprenez-en davantage sur les instances Spot, et obtenez des explications plus détaillées sur le fonctionnement des instances Spot.

Si vous préférez, vous pouvez effectuer toutes ces actions sur AWS Management Console ou grâce à la ligne de commande en utilisant les outils de ligne de commande mis en service avec cette API de service Web.

Q : Quelle est la différence entre l'utilisation du stockage d'instance local et Amazon Elastic Block Store (Amazon EBS) pour le périphérique racine ?

Lorsque vous démarrez vos instances Amazon EC2, vous avez la possibilité de stocker les données de votre périphérique racine dans Amazon EBS ou dans un stockage d'instance local. En utilisant Amazon EBS, les données sur le périphérique racine persisteront indépendamment de la durée de vie de l'instance. Vous pouvez ainsi arrêter et redémarrer l'instance à un moment ultérieur, ce qui est comparable à éteindre votre ordinateur portable et le redémarrer lorsque vous en avez à nouveau besoin.

Alternativement, l'instance locale ne persiste que pour la durée de vie de l'instance. C'est une manière économique de lancer des instances lorsque les données ne sont pas stockées dans le périphérique racine. Par exemple, certains clients utilisent cette option pour faire fonctionner de grands sites web lorsque chaque instance est un clone pour traiter le trafic web.

Q : Combien de temps faut-il pour que les systèmes fonctionnent ?

Généralement, il s'écoule moins de 10 minutes entre l'appel RunInstances et le moment où toutes les instances requises entament leur séquence d'amorçage. Ce délai dépend d'un certain nombre de facteurs, dont la taille de votre AMI, le nombre d'instances que vous lancez et le temps écoulé depuis le dernier lancement de cette AMI. Les images lancées pour la première fois peuvent prendre légèrement plus de temps pour démarrer.  

Q : Comment puis-je charger et stocker mes systèmes avec Amazon EC2 ?

Amazon EC2 vous permet d'installer et de configurer tout ce qui est lié à vos instances, de votre système d'exploitation à vos applications. Une image AMI (Amazon Machine Image) est simplement un environnement prêt à être utilisé qui inclut tout ce qui est nécessaire pour installer et démarrer votre instance. Vos AMI sont votre unité de déploiement. Vous avez peut-être juste une AMI ou vous pouvez composer votre système à partir de plusieurs AMI de bloc de construction (par exemple, serveurs Web, appservers, et bases de données). Amazon EC2 fournit une grande quantité d'outils pour faciliter la création des AMI. Une fois que vous avez créé une AMI personnalisée, vous devez la grouper. Si vous groupez une image avec un appareil racine pris en charge par Amazon EBS, vous pouvez simplement utiliser la commande de groupement dans la AWS Management Console. Si vous créez un bundle avec une image et une partition d'amorçage pour le stockage d'instance, vous devrez utiliser les outils d'AMI pour l'envoyer à Amazon S3. Amazon EC2 utilise Amazon EBS ainsi que Amazon S3 pour fournir un stockage fiable et évolutif de vos AMI pour que nous puissions démarrer celles-ci lorsque vous nous le demandez.

Ou, si vous le désirez, vous n'avez pas besoin d'installer votre propre AMI à partir de rien. Vous pouvez choisir entre un grand nombre d'AMI disponibles globalement pouvant fournir des instances utiles. Par exemple, si vous voulez un simple serveur Linux, vous pouvez opter pour une des AMI standard de distribution Linux.

Q : Comment puis-je accéder à mes systèmes ?

L'appel RunInstances qui démarre l'exécution de votre pile d'applications renvoie un ensemble de noms DNS, un pour chaque système démarré. Ce nom peut être utilisé pour accéder au système exactement comme vous le feriez vous-même si vous étiez dans votre propre centre de données. Vous êtes propriétaire de cette machine lorsque votre pile de systèmes d'exploitation s'exécute dessus.

Q : Est-il possible d'utiliser Amazon EC2 avec Amazon S3 ?

Oui, Amazon EC2 est utilisé conjointement avec Amazon S3 pour les instances dont les périphériques racine sont pris en charge par un stockage d'instance local. En utilisant Amazon S3, les développeurs ont accès au même stockage de données hautement évolutif, fiable, rapide et économique qu'Amazon utilise pour faire fonctionner son propre réseau global de sites. Pour exécuter les systèmes dans l'environnement Amazon EC2, les développeurs utilisent les outils fournis pour charger leurs (AMI) dans Amazon S3 et les déplacer entre Amazon S3 et Amazon EC2. Consultez la section Comment puis-je charger et stocker mes systèmes avec Amazon EC2 ? pour plus d'informations sur les AMI.

Selon nous, les développeurs devraient trouver la combinaison Amazon EC2/Amazon S3 très utile. Amazon EC2 offre des calculs économiques et scalables dans le cloud, tandis qu'Amazon S3 permet aux utilisateurs de stocker leurs données de manière fiable.

Q : Combien d'instances est-il possible d'exécuter dans Amazon EC2 ?

Vous ne pouvez utiliser des instances à la demande qu'en fonction de votre limite d'instances à la demande basée sur l'unité centrale virtuelle (vCPU), acheter 20 instances réservées et demander des instances Spot en fonction de votre limite Spot dynamique par région. Les nouveaux comptes AWS peuvent commencer avec des limites inférieures à celles décrites ici.

Si vous avez besoin de davantage d'instances, remplissez le formulaire de demande d'augmentation de la limite Amazon EC2 en exposant votre cas d'utilisation, et votre demande d'augmentation de la limite sera étudiée. Les augmentations de limite sont liées à la région concernée.

Q : Existe-t-il des limites à l'envoi d'e-mails depuis les instances Amazon EC2 ?

Oui. Afin de maintenir la qualité des adresses Amazon EC2 pour l'envoi d'emails, nous avons mis en place des limites par défaut sur la quantité d'emails pouvant être envoyés. Si vous souhaitez envoyer un nombre d'e-mails plus important à partir de EC2, vous pouvez demander que ces limites soient supprimées de votre compte en remplissant ce formulaire.

Q : À quelle vitesse puis-je augmenter et réduire mes capacités ?

Amazon EC2 offre un environnement de calcul vraiment évolutif. Amazon EC2 vous permet d'augmenter ou de diminuer la capacité en quelques minutes, pas quelques heures ou quelques jours. Vous pouvez mettre en service une, des centaines ou même des milliers d'instances de serveur simultanément. Lorsque vous avez besoin de plus d'instances, appelez simplement RunInstances et Amazon EC2 installera habituellement votre nouvelle instance en quelques minutes. Bien entendu, dans la mesure où tout ceci est contrôlé grâce aux API de service web, les capacités de votre application peuvent être automatiquement augmentées ou diminuées, selon ses besoins.

Q : Quels sont les environnements de système d'exploitation pris en charge ?

Amazon EC2 prend actuellement en charge différents systèmes d'exploitation, notamment Amazon Linux, Ubuntu, Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, openSUSE Leap, Fedora, Fedora CoreOS, Debian, CentOS, Gentoo Linux, Oracle Linux et FreeBSD. Nous cherchons un moyen d'étendre le service à d'autres plateformes.

Q : Le service Amazon EC2 utilise-t-il de la mémoire ECC ?

L'expérience nous a démontré que la mémoire ECC était nécessaire à l'infrastructure serveur. Tout le matériel sous-jacent du service Amazon EC2 utilise ce type de mémoire.

Q : En quoi ce service est-il différent des services d'hébergement traditionnels ?

Les services d'hébergement traditionnels offrent une ressource préconfigurée pour une durée fixe, à un coût prédéterminé. Amazon EC2 diffère par sa flexibilité, son contrôle et les économies de coût qu'il offre aux développeurs, ce qui leur permet de considérer Amazon EC2 comme leur propre centre de données personnelles, tout en bénéficiant de la solide infrastructure de Amazon.com.

Lorsque les demandes de calcul changent de manière inattendue, (augmentent ou diminuent) Amazon EC2 peut y répondre de manière instantanée, ce qui signifie que les développeurs ont la possibilité de contrôler le nombre de ressources utilisées à tout moment. En revanche, les services d'hébergement traditionnels fournissent habituellement une quantité fixe de ressources pour une période de temps définie, ce qui signifie que la capacité des utilisateurs est limitée pour répondre lorsque leur utilisation change rapidement, de manière imprévue, ou passe par des pics importants à divers intervalles.

Deuxièmement, de nombreux services hôte n'offrent pas un contrôle total des ressources de calcul fournies. En utilisant Amazon EC2, les développeurs peuvent choisir non seulement de démarrer ou d'arrêter des instances à n'importe quel moment, mais ils peuvent aussi personnaliser entièrement la configuration de leurs instances pour répondre leurs besoins – et changer celle-ci n'importe à quel moment. La plupart des services d'hébergement s'occupent plutôt de groupes d'utilisateurs ayant des exigences de système similaires, ils offrent donc une capacité limitée de changer celles-ci.

Enfin, avec Amazon EC2, les développeurs ont l'avantage de ne payer que pour leur consommation de ressources effective, et ce, à un taux extrêmement bas. La plupart des services d'hébergement demandent aux utilisateurs de payer des frais fixes à l'avance, sans prendre en compte la puissance de calcul utilisée. Par conséquent, les utilisateurs risquent d'acheter plus de ressource que nécessaire pour compenser l'impossibilité d'augmenter rapidement les ressources sur une courte période de temps. 

Limites d'instances à la demande EC2

Q : Qu'est-ce qui change ?

Amazon EC2 fait passer les limites d'instances à la demande des limites actuelles basées sur le nombre d'instances aux nouvelles limites basées sur vCPU afin de simplifier l'expérience de gestion des limites pour les clients AWS. L'utilisation par rapport à la limite basée sur vCPU est mesurée en nombre de vCPU (unités centrales virtuelles) pour que les types d'instances Amazon EC2 lancent toutes les combinaisons de types d'instances répondant aux besoins de votre application.

Q : À quoi renvoient les limites basées sur vCPU ?

Vous êtes limité à l'exécution d'une ou de plusieurs instances à la demande dans un compte AWS, et Amazon EC2 mesure l'utilisation de chaque limite en fonction du nombre total de vCPU (unités centrales virtuelles) attribuées aux instances à la demande en cours d'exécution dans votre compte AWS. Le tableau suivant indique le nombre de vCPU pour chaque taille d'instance. Le mappage de vCPU pour certains types d'instances peut différer. Consultez la section Types d'instances Amazon EC2 pour plus de détails.

Taille d'instance vCPU
nano 1
micro 1
small 1
medium 1
large 2
xlarge 4
2xlarge 8
3xlarge 12
4xlarge 16
8xlarge 32
9xlarge 36
10xlarge 40
12xlarge 48
16xlarge 64
18xlarge 72
24xlarge 96
32xlarge 128

Q : Combien d'instances à la demande puis-je exécuter dans Amazon EC2 ?

Il existe cinq limites d'instances basées sur vCPU ; chacune définissant la capacité de la famille d'instances donnée que vous pouvez utiliser. Toute utilisation d'instances dans une famille donnée, quelle que soit leur génération, leur taille ou leur variante de configuration (par ex., disque, type de processeur), correspondra à la limite de vCPU totale de la famille, répertoriée dans le tableau ci-dessous. Les nouveaux comptes AWS peuvent commencer avec des limites inférieures à celles décrites ici.

Nom de la limite d'instances à la demande Limite de vCPU par défaut
Instances standard à la demande (A, C, D, H, I, M, R, T, Z) en cours d'exécution 1152 vCPU
Instances F à la demande en cours d'exécution 128 vCPU
Instances G à la demande en cours d'exécution 128 vCPU
Instances Inf à la demande en cours d'exécution 128 vCPU
Instances P à la demande en cours d'exécution 128 vCPU
Instances X à la demande en cours d'exécution 128 vCPU

Q : Ces limites basées sur vCPU des instances à la demande sont-elles régionales ?

Oui, les limites d'instance à la demande d'un compte AWS sont définies par région.

Q : Ces limites changeront-elles au fil du temps ?

Oui, les limites peuvent changer au fil du temps. Amazon EC2 surveille en permanence votre utilisation dans chaque région et vos limites sont automatiquement augmentées en fonction de votre utilisation d'EC2.

Q : Comment puis-je demander l'augmentation d'une limite ?

Même si EC2 augmente automatiquement les limites d'instances à la demande en fonction de votre utilisation, vous pouvez, si besoin, demander à augmenter la limite depuis la page Limites sur la console Amazon EC2, depuis la page du service Amazon EC2 sur la console Service Quotas ou via l'API/CLI Service Quotas.

Q : Comment puis-je calculer ma nouvelle limite de vCPU ?

Vous pouvez trouver le mappage des vCPU pour chaque type d'instance Amazon EC2 ou utiliser le calculateur de vCPU simplifié pour calculer la configuration totale requise pour la limite de vCPU pour votre compte AWS.

Q : Les limites de vCPU s'appliquent-elles lors de l'achat d'instances réservées ou d'une demande d'instances Spot ?

Non, les limites basées sur vCPU s'appliquent uniquement à l'exécution des instances à la demande et Spot.

Q : Comment puis-je afficher mes limites actuelles d'instances à la demande ?

Vous trouverez vos limites actuelles d'instances à la demande sur la page Service Limits EC2 dans la console Amazon EC2 ou via les API et la console Service Quotas.

Q : Cela affectera-t-il les instances en cours d'exécution ?

Non, l'activation de limites basées sur vCPU n'affectera aucune instance en cours d'exécution.

Q : Puis-je toujours lancer le même nombre d'instances ?

Oui, les limites d'instances basées sur vCPU vous permettent de lancer au moins le même nombre d'instances que les limites d'instances basées sur un nombre.

Q : Pourrai-je afficher l'utilisation des instances par rapport à ces limites ?

Avec l'intégration des métriques Amazon CloudWatch, vous pouvez afficher l'utilisation d'EC2 par rapport aux limites définies dans la console Service Quotas. Service Quotas permet également aux clients d'utiliser CloudWatch pour configurer des alarmes afin de les avertir de l'approche des limites. En outre, vous pouvez continuer à suivre et à examiner l'utilisation de vos instances dans Trusted Advisor.

Q : Pourrai-je continuer à utiliser l'API DescribeAccountAttributes ?

Avec les limites de vCPU, l'utilisation n'est plus régie par des limites d'instances totales. Par conséquent, l'API DescribeAccountAttributes ne renverra plus la valeur max-instances. À la place, vous pouvez désormais utiliser les API Service Quotas pour récupérer des informations sur les limites EC2. Vous trouverez plus d'informations sur les API Service Quotas dans la documentation AWS.

Q : Les limites de vCPU auront-elles un impact sur ma facture mensuelle ?

Non. L'utilisation d'EC2 est toujours calculée à l'heure ou à la seconde, en fonction de l'AMI utilisée, ainsi que du type et de la taille d'instance que vous avez lancée.

Q : Les limites de vCPU sont-elles disponibles dans toutes les régions ?

Les limites d'instance basées sur la vCPU sont disponibles dans toutes les régions commerciales AWS.

Modification de la politique de point de terminaison SMTP EC2

Q : Qu'est-ce qui change ?

Le 7 janvier 2020, Amazon EC2 a mis en œuvre une modification visant à restreindre par défaut le trafic de courrier électronique via le port 25 afin de protéger les clients et les autres destinataires contre le spam et les e-mails abusifs. Le port 25 est généralement utilisé comme port SMTP par défaut pour l'envoi d'e-mails. Les comptes AWS qui ont déjà demandé et obtenu la restriction du port 25 ne sont pas concernés par ce changement.

Q : J'ai un cas d'utilisation valable pour envoyer des e-mails sur le port 25 depuis EC2. Comment puis-je supprimer les restrictions liées à ce port 25 ?

Si votre utilisation du port 25 (SMTP) pour envoyer des e-mails depuis EC2 est justifiée, veuillez envoyer une demande de suppression des limites d'envoi d'e-mails afin de lever ces restrictions. Vous pouvez également envoyer des e-mails en utilisant un autre port ou à l'aide d'un service de relais de messagerie authentifié tel qu'Amazon Simple Email Service (Amazon SES).

Accord sur les niveaux de service (SLA)

Q : Que couvre l'Accord de niveau de service (SLA) d'Amazon EC2 ?

Notre SLA garantit un pourcentage de disponibilité mensuel d'au moins 99.99 % au sein d'une région pour Amazon EC2 et Amazon EBS.

Q : Comment savoir si je peux bénéficier d'un crédit de service au titre du SLA ?

Vous pouvez bénéficier d'un crédit de service SLA pour Amazon EC2 ou Amazon EBS (en fonction du service indisponible ou si les deux services étaient indisponibles) si le pourcentage de temps de fonctionnement mensuel dans votre région est inférieur à 99,99 % au cours d'un cycle de facturation mensuel. Pour consulter l'intégralité des conditions générales du contrat de niveau de service et en savoir plus sur la marche à suivre pour soumettre une réclamation, référez-vous au contrat de niveau de service de calcul Amazon

Types d'instances

Instances de calcul accéléré

Q : Que sont les instances de calcul accéléré ?

La catégorie d'instances de calcul accéléré comprend les familles d'instances qui utilisent des accélérateurs matériels, ou des coprocesseurs, pour exécuter certaines fonctions, telles que le calcul de nombres à virgule flottante et le traitement graphique, plus efficacement que ne le permet le logiciel fonctionnant sur les unités centrales de traitement. Amazon EC2 propose un large choix d'accélérateurs, notamment des GPU, des puces d'IA spécialement conçues (AWS Trainium et AWS Inferentia), des FPGA et bien d'autres encore.


Q : Quand dois-je utiliser des instances EC2 basées sur GPU ?

Les instances GPU fonctionnent mieux pour les applications présentant un parallélisme massif, telles que l'IA générative, le deep learning, les graphismes, les jeux et l'informatique spatiale. Si vos modèles de deep learning et d'IA nécessitent des bibliothèques ou des langages propriétaires tiers, par exemple les bibliothèques NVIDIA CUDA, UDA Deep Neural Network (cuDNN) ou TensorRT, nous vous recommandons d'utiliser les instances basées sur les GPU NVIDIA.


Q : Quand dois-je utiliser la série G par rapport à la série P d'instances EC2 basées sur un GPU ?

Notre série d'instances G convient parfaitement aux graphiques, aux jeux et à l'informatique spatiale, ainsi qu'à l'inférence AI/ML et aux charges de travail de formation AI/ML à nœud unique. Nos instances de la série P sont optimisées pour l'inférence par l'IA et la formation de grands modèles de base.


Q : Quand dois-je utiliser les instances alimentées par AWS Trainium et AWS Inferentia ?

AWS Trainium et AWS Inferentia sont spécialement conçus pour le deep learning et les charges de travail liées à l'IA générative. Vous pouvez utiliser ces instances pour la formation et l'inférence en matière d'IA afin d'obtenir des performances élevées tout en économisant jusqu'à 50 % sur les coûts de formation et d'inférence par rapport à des instances EC2 comparables. Le kit SDK AWS Neuron prend en charge un ensemble varié de modèles d'architecture sur ces instances et vous pouvez en savoir plus en consultant la page documentation Neuron.


Q : Où puis-je me procurer des pilotes, des bibliothèques, des frameworks et des outils de développement NVIDIA pour les instances de la série P et de la série G ?

Il existe des annonces sur AWS Marketplace qui proposent des AMI Amazon Linux et des AMI Windows Server avec les pilotes NVIDIA préinstallés. Vous pouvez également lancer des AMI HVM à 64 bits et installer les pilotes vous-même. Vous devez vous rendre sur le site Web des pilotes NVIDIA et rechercher les pilotes appropriés en fonction des GPU présents dans l'instance que vous utilisez.


Vous avez également la possibilité d'utiliser NVIDIA AI enterprise qui inclut des outils de développement, des cadres et des modèles pré-formés pour les professionnels de l'IA, ainsi qu'une gestion et une orchestration fiables pour les professionnels de l'informatique afin de garantir les performances, la haute disponibilité et la sécurité. 

Q : Que sont les Amazon EC2 UltraClusters ?

Les Amazon EC2 UltraClusters permettent une mise à l'échelle à des milliers de GPU ou à des puces ML spécifiques, tels qu'AWS Trainium, afin de bénéficier d'un accès ponctuel à un supercalculateur. Ils facilitent l'accès aux performances des supercalculateurs pour les développeurs du machine learning (ML), de l'IA générative et du calcul haute performance (HPC) grâce à un modèle d'utilisation simple et payant sans aucun coût de configuration ou de maintenance. Pour plus d'informations, consultez la page EC2 UltraClusters

Instances Flex

Q : Quelles sont les différences entre les instances Amazon EC2 Flex (M7i-Flex et C7i-Flex) et les instances comparables (M7i et C7i) ? Quand dois-je utiliser des instances Flex plutôt que des instances comparables ?

Les instances Flex (M7i-Flex et C7i-Flex) sont des variantes moins coûteuses d'instances comparables (M7i et C7i) et offrent des performances tarifaires 19 % supérieures à celles de la génération précédente d'instances (M6i et C6i). Les instances Flex peuvent être utilisées pour exécuter la majorité des charges de travail qui bénéficient des performances de dernière génération mais n'utilisent pas pleinement les ressources de calcul. Ces instances sont conçues pour fournir des performances de base du processeur, avec la possibilité d'augmenter verticalement les performances complètes du processeur 95 % du temps. Les instances Flex sont idéales pour les charges de travail qui s'adaptent à des tailles d'instance allant jusqu'à 8xlarge (jusqu'à 32 vCPU et jusqu'à 128 Go), y compris les serveurs Web et d'applications, les bases de données, les bureaux virtuels, le traitement par lots, les microservices, les caches, les applications d'entreprise, Apache Kafka et Elasticsearch. Vous pouvez utiliser des instances comparables (M7i et C7i) pour les charges de travail qui nécessitent les plus grandes tailles d'instance ou des performances CPU, réseau ou EBS élevées, telles que les serveurs d'applications et les bases de données volumineux, les jeux multijoueurs hautement évolutifs, le machine learning (ML) basé sur le processeur, le codage et le streaming vidéo, le traitement par lots, les analyses distribuées, le calcul haute performance (HPC) et la diffusion d'annonces.

Q : Quelles sont les performances des instances Flex ?

Les instances Flex fournissent des ressources CPU fiables pour fournir des performances CPU de base de 40 %, conçues pour répondre aux exigences de calcul de la majorité des charges de travail. Lorsque les charges de travail ont besoin de plus de performances, les instances Flex offrent la possibilité d'augmenter verticalement jusqu'à 100 % du processeur pendant 95 % du temps sur une période de 24 heures.

Q : Quels sont les autres cas d'utilisation des instances M7i-Flex ?

Les instances M7i-Flex constituent une voie de mise à niveau intéressante pour les charges de travail exécutées sur des instances T3 de plus grande taille (large à 2xlarge) en offrant un meilleur rapport prix/performance, un prix horaire fixe qui inclut le processeur de base et une utilisation supplémentaire du processeur par rapport à la référence, ainsi que des tailles d'instance plus grandes jusqu'à 8xlarge (32vCPUs et 128 Go). Les instances M7i-Flex offrent un moyen simplifié d'optimiser votre utilisation de l'EC2 sans crédits CPU.

Instances à capacité extensible

Q : En quoi les instances à capacité extensible diffèrent-elles des autres ?

Amazon EC2 vous permet de choisir entre des instances à capacité fixe (par exemple : les familles d'instances C, M et R) et des instances à capacité extensible (par exemple : T2). Les instances à capacité extensible fournissent un niveau de départ en matière de capacités de CPU, avec la possibilité de dépasser le seuil de base.

La capacité de base et la possibilité de débordement des instances T2 sont contrôlés par les crédits CPU. Chaque instance T2 reçoit des crédits CPU en continu, sur la base d'un taux défini selon la taille de l'instance. Les instances T2 accumulent les crédits CPU lorsqu'elles ne sont pas utilisées, et les utilisent lorsqu'elles sont actives. Un crédit CPU fournit la capacité d'un cœur de CPU complet pendant une minute. 

Modèle

vCPU

Crédits CPU / heure

Solde de crédits CPU maximal

Performances d'UC de base

t2.nano 1 3 72 5 % d'un cœur

t2.micro

1

6

144

10 % d'un cœur

t2.small

1

12

288

20 % d'un cœur

t2.medium

2

24

576

40 % d'un cœur*

t2.large 2 36 864 60 % d'un cœur**

t2.xlarge

4

54

1 296

90 % d'un cœur***

t2.2xlarge

8

81

1 944

135 % d'un cœur****

* Pour l'instance t2.medium, les applications à thread unique peuvent utiliser 40 % d'un cœur ou, le cas échéant, les applications multithreads peuvent utiliser 20 % de chacun des 2 cœurs.

** Pour l'instance t2.large, les applications à thread unique peuvent utiliser 60 % d'un cœur ou, le cas échéant, les applications multithreads peuvent utiliser 30 % de chacun des 2 cœurs.

*** Pour l'instance t2.xlarge, les applications à thread unique peuvent utiliser 90 % d'un cœur ou, le cas échéant, les applications multithreads peuvent utiliser 45 % de chacun des 2 cœurs ou 22,5 % des 4 cœurs.

**** Pour l'instance t2.2xlarge, les applications à thread unique peuvent utiliser la totalité d'un cœur ou, le cas échéant, les applications multithreads peuvent utiliser 67,5 % de chacun des 2 cœurs ou 16,875 % des 8 cœurs.

Q : Comment puis-je choisir la bonne Amazon Machine Image (AMI) pour mes instances T2 ?

Assurez-vous que la quantité minimale de mémoire exigée par votre système d'exploitation et vos applications correspond à la mémoire allouée à chaque taille d'instance T2 (par exemple, 512 Mio pour les instances t2.nano). Les systèmes d'exploitation dotés d'une interface utilisateur graphique (GUI) consommant beaucoup de ressources de mémoire et de CPU, Microsoft Windows, par exemple, nécessitent une instance de taille t2.micro ou plus pour la plupart des cas d'utilisation. Des AMI adaptées au type d'instance t2.nano sont disponibles sur AWS Marketplace. Les clients exécutant Windows et n'ayant pas besoin de la GUI peuvent utiliser l'AMI Microsoft Windows Server 2012 R2 Core.

Q : Quand faut-il privilégier une instance à capacité extensible telle que l'instance T2 ?

Les instances T2 sont une plate-forme abordable pour une large gamme de charges de production d'ordre général. Les instances T2 Unlimited peuvent offrir des performances CPU élevées pendant la durée nécessaire. Si vos charges de travail nécessitent constamment des performances CPU supérieures aux capacités de base, songez à opter pour une famille d'instances à CPU dédié, comme les familles M et C.

Q : Comment puis-je connaître le solde de crédits CPU de chaque instance T2 ?

Vous pouvez prendre connaissance du solde de crédits CPU de chaque instance T2 en vous référant aux mesures par instance EC2 indiquées dans Amazon CloudWatch. Les instances T2 possèdent quatre métriques : CPUCreditUsage, CPUCreditBalance, CPUSurplusCreditBalance et CPUSurplusCreditsCharged. CPUCreditUsage indique la quantité de crédits CPU utilisés. CPUCreditBalance indique le solde de crédits CPU. CPUSurplusCredit indique les crédits utilisés pour étendre les capacités en l'absence de crédits cumulés. CPUSurplusCreditsCharged indique les crédits facturés quand l'utilisation moyenne dépasse le niveau de base.

Q : Quel est l'impact sur la capacité de CPU si mon instance T2 est à court de crédits (solde de crédits CPU proche de zéro) ?

Si votre instance T2 ne dispose d'aucun crédit CPU, ses capacités seront équivalentes aux capacités CPU de base. La t2.micro fournit, par exemple, des capacités CPU de base équivalentes à 10 % d'un cœur de CPU physique. Si le solde de crédits CPU de votre instance est proche de zéro, les capacités CPU seront équivalentes aux capacités de base sur un intervalle de 15 minutes.

Q : Le solde de crédits reste-t-il inchangé lorsque mon instance T2 est interrompue puis redémarrée ?

Non, une instance interrompue ne conserve pas son solde de crédits obtenus.

Q : Les instances T2 peuvent-elles être achetées sous forme d'instances réservées ou d'instances Spot ?

Les instances T2 peuvent être achetées sous forme d'instances à la demande, d'instances réservées ou d'instances Spot.

Q : Qu'appelle-t-on instances Amazon EC2 T4g ?

Les instances Amazon EC2 T4g représentent la prochaine génération d'instances à usage général extensibles optimisées par les processeurs AWS Graviton2 basés sur ARM. Le rapport prix/performances des instances T4g est jusqu'à 40 % supérieur à celui des instances T3. Elles reposent sur le système AWS Nitro, une combinaison qui associe un matériel dédié et un hyperviseur Nitro.

Q : Quels sont les principaux cas d'utilisation idéaux pour les instances T4g ?

Les instances T4g fournissent des performances de prix jusqu'à 40 % plus avantageuses par rapport aux instances T3 pour diverses charges de travail à usage général, notamment les micro-services, les applications interactives à faible latence, les bases de données petites et moyennes, les bureaux virtuels, les environnements de développement, les référentiels de code et les applications stratégiques. Les clients qui déploient des applications basées sur des logiciels open source dans toute la famille d'instances T trouveront les instances T4g très utiles pour obtenir le meilleur rapport qualité/prix au sein de la famille d'instances. Les développeurs d'Arm peuvent également créer leurs applications directement sur le matériel natif d'Arm plutôt que de recourir à la compilation croisée ou à l'émulation.

Q : Comment les clients peuvent-ils obtenir l’accès à l’essai gratuit de T4g ?

Jusqu’au 31 décembre 2024, tous les clients AWS seront automatiquement inscrits à l’essai gratuit de T4g, comme indiqué dans le document Offre gratuite d’AWS. Pendant la période d’essai gratuit, les clients qui utilisent une instance t4g.small bénéficieront automatiquement de 750 heures gratuites par mois déduites de leur facture au cours de chaque mois. Les 750 heures couvrent l'utilisation des instances t4g.small dans toutes les régions. Les clients doivent payer les crédits CPU excédentaires lorsqu'ils dépassent les crédits alloués aux instances pendant les 750 heures du programme d'essai gratuit des instances T4g. Pour plus d'informations sur le fonctionnement des crédits CPU, reportez-vous à la section Principaux concepts et définitions des instances de performance à capacité extensible dans le Guide de l'utilisateur Amazon EC2 des instances Linux.

Q : Qui peut bénéficier de l'essai gratuit T4g ?

Tous les clients nouveaux et existants disposant d’un compte AWS peuvent bénéficier de l’essai gratuit T4g. L’essai gratuit T4g est disponible pour une durée limitée, jusqu’au 31 décembre 2024. Le début et la fin de l’essai gratuit s’entendent en temps universel coordonné (UTC). L'essai gratuit T4g sera disponible en plus de l'Offre gratuite d'AWS existante pour t2.micro/t3.micro. Les clients qui sont arrivés à la fin de la période d'utilisation de l'offre gratuite de t2.micro (ou de t3.micro en fonction de leur région) peuvent toujours bénéficier de l'essai gratuit T4g.

Q : Dans quelles régions l'essai gratuit T4g est-il disponible ?

L'essai gratuit T4g est actuellement disponible dans les régions AWS USA Est (Ohio), USA Est (Virginie du Nord), USA Ouest (Californie du Nord), USA Ouest (Oregon), Amérique du Sud (São Paulo), Asie-Pacifique (Hong Kong), Asie-Pacifique (Mumbai), Asie-Pacifique (Séoul), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Tokyo), Canada (Centre), EU (Francfort), EU (Irlande), EU (Londres) et EU (Stockholm). Il n’est pas disponible actuellement dans les régions Chine (Pékin) et Chine (Ningxia).

Dans le cadre de l’essai gratuit, les clients peuvent exécuter des instances t4g.small dans une ou plusieurs régions à partir d’un seul compartiment cumulatif de 750 heures gratuites par mois jusqu’au 31 décembre 2024. Par exemple, un client peut exécuter une instance t4g.small en Oregon pendant 300 heures pendant un mois et exécuter une autre instance t4g.small à Tokyo pendant 450 heures pendant le même mois. La somme correspond donc à 750 heures par mois.

Q : Existe-t-il des frais supplémentaires pour l'exécution d'AMI spécifiques dans le cadre de l'essai gratuit T4g ?

Dans le cadre de l'essai gratuit t4g.small, aucuns frais Amazon Machine Image (AMI) ne sont facturés pour les AMI Amazon Linux 2, RHEL et SUSE Linux qui sont disponibles par le biais du Quick Start de la console EC2 pour les 750 premières heures gratuites mensuelles. Après 750 heures gratuites/mois, les prix OD normaux À la demande, y compris les frais AMI (le cas échéant) sont appliqués. Les frais de logiciel applicables pour les offres AWS Marketplace avec des options d'exécution AMI ne sont pas inclus dans l'essai gratuit. Seul le coût de l'infrastructure t4g.small est inclus et couvert dans le cadre de l'essai gratuit.

Q : Comment l'essai gratuit t4g.small sera-t-il indiqué sur ma facture AWS ?

L'essai gratuit de T4g répond a un cycle de facturation mensuel qui commence le premier de chaque mois et se termine le dernier jour de ce mois. Dans le cadre du plan de facturation de l'essai gratuit T4g, les clients utilisant t4g.small verront une ligne de 0 USD sur leur facture dans le cadre du plan de tarification À la demande pour les 750 premières heures d'utilisation cumulée pour chaque mois de la période d'essai gratuit. Les clients peuvent commencer à tout moment lors de la période d'essai gratuit et obtenir 750 heures gratuites pour le reste du mois en cours. Les heures non utilisées d'un mois ne sont pas reportées sur le mois suivant. Les clients peuvent lancer plusieurs instances t4g.small pendant l'essai gratuit. Les clients seront avertis automatiquement par e-mail en utilisant AWS Budgets lorsque leur utilisation mensuelle cumulée atteindra 85 % des 750 heures gratuites. Lorsque l'utilisation cumulée d'instances dépasse 750 heures pour le cycle de facturation du mois, les heures supplémentaires du mois concerné sont facturées aux clients selon la tarification À la demande. Pour les clients possédant Savings Plan de calcul ou un Savings Plan d'instance T4g, la réduction Savings Plan (SV) sera appliquée à la tarification À la demande pour les heures dépassant l'essai gratuit de 750 heures. Si le client a acheté un plan d'instance réservée (RI) T4g, le plan RI s'applique en premier pour tout usage sur une base horaire. Pour tout usage restant après l'application du plan RI, le plan de facturation de l'essai gratuit entre en vigueur.

Q : Si le client a adhéré à la facturation consolidée (ou un seul compte payeur), a-t-il accès à l'essai gratuit T4g pour chaque compte lié au compte payeur ?

Non. Les clients qui utilisent la facturation consolidée pour regrouper le paiement de plusieurs comptes ne bénéficient que d'une seule offre gratuite par organisation. Chaque compte payeur obtient un total de 750 heures gratuites cumulées par mois. Pour plus de détails sur la facturation consolidée, reportez-vous à la section Facturation consolidée pour AWS Organizations dans le Guide de l'utilisateur Facturation et gestion des coûts AWS.

Q : Les clients seront-ils facturés pour les crédits CPU excédentaires dans le cadre de l'essai gratuit T4g ?

Les clients doivent payer les crédits CPU excédentaires lorsqu'ils dépassent les crédits alloués aux instances pendant les 750 heures du programme d'essai gratuit des instances T4g. Pour les détails sur le fonctionnement des crédits CPU, reportez-vous à la section Principaux concepts et définitions des instances de performance à capacité extensible dans le Guide de l'utilisateur Amazon EC2 des instances Linux.

Q. : À la fin de l'essai gratuit, comment un client est-il facturé pour les instances t4g.small ?

À partir du 1er janvier 2025, les clients utilisant des instances t4g.small passeront automatiquement du plan d’essai gratuit au plan de tarification à la demande (ou au plan instance réservée [RI]/Savings Plan [SV], s’ils en ont acheté un). Les crédits cumulés seront mis à zéro. Les clients recevront une notification par e-mail sept jours avant la fin de la période d’essai gratuit, indiquant que celle-ci prendra fin dans sept jours. À partir du 1er janvier 2025, si le plan RI a été acheté, les plans RI s’appliqueront. Sinon, les instances t4g.small seront facturées aux clients sur la base de la tarification normale À la demande. Pour les clients disposant d'un Savings Plan pour les instances T4g ou d'un Savings Plan de calcul, la facturation de l'instance t4g.small appliquera la réduction du Savings Plan sur la tarification à la demande.

Instances optimisées pour le calcul

Q : Quand dois-je utiliser des instances optimisées pour le calcul ?

Les instances optimisées pour le calcul sont conçues pour les applications nécessitant une puissance de calcul élevée. Il s'agit notamment des applications qui utilisent massivement le calcul tels que les serveurs Web à haute performance, le calcul haute performance (HPC), la modélisation scientifique, l'analytique distribuée et l'inférence de machine learning.

Q : Que sont les instances C7g Amazon EC2 ?

Les instances Amazon EC2 C7g équipées de la dernière génération de processeurs AWS Graviton3, offrent le meilleur rapport prix/performances dans Amazon EC2 pour les charges de travail qui utilisent massivement le calcul. Les instances C7g constituent la solution idéale pour le calcul haute performance (HPC), le traitement par lots, Electronic Design Automation (EDA), les jeux, l'encodage vidéo, la modélisation scientifique, l'analytique distribuée, l'inférence de machine learning (ML) basée sur le CPU et la diffusion de publicités. Leurs performances sont 25 % supérieures à celles des instances C6g AWS Graviton2-de la sixième génération.

Q : Que sont les instances C6g Amazon EC2 ?

Les instances Amazon EC2 C6g sont la prochaine génération d'instances optimisées par les processeurs AWS Graviton2 basés sur ARM. Le rapport prix/performances des instances C6g est jusqu'à 40 % supérieur à celui des instances C5. Elles reposent sur AWS Nitro System, une combinaison qui associe un matériel dédié et un hyperviseur Nitro.

Q : Quels sont les principaux cas d'utilisation idéaux pour les instances C6g ?

Les instances C6g offrent des avantages considérables en termes de prix et de performance pour les charges de travail à forte intensité de calcul telles que le calcul haute performance (HPC), le traitement par lots, la diffusion de publicités, le codage vidéo, les jeux, la modélisation scientifique, l'analyse distribuée et l'inférence machine learning basée sur le CPU. Les clients qui déploient des applications basées sur des logiciels open source dans toute la famille d'instances C trouveront les instances C6g très utiles pour obtenir le meilleur rapport qualité/prix au sein de la famille d'instances. Les développeurs d'Arm peuvent également créer leurs applications directement sur le matériel natif d'Arm plutôt que de recourir à la compilation croisée ou à l'émulation.

Q : Quelles sont les différentes options de stockage disponibles sur les instances C6g ?

Les instances C6g sont optimisées pour EBS par défaut et proposent une bande passante EBS maximale dédiée jusqu'à 19 000 Mbits/s pour les volumes EBS chiffrés et non chiffrés. Les instances C6g prennent uniquement en charge l'interface Non-Volatile Memory Express (NVMe) pour accéder aux volumes de stockage EBS. Par ailleurs, des options de stockage d'instances NVMe locales sont aussi disponibles via les types d'instances C6gd.

Q : Quelle est l'interface réseau prise en charge sur les instances C6g ?

Les instances C6g prennent en charge la mise en réseau améliorée basée sur ENA. Avec ENA, les instances C6g peuvent délivrer jusqu'à 25 Gbits/s de bande passante réseau entre les instances lorsqu'elles sont lancées au sein d'un groupe de placement.

Q : Les clients auront-ils besoin de modifier les applications et les charges de travail pour pouvoir exécuter les instances C6g ?

Les modifications requises dépendent de l'application. Les clients qui exécutent des applications basées sur des logiciels open source trouveront que l'écosystème Arm est bien développé et prend probablement déjà en charge leurs applications. La plupart des distributions Linux ainsi que les conteneurs (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) prennent en charge l'architecture Arm. Les clients trouveront des versions Arm des progiciels couramment utilisés disponibles pour l'installation par les mêmes mécanismes que ceux qu'ils utilisent actuellement. Les applications basées sur des langages interprétés (tels que Java, Node, Python) qui ne dépendent pas de jeux d'instructions CPU natifs devraient fonctionner sans modifications ou avec un nombre de changements minimal. Les applications développées à l'aide de langages compilés (C, C++, GoLang) devront être recompilées pour générer des binaires Arm. L'architecture Arm est bien prise en charge dans ces langages de programmation populaires et le code moderne nécessite généralement une simple commande « Make ». Référez-vous au Guide de démarrage sur GitHub pour en savoir plus.

Q : Y aura-t-il plus de choix de calcul offerts avec les familles d'instances C6 ?

Oui, nous prévoyons de proposer à l'avenir des instances alimentées par les processeurs Intel et AMD dans le cadre des familles d'instances C6.

Q : Puis-je lancer des instances C4 en tant qu'instances optimisées pour Amazon EBS ?

Chaque instance de type C4 est optimisée pour EBS par défaut. Les instances C4 de 500 à 4 000 Mbit/s pour EBS ci-dessus et au-delà du débit réseau à usage général fourni à l'instance. Dans la mesure où cette fonctionnalité est toujours activée sur les instances C4, le lancement explicite d'une instance C4 en tant qu'instance optimisée pour EBS n'affecte pas le comportement de l'instance.

Q : Comment puis-je utiliser la fonction de contrôle de l'état du processeur disponible dans l'instance c4.8xlarge ?

Les instances de type c4.8xlarge offrent au système d'exploitation la possibilité de contrôler les états C et P du processeur. Cette fonctionnalité n'est actuellement disponible que dans les instances Linux. Il est possible que vous souhaitiez modifier les paramètres de l'état C ou de l'état P afin d'améliorer l'homogénéité des performances du processeur, de réduire la latence ou de personnaliser votre instance pour une charge de travail spécifique. Par défaut, Amazon Linux fournit la configuration présentant les meilleures performances, et optimale pour la plupart des charges de travail des clients. Cependant, si vous souhaitez que votre application bénéficie d'une latence plus faible au même coût que les fréquences single ou dual-core, ou de performances durables à une fréquence plus faible, par opposition aux fréquences Turbo Boost en paquets, vous devriez alors envisager de recourir aux options de configuration de l'état C ou P, disponibles pour ces instances. Pour plus d'informations sur cette fonctionnalité, consultez la section du Guide de l'utilisateur Amazon EC2 Contrôle des états du processeur.

Q : Quelles instances sont disponibles dans la catégorie d'instances optimisées pour le calcul ?

Instances C6g : les instances C6g d'Amazon EC2 sont optimisées par des processeurs AWS Graviton2 basés sur Arm. Elles offrent un rapport qualité-prix jusqu'à 40 % supérieur à celui des instances C5 pour les applications avancées à forte intensité de calcul. Il s'agit entre autres, des charges de travail telles que le calcul haute performance (HPC), le traitement par lots, la diffusion d'annonce, l'encodage vidéo, les jeux, la modélisation scientifique, l'analytique distribuée et l'inférence machine learning basée sur le CPU. 

Instances C6a : les instances C6a sont alimentées par des processeurs AMD EPYC de 3e génération avec une fréquence turbo de 3,6 GHz sur tous les cœurs, offrent des performances de prix jusqu'à 15 % supérieures à celles des instances C5a pour une grande variété de charges de travail et prennent en charge le chiffrement de la mémoire toujours actif à l'aide d'AMD Transparent Single Key Memory Encryption (TSME). Les instances C6a fournissent de nouvelles tailles d'instance avec jusqu'à 192 vCPU et 384 Gio de mémoire, soit le double de la plus grande instance C5a. Les instances C6a offrent aux clients jusqu'à 50 Gbit/s de vitesse réseaux et 40 Gbit/s de bande passante vers Amazon Elastic Block Store, soit plus du double des instances C5a.

Instances C6i : les instances C6i sont alimentées par des processeurs Intel Xeon Scalable de 3e génération avec une fréquence d'horloge turbo sur tous les cœurs pouvant atteindre 3,5 GHz. Elles offrent un rapport prix/performance jusqu'à 15 % supérieur à celui des instances C5 pour une grande variété de charges de travail, et un chiffrement de mémoire toujours actif grâce à la solution chiffrement total de la mémoire (TME) d'Intel. Les instances C6i proposent une nouvelle taille d'instance (c6i.32xlarge) avec 128 vCPU et 256 GiB de mémoire, soit 33 % de plus que l'instance C5 la plus grande. Ces instances proposent également une bande passante mémoire par vCPU jusqu'à 9 % supérieure aux instances C5. Les instances C6i offrent également aux clients jusqu'à 50 Gbit/s de vitesse de réseau et 40 Gbit/s de bande passante vers Amazon Elastic Block Store, soit le double des instances C5. Les instances C6i sont également disponibles avec l'option de stockage par bloc SSD basé sur NVMe (instances C6id) pour les applications nécessitant un stockage local haute débit et à faible latence. Les instances C6id offrent un stockage en To par vCPU jusqu'à 138 % supérieur et un coût par To 56 % inférieur par rapport aux instances C5d de la génération précédente.

Instances C5 : les instances C5 reposent sur des processeurs Intel Xeon Platinum qui font partie de la gamme de processeurs Intel Xeon Scalable (nom de code Skylake-SP ou Cascade Lake). Elles sont disponibles dans 9 tailles pour offrir jusqu'à 96 vCPU virtuels et 192 Go de mémoire. Les instances C5 assurent une amélioration de 25 % du rapport prix/performances par rapport aux instances C4. Les instances C5d disposent d'un stockage NVMe local pour les charges de travail qui nécessitent une latence très faible et un accès au stockage avec une capacité IOPS de lecture et d'écriture aléatoire élevée.

Instances C5a : l'imbattable rapport prix/performances de l'architecture x86 des instances C5a est idéal pour un large éventail de charges de travail qui nécessitent une importante capacité de calcul. C'est notamment le cas du traitement des lots, de l'analyse distribuée, de la transformation de données, des analyses de journaux et des applications Web. Les instances C5a sont équipées de processeurs AMD EPYC de 2e génération cadencés à 3,3 GHz avec jusqu'à 96 vCPU et jusqu'à 192 Gio de mémoire. Les instances C5ad disposent d'un stockage NVMe local pour les charges de travail qui nécessitent une latence très faible et un accès au stockage avec une capacité IOPS de lecture et d'écriture aléatoire élevée.

Instances C5n : les instances C5n sont idéales pour les applications nécessitant une bande passante réseau et un débit de paquets élevés. Les instances C5n sont idéales pour des applications comme le HPC, les lacs de données, les appareils de réseau ainsi que les applications qui nécessitent une communication entre les nœuds et le Message Passing Interface (MPI). Les instances C5n offrent un choix de processeurs Intel Xeon Platinum 3,0 GHz avec jusqu'à 72 vCPU et 192 Gio de mémoire.

Instances C4 : Les instances C4 sont basées sur des processeurs Intel Xeon E5-2666 v3 (nom de code Haswell). Les instances C4 sont disponibles en 5 tailles et offrent jusqu'à 36 vCPU et 60 Gio de mémoire.

Q : Pourquoi les clients devraient-ils choisir les instances C6i plutôt que les instances C5 ?

Les instances C6i offrent un rapport prix/performance jusqu'à 15 % plus avantageux que les instances C5, ainsi qu'un chiffrement toujours actif de la mémoire grâce à la solution chiffrement total de la mémoire (TME) d'Intel. Les instances C6i proposent une nouvelle taille d'instance (c6i.32xlarge) avec 128 vCPU et 256 GiB de mémoire, soit 33 % de plus que l'instance C5 la plus grande. Ces instances proposent également une bande passante mémoire par vCPU jusqu'à 9 % supérieure aux instances C5. Les instances C6i offrent également aux clients jusqu'à 50 Gbit/s de vitesse réseau et 40 Gbit/s de bande passante vers Amazon Elastic Block Store, soit le double des instances C5.

Q : Pourquoi les clients devraient-ils choisir les instances C5 plutôt que les instances C4 ?

Grâce à l'amélioration en termes de performances de CPU et de réduction de coûts de la nouvelle génération, les instances C5 offrent une amélioration de 25 % du rapport prix/performances par rapport aux instances C4. Elles sont également utiles à un large spectre de charges de travail s'exécutant actuellement sur des instances C3 et C4. Pour les applications intensives de point de flottement, Intel AVX-512 permet de profiter d'améliorations importantes dans les TFLOPS déployés grâce à une extraction efficace du parallélisme au niveau des données. Les clients à la recherche de performances extrêmes pour leurs charges de travail de rendu graphique et HPC pouvant être optimisées par des GPU et des FPGA doivent également envisager d'autres familles d'instances incluant ces ressources dans le portfolio Amazon EC2 afin de trouver l'instance idéale pour leur charge de travail.

Q : Quelle interface de stockage est prise en charge sur les instances C5 ?

Les instances C5 ne prendront en charge que le modèle d'appareil EBS NVMe. Les volumes EBS associés aux instances C5 apparaitront en tant qu'appareils NVMe. NVMe est une interface de stockage moderne offrant une réduction de la latence et des résultats améliorés dans l'I/O de disque et le débit.

Q : Pourquoi la quantité totale de mémoire indiquée par le système d'exploitation ne correspond-elle pas exactement à la mémoire annoncée pour les types d'instance ?

Des portions de la mémoire de l'instance EC2 sont réservées et utilisées par le BIOS virtuel pour la RAM vidéo, la DMI et l'ACPI. En outre, pour les instances qui reposent sur l'hyperviseur Nitro AWS , un petit pourcentage de la mémoire de l'instance est réservé par l'hyperviseur Nitro Amazon EC2 pour gérer la virtualisation.

Instances optimisées pour le calcul haute performance

Q : Quelles instances sont disponibles dans la catégorie des instances de calcul haute performance (HPC) ?

Instances Hpc7g :  les instances Hpc7g offrent les meilleures performances en termes de prix pour les charges de travail HPC sur AWS. Elles offrent des performances jusqu'à 70 % supérieures et un prix presque 3 fois plus élevé que les instances AWS Graviton de génération précédente pour les charges de travail HPC à forte intensité de calcul. Les instances Hpc7g sont alimentées par des processeurs AWS Graviton 3E et fournissent des performances d'instructions vectorielles jusqu'à 35 % supérieures à celles des instances AWS Graviton3 existantes. Ces instances offrent des performances en virgule flottante jusqu'à deux fois supérieures à celles des instances équipées de processeurs Graviton2. Les instances Hpc7g sont basées sur le AWS Nitro System et fournissent une bande passante du réseau de 200 Gbit/s pour les communications inter-nœuds à faible latence pour les charges de travail étroitement couplées qui nécessitent des ressources de calcul en cluster hautement parallélisées.

Instances Hpc7a : Les instances Amazon Elastic Compute Cloud (Amazon EC2) Hpc7a, alimentées par des processeurs AMD EPYC de 4e génération, offrent des performances jusqu'à 2,5 fois supérieures à celles des instances Amazon EC2 Hpc6a. Les instances Hpc7a présentent une densité de cœurs 2 fois plus élevée (jusqu'à 192 cœurs), un débit de bande passante mémoire 2,1 fois plus élevé (jusqu'à 768 Go de mémoire) et une bande passante réseau 3 fois plus élevée par rapport aux instances Hpc6a. Ces instances offrent 300 Gbit/s de bande passante du réseau Elastic Fabric Adapter (EFA), alimentée par AWS Nitro System, pour des communications inter-nœuds rapides et à faible latence.

Instances Hpc6id : Les instances Hpc6id sont alimentées par 64 cœurs de processeurs Intel 3rd Gen Xeon Scalable qui fonctionnent à des fréquences allant jusqu'à 3,5 GHz pour une efficacité accrue. Ces instances sont conçues pour améliorer la performance des charges de travail liées à la mémoire en offrant une bande passante de mémoire de 5 Go/s par vCPU. Les instances Hpc6id offrent un réseau EFA de 200 Gbit/s pour des communications inter-nœuds à haut débit afin de vous aider à exécuter vos charges de travail HPC à l'échelle.

Instances Hpc6a : Les instances Hpc6a sont alimentées par 96 cœurs de processeurs AMD EPYC de 3e génération avec une fréquence turbo de 3,6 GHz et 384 Go de RAM. Les instances Hpc6a offrent un réseau EFA de 100 Gbit/s permettant des communications inter-nœuds à haut débit pour vous aider à exécuter vos charges de travail HPC à l'échelle.

Q : En quoi les instances Hpc7g diffèrent-elles des autres instances EC2 ?

Les instances Hpc7g sont optimisées pour offrir des capacités adaptées aux charges de travail de calcul intensif (HPC). Les instances Hpc7g sont basées sur des processeurs Graviton3E basés sur ARM qui fournissent des performances d'instructions vectorielles jusqu'à 35 % supérieures à celles des instances existantes basées sur des processeurs Graviton3. Ces instances fournissent 64 cœurs physiques, 128 Gio de mémoire et une bande passante du réseau de 200 Gbit/s optimisée pour le trafic entre les instances d'un même VPC et elles prennent en charge l'EFA pour de meilleures performances réseau. Les instances Hpc7g sont disponibles dans les déploiements d'une seule zone de disponibilité, permettant ainsi aux charges de travail d'atteindre la performance réseau à faible latence nécessaire pour la communication de nœud à nœud étroitement liée pour les applications HPC.

Q : Quels modèles de prix les instances Hpc7g prennent-elles en charge ?

Les instances Hpc7g sont disponibles à l'achat dans le cadre des plans d'un ou de trois ans suivants : Amazon EC2 Instance Savings Plans, Compute Savings Plans, Instances à la demande EC2 et Instances réservées EC2.

Q : Quelles AMI sont prises en charge sur les instances Hpc7g ?

Les instances Hpc7g prennent uniquement en charge les AMI soutenues par Amazon EBS.

Q : En quoi les instances Hpc7a sont-elles différentes des autres instances EC2 ?

Les instances EC2 Hpc7a optimisées pour le HPC sont idéales pour les applications qui bénéficient de processeurs hautes performances, telles que les simulations complexes de grande envergure, notamment la dynamique numérique des fluides (CFD), les prévisions météorologiques numériques et les simulations multiphysiques. Les instances Hpc7a sont conçues pour vous aider à exécuter des charges de travail HPC x86 étroitement couplées avec de meilleures performances. Les instances Hpc7a sont dotées de processeurs AMD EPYC de 4e génération avec une densité de cœurs 2 fois plus élevée (jusqu'à 192 cœurs), un débit de bande passante mémoire 2,1 fois plus élevé (768 Go de mémoire) et une bande passante réseau 3 fois plus élevée par rapport aux instances Hpc6a. Ces instances offrent une bande passante du réseau EFA de 300 Gbit/s, alimentée par le AWS Nitro System, pour des communications inter-nœuds rapides et à faible latence.

Q : Quels sont les modèles de tarification des instances Hpc7a ?

Les instances Hpc7a sont disponibles à l'achat dans le cadre des plans de 1 ou de 3 ans suivants : Amazon EC2 Instance Savings Plans,Compute Savings Plans,Instances à la demande EC2 et Instances réservées EC2.

Q : Quels AMI sont pris en charge par les instances Hpc7a ?

Les instances Hpc7a prennent en charge Amazon Linux 2, Amazon Linux, Ubuntu 18.04 ou version ultérieure, Red Hat Enterprise Linux 7.6 ou version ultérieure, SUSE Linux Enterprise Server 12 SP3 ou version ultérieure, CentOS 7 ou version ultérieure, et FreeBSD 11.1 ou version ultérieure.

Q : Quels modèles de prix les instances Hpc6id prennent-elles en charge ?

Les instances Hpc6id sont disponibles à l'achat dans le cadre des plans d'un ou de trois ans suivants : Amazon EC2 Instance Savings Plans, Compute Savings Plans, Instances à la demande EC2 et Instances réservées EC2.

Q: En quoi les instances Hpc6id sont-elles différentes des autres instances EC2 ?

Les instances Hpc6id sont optimisées pour offrir des capacités adaptées aux charges de travail de calcul haute performance (HPC) gourmandes en mémoire et en données. L'hyperthreading est désactivé pour augmenter le débit de la CPU par vCPU et la bande passante de la mémoire jusqu'à 5 Go/s par vCPU. Ces instances offrent une bande passante du réseau de 200 Gbit/s optimisée pour le trafic entre les instances d'un même cloud privé virtuel (VPC) et prennent en charge Elastic Fabric Adapter (EFA) pour des performances réseau accrues. Afin d'optimiser l'interconnexion des réseaux des instances Hpc6id pour les charges de travail étroitement couplées, vous pouvez accéder aux instances Hpc6id EC2 dans une seule zone de disponibilité dans chaque région.

Q : Quelles AMI sont prises en charge sur les instances Hpc6id ?

Hpc6id prend en charge Amazon Linux 2, Amazon Linux, Ubuntu 18.04 ou version ultérieure, Red Hat Enterprise Linux 7.4 ou version ultérieure, SUSE Linux Enterprise Server 12 SP2 ou version ultérieure, CentOS 7 ou version ultérieure, Windows Server 2008 R2 ou version antérieure, et FreeBSD 11.1 ou version ultérieure.

Q : Quelles AMI sont prises en charge sur les instances Hpc6a ?

Les instances Hpc6a prennent en charge Amazon Linux 2, Amazon Linux, Ubuntu 18.04 ou version ultérieure, Red Hat Enterprise Linux 7.4 ou version ultérieure, SUSE Linux Enterprise Server 12 SP2 ou version ultérieure, CentOS 7 ou version ultérieure, et FreeBSD 11.1 ou version ultérieure. Ces instances prennent également en charge Windows Server 2012, 2012 R2, 2016 et 2019.

Q : Quels modèles de prix les instances Hpc6a prennent-elles en charge ?

Les instances Hpc6a sont disponibles à l'achat sous forme d'instances réservées standard d'un an et de trois ans, d'instances réservées convertibles, de Savings Plans et d'instances à la demande.

Instances à usage général

Q : Qu'appelle-t-on les instances Amazon EC2 M6g ?

Les instances Amazon EC2 M6g sont la prochaine génération d'instances multi-usages optimisées par les processeurs AWS Graviton2 basés sur ARM. Le rapport prix/performances des instances M6g est jusqu'à 40 % supérieur à celui des instances M5. Elles reposent sur le système AWS Nitro, une combinaison qui associe un matériel dédié et un hyperviseur Nitro.

Q : Quelles sont les caractéristiques techniques des nouveaux processeurs AWS Graviton2 ?

Comparativement aux processeurs AWS Graviton de première génération, les processeurs AWS Graviton2 sont 7 fois plus performants, ont 4 fois plus de cœurs calcul, des caches 2 fois plus grands, une mémoire 5 fois plus rapide et ont une puissance de chiffrement par cœur 50 % plus rapide. Chaque cœur du processeur AWS Graviton2 est un vCPU à thread unique. Ces processeurs offrent également une mémoire DRAM entièrement chiffrée, une accélération matérielle pour les charges de travail de compression, des moteurs dédiés par vCPU qui doublent les performances en virgule flottante pour les charges de travail telles que l'encodage vidéo et des instructions pour l'accélération d'inférence de machine learning sur processeur int8/fp16. Les processeurs sont construits avec des cœurs Arm Neoverse de 64 bits et du silicium personnalisé conçu par AWS avec la technologie de fabrication avancée de 7 nanomètres.

Q : Le chiffrement de la mémoire est-il pris en charge par les processeurs AWS Graviton2 ?

Les processeurs AWS Graviton2 prennent toujours en charge le chiffrement de mémoire de 256 bits pour améliorer encore la sécurité. Les clés de chiffrement sont générées en toute sécurité dans le système hôte, ne quittent pas le système hôte et sont définitivement détruites lorsque l'hôte est redémarré ou éteint. Le chiffrement de la mémoire ne prend pas en charge l'intégration avec AWS Key Management Service (AWS KMS) et les clients ne peuvent pas apporter leurs propres clés.

Q : Quels sont les principaux cas d'utilisation idéaux pour les instances M6g ?

Les instances M6g offrent des avantages substantiels en termes de performances et de prix pour un large éventail de charges de travail génériques telles que les serveurs d'applications, serveurs de jeux, les microservices, les bases de données de taille moyenne et les flottes de mise en cache. Les clients qui déploient des applications basées sur des logiciels open source dans toute la famille d'instances M trouveront les instances M6g très utiles pour obtenir le meilleur rapport qualité/prix au sein de la famille d'instances M. Les développeurs d'Arm peuvent également créer leurs applications directement sur le matériel natif d'Arm plutôt que de recourir à la compilation croisée ou à l'émulation.

Q : Quelles sont les différentes options de stockage disponibles sur les instances M6g ?

Les instances M6g sont optimisées pour EBS par défaut et proposent une bande passante EBS maximale dédiée de 19 000 Mbits/s pour les volumes EBS chiffrés et non chiffrés. Les instances M6g prennent uniquement en charge l'interface Non-Volatile Memory Express (NVMe) pour accéder aux volumes de stockage EBS. Par ailleurs, des options de stockage d'instances NVMe locales sont aussi disponibles via les types d'instances M6gd.

Q : Quelle est l'interface réseau prise en charge sur les instances M6g ?

Les instances M6g prennent en charge la mise en réseau améliorée basée sur ENA. Avec ENA, les instances M6g peuvent délivrer jusqu'à 25 Gbits/s de bande passante réseau entre les instances lorsqu'elles sont lancées au sein d'un groupe de placement.

Q : Les clients auront-ils besoin de modifier les applications et les charges de travail pour pouvoir exécuter les instances M6g ?

Les modifications requises dépendent de l'application. Les clients qui exécutent des applications basées sur des logiciels open source trouveront que l'écosystème Arm est bien développé et prend probablement déjà en charge leurs applications. La plupart des distributions Linux ainsi que les conteneurs (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) prennent en charge l'architecture Arm. Les clients trouveront des versions Arm des progiciels couramment utilisés disponibles pour l'installation par les mêmes mécanismes que ceux qu'ils utilisent actuellement. Les applications basées sur des langages interprétés (tels que Java, Node, Python) qui ne dépendent pas de jeux d'instructions CPU natifs devraient fonctionner sans modifications ou avec un nombre de changements minimal. Les applications développées à l'aide de langages compilés (C, C++, GoLang) devront être recompilées pour générer des binaires Arm. L'architecture Arm est bien prise en charge dans ces langages de programmation populaires et le code moderne nécessite généralement une simple commande « Make ». Référez-vous au Guide de démarrage sur GitHub pour en savoir plus.

Q : Qu'est-ce que les instances Amazon EC2 A1 ?

Les instances Amazon EC2 A1 sont des instances à usage général optimisées par des processeurs AWS Graviton de première génération conçus sur mesure par AWS.

Q : Quelles sont les caractéristiques techniques des processeurs AWS Graviton de première génération ? 

Les processeurs AWS Graviton sont des processeurs conçus sur mesure par AWS en s'appuyant sur la vaste expertise d'Amazon dans la création de solutions de plateforme pour les applications cloud s'exécutant à grande échelle. Ces processeurs se basent sur l'ensemble d'instructions Arm 64 bits et sont dotés de noyaux Arm Neoverse, ainsi que de silicium personnalisé conçu par AWS. Les noyaux agissent à une fréquence de 2,3 GHz.

Q : Quand faut-il utiliser des instances A1 ?

Les instances A1 permettent de réaliser d'importantes économies de coûts pour les charges de travail évolutives qui peuvent s'adapter à l'espace mémoire disponible. Les instances A1 sont idéales pour les applications évolutives comme des serveurs Web, des microservices conteneurisés et le traitement de données/journaux. Ces instances intéresseront également les développeurs, les passionnés et les formateurs au sein de la communauté de développeurs Arm.

Q : Les clients devront-ils modifier les applications et les charges de travail pour pouvoir exécuter les instances A1 ?

Les modifications requises dépendent de l'application. Les applications basées sur des langages compilés d'exécution ou interprétés (par exemple, Python, Java, PHP, Node.js) ne nécessitent aucune modification. En revanche, il se peut que d'autres applications doivent être recompilées. En outre, celles qui ne se basent pas sur des instructions x86 engendrent généralement peu ou pas de changement.

Q : Quels systèmes d'exploitation/images AMI sont pris en charge sur les instances A1 ?

Les images AMI suivantes sont prises en charge sur les instances A1 : Amazon Linux 2, Ubuntu 16.04.4 ou version ultérieure, Red Hat Enterprise Linux (RHEL) 7.6 ou version ultérieure, SUSE Linux Enterprise Server 15 ou version ultérieure. Les images AMI Fedora, Debian et NGINX Plus sont également prises en charge. Elles sont disponibles par l'intermédiaire des AMI communautaires et d'AWS Marketplace. Les AMI HVM basées sur EBS lancées sur les instances A1 nécessitent que des pilotes ENA et NVMe soient installés au lancement de l'instance.

Q : L'exécution des instances M6g et A1 est-elle soumise à des exigences spécifiques en matière d'AMI ?

Vous devrez utiliser les AMI « arm64 » avec les instances M6g et A1. Les AMI x86 ne sont pas compatibles avec les instances M6g et A1.

Q : Quand les clients doivent-ils utiliser les instances A1 plutôt que les nouvelles instances M6g ?

Les instances A1 demeurent très avantageuses en termes de coûts pour les charges de travail évolutives qui peuvent s'exécuter sur plusieurs cœurs plus petits et s'adapter à l'espace mémoire disponible. Les nouvelles instances M6g conviennent parfaitement à un large éventail d'applications qui nécessitent davantage de ressources de calcul, de mémoire, de mise en réseau et/ou qui peuvent bénéficier d'une mise à l'échelle des capacités de la plateforme. Les instances M6g garantissent le meilleur rapport qualité-prix au sein de la famille d'instances pour ces applications. M6g prend en charge des tailles d'instance jusqu'à 16xlarge (A1 prend en charge des tailles d'instance jusqu'à 4xlarge), 4 Go de mémoire par vCPU (A1 prend en charge 2 Go de mémoire par vCPU), et jusqu'à 25 Gbits/s de bande passante réseau (A1 prend en charge jusqu'à 10 Gbits/s).

Q : Quelles sont les différentes options de stockage disponibles pour les clients exécutant des instances A1 ?

Les instances A1 sont optimisées pour EBS par défaut et proposent une bande passante EBS maximale dédiée de 3 500 Mbit/s pour les volumes EBS chiffrés et non chiffrés. Les instances A1 prennent uniquement en charge l'interface Non-Volatile Memory Express (NVMe) pour accéder aux volumes de stockage EBS. Les instances A1 ne prennent pas en charge l'interface blkfront.

Q : Quelle interface réseau est prise en charge sur les instances A1 ?

Les instances A1 prennent en charge la mise en réseau améliorée avec ENA. Avec ENA, les instances A1 peuvent délivrer jusqu'à 10 Gb/s de bande passante réseau entre les instances lorsqu'elles sont lancées au sein d'un groupe de placement.

Q : Les instances A1 prennent-elles en charge le système AWS Nitro ?

Oui. Les instances A1 sont optimisées par AWS Nitro System qui associe un matériel dédié et un hyperviseur Nitro.

Question : Quel est l'intérêt des instances EC2 M5 par rapport aux instances EC2 M4 ?

Par rapport aux instances EC2 M4, les nouvelles instances EC2 M5 offrent aux clients davantage de performances de calcul et de stockage, des tailles d'instance plus grandes pour un prix plus bas et plus de cohérence et de sécurité. Le principal avantage offert par les instances EC2 M5 repose sur la dernière génération de processeurs Intel Xeon Scalable (Skylake-SP ou Cascade Lake), qui offre un rapport qualité-prix jusqu'à 20 % supérieur par rapport aux instances M4. Avec la prise en charge des instructions AVX-512 dans les instances M5 à la place des anciennes instructions AVX2 dans les instances M4, les clients bénéficient de deux fois plus de performances pour les charges de travail impliquant des opérations à virgule flottante. Les instances M5 offrent jusqu'à 25 Gb/s de bande passante réseau et jusqu'à 10 Gb/s de bande passante dédiée à Amazon EBS. Les instances M5 présentent également des performances de mise en réseau et d'exécution d'Amazon EBS considérablement supérieures pour les instances de plus petite taille dotées d'une capacité d'extension dans EBS.

Question : Quel est l'intérêt des instances M6i par rapport aux instances M5 ?

Les instances Amazon M6i sont alimentées par des processeurs Intel Xeon Scalable de 3e génération (dont le nom de code est Ice Lake) avec une fréquence d'horloge turbo sur tous les cœurs pouvant atteindre 3,5 GHz, offrent un rapport qualité-prix des performances de calcul jusqu'à 15 % supérieur à celui des instances M5, et un chiffrement de mémoire toujours actif grâce à Intel Total Memory Encryption (TME). Les instances Amazon EC2 M6i sont les premières à utiliser un « i » minuscule pour indiquer qu'il s'agit d'instances alimentées par Intel. Les instances M6i proposent une nouvelle taille d'instance (m6i.32xlarge) avec 128 vCPU et 512 GiB de mémoire, soit 33 % de plus que l'instance M5 la plus grande. Elles offrent également une bande passante mémoire par vCPU jusqu'à 20 % supérieure à celle des instances M5, ce qui permet aux clients d'effectuer efficacement des analyses en temps réel pour des applications d'IA/ML, de jeux et de calcul haute performance (HPC) gourmandes en données. Les instances M6i offrent aux clients jusqu'à 50 Gbit/s de vitesse de mise en réseau et 40 Gbit/s de bande passante vers Amazon Elastic Block Store, soit le double des instances M5. Les instances M6i permettent aussi aux clients d'utiliser Elastic Fabric Adapter sur les instances de taille 32xlarge, ce qui leur permet de disposer d'une faible latence et d'une communication entre les nœuds hautement évolutive. Pour des performances de réseaux optimales sur ces nouvelles instances, la mise à jour du pilote Elastic Network Adapter (ENA) peut être requise. Pour obtenir davantage d'informations sur le pilote ENA optimal pour M6i, veuillez consulter cet article.

Q : Comment la prise en charge d'Intel AVX-512 profite-t-elle aux clients qui utilisent la famille EC2 M5 ou la famille M6i ?

Intel Advanced Vector Extension 512 (AVX-512) est un nouveau jeu d'instructions de processeur disponible sur la dernière gamme de processeurs Intel Xeon Scalable. Il permet d'accélérer les performances pour différentes charges de travail et utilisations, notamment les simulations scientifiques, les analyses financières, l'intelligence artificielle, le machine learning/deep learning, la modélisation et l'analyse 3D, le traitement d'images et de vidéos, la cryptographie et la compression des données, entre autres. Intel AVX-512 est particulièrement efficace dans le traitement des algorithmes de chiffrement, et contribue donc à la réduction du coût des opérations cryptographiques. Ainsi, les clients qui utilisent la famille EC2 M5 ou M6i peuvent déployer des données et des services plus sécurisés dans des environnements distribués sans compromettre les performances.

Q : Qu'appelle-t-on instances M5zn ?

Les instances M5zn sont une variante des instances à usage général M5 qui sont optimisées par le processeur Intel Xeon Scalable le plus rapide dans le cloud, offrant une fréquence turbo maintenue sur tous les cœurs jusqu'à 4,5 GHz, ainsi qu'un débit réseau de 100 Gbit/s et la prise en charge de l'EFA Amazon. Les instances M5zn sont une solution idéale pour des charges de travail telles que les jeux, les applications financières, les applications de modélisation de simulation telles que celles utilisées dans les secteurs de l'automobile, de l'aérospatiale, de l'énergie et des télécommunications, ainsi que d'autres applications de calcul haute performance.

Q : En quoi les instances M5zn diffèrent-elles des instances z1d ?

Les instances z1d sont des instances à mémoire optimisée. Elles se caractérisent par une version haute fréquence des processeurs Intel Xeon Scalable (jusqu'à 4.0 GHz), ainsi qu'un stockage NVMe local. Les instances M5zn sont à usage général. Elles se caractérisent par une version haute fréquence de la 2ème génération de processeurs Intel Xeon Scalable (jusqu'à 4.5 GHz), ainsi que des performances réseau allant jusqu'à 100 Gbit/s, et la prise en charge de l'EFA. Les instances M5zn offrent un meilleur rapport qualité-prix que les instances z1d.

Instances à mémoire élevée

Q : Que sont les instances EC2 High Memory ?

Les instances Amazon EC2 High Memory (U-1 et U7i) offrent 3, 6, 9, 12, 16, 18, 24 ou 32 Tio de mémoire en une seule instance. Ces instances sont conçues pour exécuter de grandes bases de données en mémoire, y compris les installations de production de SAP HANA, dans le cloud.

Les instances EC2 High Memory (U-1) avec 3, 6, 9 et 12 Tio sont alimentées par une plateforme à 8 sockets avec les processeurs Intel® Xeon® Platinum 8176M (Skylake) ou 8280L (Cascade Lake). Les instances EC2 High Memory (U-1) avec 18 et 24 Tio sont alimentées par une plateforme à 8 sockets avec des processeurs 8280L Intel® Xeon® Scalable (Cascade Lake) de 2e génération.

Les instances Amazon EC2 U7i sont alimentées par des processeurs Intel Xeon Scalable de 4e génération (Sapphire Rapids) à 1,9 GHz (Turbo Boost à 2,90 GHz). Les instances U7i sont la première offre à 8 sockets basée sur une mémoire DDR5 proposée par un fournisseur de cloud de premier plan. Les instances U7i offrent un rapport prix/performances jusqu’à 45 % supérieur à celui des instances U-1 existantes. Les instances U7i prennent en charge 896 vCPU et disposent d’une bande passante Elastic Block Store (EBS) 2,5 fois supérieure à celle des instances Amazon EC2 High Memory (U-1).

Les instances Amazon EC2 High Memory offrent jusqu’à 100 Gbit/s de bande passante Elastic Block Store (EBS) pour les volumes de stockage, y compris io2 Block Express, afin de prendre en charge les cas d’utilisation gourmands en E/S tels que l’hydratation et la sauvegarde/restauration des données.

Q : Les instances High Memory sont-elles certifiées par SAP pour exécuter les charges de travail SAP HANA ?

Les instances High Memory (U-1 et U7i) avec 3, 6, 9, 12, 16, 18 et 24 Tio de mémoire sont certifiées par SAP pour l’exécution de Business Suite sous HANA, de Business Suite S/4HANA nouvelle génération, de solutions Data Mart sous HANA, de Business Warehouse sous HANA et de SAP BW/4HANA dans des environnements de production. Pour plus d’informations, consultez le répertoire des matériels SAP HANA certifiés et pris en charge par SAP.

Q : Quels types d’instances sont disponibles pour les instances High Memory ?

Les instances High Memory sont disponibles sous forme d’instances de matériel nu (U-1 uniquement) et virtualisées (U-1 et U7i). Les clients peuvent ainsi choisir d’avoir un accès direct aux ressources matérielles sous-jacentes ou de profiter de la flexibilité supplémentaire qu’offrent les instances virtualisées, y compris avec les options d’achat à la demande et Savings Plan d’un et de trois ans. Consultez les options disponibles pour les instances High Memory dans la section Optimisation de la mémoire de la page Types d’instances EC2.

Q : Quels sont les avantages de l’utilisation d’instances virtualisées High Memory par rapport aux instances matériel nu High Memory ?

Les instances virtuelles High Memory présentent les avantages suivants par rapport aux instances High Memory Metal : temps de lancement et de redémarrage nettement plus courts, options d’achat flexibles (à la demande, plan d’économies, instances réservées, hôtes dédiés), choix du type de location, options en libre-service et prise en charge d’un plus grand nombre de volumes EBS.

Q : Quand faut-il utiliser une instance « Metal » High Memory plutôt qu’une instance « virtualisée » High Memory ?

Bien qu’il soit généralement recommandé d’utiliser des instances « virtualisées » High Memory, il existe des situations spécifiques dans lesquelles seules les instances High Memory Metal peuvent fonctionner. Ces situations incluent : lors de l’utilisation de versions de système d’exploitation qui ne sont pas prises en charge sur les instances virtuelles High Memory OU lors de l’utilisation d’applications qui doivent s’exécuter en mode non virtualisé pour répondre aux exigences de licence ou de support OU lors de l’utilisation d’applications nécessitant un accès à un ensemble de fonctionnalités matérielles (telles que Intel VT-x) OU lors de l’utilisation d’un hyperviseur personnalisé (par exemple, ESXi).

Q : Comment migrer des instances High Memory Metal vers des instances virtualisées High Memory ?

Vous pouvez migrer votre instance métallique à mémoire élevée vers une instance virtualisée en quelques étapes seulement. 1/Arrêtez votre instance, 2/ Modifiez l'instance et le type de location via l'API EC2 et 3/ Redémarrez votre instance. Si vous utilisez Red Hat Enterprise Linux pour SAP ou SUSE Linux Enterprise Server pour SAP, vous devez vous assurer que les versions de votre système d’exploitation et de votre noyau sont compatibles avec les instances virtualisées High Memory. Pour plus de détails, consultez Migration de SAP HANA sur AWS vers une instance EC2 High Memory.

Q : Quelles sont les options de stockage disponibles pour les instances High Memory ?

Les instances High Memory prennent en charge les volumes Amazon EBS pour le stockage. Les instances High Memory sont optimisées pour EBS par défaut.

Q : Quelle interface de stockage est prise en charge par les instances High Memory ?

Les instances High Memory accèdent aux volumes EBS via des interfaces NVM Express (NVMe) PCI. Les volumes EBS liés aux instances High Memory apparaissent comme des périphériques NVMe. NVMe est une interface de stockage efficace et évolutive, couramment utilisée pour les disques SSD flash, qui permet de réduire le temps de latence et d'augmenter les E/S et le débit des disques. Les volumes EBS sont liés et déliés par un connecteur PCI.

Q : Quelles sont les performances réseau prises en charge par les instances High Memory ?

Les instances High Memory utilisent un adaptateur réseau élastique (ENA) pour la mise en réseau et activent la mise en réseau améliorée par défaut. Grâce à ENA, les instances High Memory peuvent utiliser jusqu’à 100 Gbit/s (U-1) et jusqu’à 200 Gbit/s (U7i) de bande passante du réseau.

Q : Puis-je exécuter des instances High Memory dans mon Virtual Private Cloud (VPC) Amazon existant ?

Vous pouvez exécuter des instances de mémoire élevée dans vos VPC Amazon existants et dans les nouveaux.

Q : Quel est l'hyperviseur sous-jacent des instances High Memory ?

Les instances de mémoire élevée utilisent l'hyperviseur Nitro léger basé sur une technologie de noyau KVM.

Q : Les instances High Memory permettent-elles de contrôler l'état de gestion de l'alimentation de la CPU ?

Oui. Vous pouvez configurer les états C et P sur les instances High Memory (U-1 Metal).  Vous pouvez configurer des états C sur les instances virtuelles U-1 et U7i.   Les états C peuvent activer des fréquences turbo supérieures (jusqu’à 4,0 GHz). Quant aux états P, ils servent à abaisser les variations de performances en bloquant tous les cœurs sur des états P1 ou plus. Cette opération est similaire à la désactivation du mode Turbo et permet d'exécuter constamment le processeur à la fréquence d'horloge de base du CPU.

Q : Quelles sont les options d’achat disponibles pour les instances High Memory ?

Les instances virtualisées EC2 High Memory sont disponibles à l’achat via On-Demand, un plan d’économies sur un an et trois ans et une instance réservée sur un an et trois ans. Les instances de matériel nu EC2 High Memory sont uniquement disponibles sous forme d’hôtes EC2 dédiés sur des réservations de un et trois ans.

Q : Quel est le cycle de vie d’un hôte dédié ?

Une fois qu'un Hôte dédié est alloué à votre compte, il sera en attente pour votre utilisation. Vous pouvez alors lancer une instance avec une location de «hôte» en utilisant RunInstances d'API, et vous pouvez également arrêter/ démarrer/terminer l'instance via l'API. Vous pouvez utiliser la console de gestion AWS pour gérer l'hôte dédié ainsi que l'instance. 

Q : Puis-je lancer, arrêter/démarrer et mettre fin aux instances High Memory à l'aide de l'interface CLI ou du kit SDK AWS ?

Vous pouvez lancer, arrêter/démarrer et terminer ces instances en utilisant AWS CLI/SDK.

Q : Quelles images AMI sont prises en charge par les instances High Memory ?

Les AMI HVM soutenues par EBS avec prise en charge de la mise en réseau ENA peuvent être utilisées avec des instances de mémoire élevée. Les derniers AMI pour Amazon Linux, Red Hat Enterprise Linux, SUSE Enterprise Linux Server et Windows Server sont pris en charge. La prise en charge du système d’exploitation pour les charges de travail de SAP HANA sur les instances High Memory comprend : SUSE Linux Enterprise Server 12 SP3 pour SAP, Red Hat Enterprise Linux 7.4 pour SAP, Red Hat Enterprise Linux 7.5 pour SAP, SUSE Linux Enterprise Server 12 SP4 pour SAP, SUSE Linux Enterprise Server 15 pour SAP, Red Had Enterprise Linux 7.6 pour SAP. Consultez la documentation technique SAP sur AWS pour obtenir les informations les plus récentes sur les systèmes d’exploitation pris en charge.

Existe-t-il des cadres de déploiement de référence SAP HANA standard disponibles pour l’instance High Memory et le Cloud AWS ?

Vous pouvez utiliser les déploiements SAP HANA de référence AWS Quick Start pour déployer rapidement tous les blocs SAP HANA nécessaires sur des instances de mémoire élevée, en suivant les recommandations de SAP pour bénéficier de meilleures performances et d'une meilleure fiabilité. Les outils AWS Quick Start sont modulaires et personnalisables. Vous pouvez donc y ajouter des fonctionnalités ou modifier celles qui sont adoptées besoins.

Instances à mémoire optimisée

Q : Quand dois-je utiliser des instances optimisées pour la mémoire ?

Les instances optimisées pour la mémoire offrent une grande capacité de mémoire pour les applications qui en ont particulièrement besoin, notamment les applications en mémoire, les bases de données en mémoire, les solutions d'analyse en mémoire, le HPC, le calcul scientifique et d'autres applications consommant beaucoup de mémoire. 

Q : Qu'appelle-t-on les instances Amazon EC2 R6g ?

Les instances Amazon EC2 R6g sont la prochaine génération d'instances optimisées pour la mémoire par les processeurs AWS Graviton2 basés sur ARM. Le rapport prix/performances des instances R6g est jusqu'à 40 % supérieur à celui des instances R5. Elles reposent sur le système AWS Nitro, une combinaison qui associe un matériel dédié et un hyperviseur Nitro.

Q : Quels sont les principaux cas d'utilisation idéaux pour les instances R6g ?

Les instances R6g offrent des avantages significatifs en termes de prix/performance pour les charges de travail gourmandes en mémoire telles que les instances et sont idéales pour exécuter des charges de travail gourmandes en mémoire telles que les bases de données libres, les caches en mémoire et l'analyse big data en temps réel. Les clients qui déploient des applications basées sur des logiciels open source dans toute la famille d'instances R trouveront les instances R6g très utiles pour obtenir le meilleur rapport qualité/prix au sein de la famille d'instances. Les développeurs d'Arm peuvent également créer leurs applications directement sur le matériel natif d'Arm plutôt que de recourir à la compilation croisée ou à l'émulation.

Q : Quelles sont les différentes options de stockage disponibles sur les instances R6g ?

Les instances R6g sont optimisées pour EBS par défaut et proposent une bande passante EBS maximale dédiée de 19 000 Mbits/s pour les volumes EBS chiffrés et non chiffrés. Les instances R6g prennent uniquement en charge l'interface Non-Volatile Memory Express (NVMe) pour accéder aux volumes de stockage EBS. Par ailleurs, des options de stockage d'instances NVMe locales sont aussi disponibles via les types d'instances R6gd.

Q : Quelle est l'interface réseau prise en charge sur les instances R6g ?

Les instances R6g prennent en charge la mise en réseau améliorée basée sur ENA. Avec ENA, les instances R6g peuvent délivrer jusqu'à 25 Gbits/s de bande passante réseau entre les instances lorsqu'elles sont lancées au sein d'un groupe de placement.

Q : Les clients auront-ils besoin de modifier les applications et les charges de travail pour pouvoir exécuter les instances R6g ?

Les modifications requises dépendent de l'application. Les clients qui exécutent des applications basées sur des logiciels open source trouveront que l'écosystème Arm est bien développé et prend probablement déjà en charge leurs applications. La plupart des distributions Linux ainsi que les conteneurs (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) prennent en charge l'architecture Arm. Les clients trouveront des versions Arm des progiciels couramment utilisés disponibles pour l'installation par les mêmes mécanismes que ceux qu'ils utilisent actuellement. Les applications basées sur des langages interprétés (tels que Java, Node, Python) qui ne dépendent pas de jeux d'instructions CPU natifs devraient fonctionner sans modifications ou avec un nombre de changements minimal. Les applications développées à l'aide de langages compilés (C, C++, GoLang) devront être recompilées pour générer des binaires Arm. L'architecture Arm est bien prise en charge dans ces langages de programmation populaires et le code moderne nécessite généralement une simple commande « Make ». Référez-vous au Guide de démarrage sur GitHub pour en savoir plus.

Q : Pourquoi choisir des instances R6i plutôt que des instances R5 ?

Les instances Amazon R6i sont équipées de processeurs Intel Xeon Scalable de 3e génération (Ice Lake) avec une fréquence turbo sur tous les cœurs de 3,5 GHz. Elles offrent un rapport performances de calcul/prix jusqu'à15 % supérieure à celle des instances R5 et un chiffrement de la mémoire toujours actif grâce à Intel Total Memory Encryption (TME). Les instances Amazon EC2 R6i utilisent un « i » minuscule pour indiquer qu'il s'agit d'instances équipées par Intel. Les instances R6i proposent une nouvelle taille d'instance (r6i.32xlarge) avec 128 vCPU et 1 024 GiB de mémoire, soit 33 % de plus que l'instance R5 la plus grande. Elles offrent également une bande passante mémoire par vCPU jusqu'à 20 % supérieure à celle des instances R5, ce qui vous permet d'effectuer efficacement des analyses en temps réel pour des applications d'IA/ML, de jeux et de calcul haute performance (HPC) gourmandes en données. Les instances R6i offrent aux clients jusqu'à 50 Gbit/s de vitesse réseaux et 40 Gbit/s de bande passante vers Amazon Elastic Block Store, soit le double des instances R5. Les instances R6i vous permettent aux clients d'utiliser Elastic Fabric Adapter (EFA) sur les tailles 32xlarge et metal, ce qui rend possible une communication entre les nœuds à faible latence et à grande échelle. Pour des performances réseau optimales sur ces nouvelles instances, la mise à jour du pilote Adaptateur réseau élastique (ENA) peut être requise. Pour en savoir plus sur le pilote ENA optimal pour R6i, référez-vous à la section « Que dois-je faire avant de migrer mon instance EC2 vers une instance de sixième génération ? » dans le Centre de connaissances.

Q : Qu'appelle-t-on instances Amazon EC2 R5b ?

Les instances R5b sont des variantes optimisées pour EBS d'instances R5 optimisée pour la mémoire, qui offrent des performances EBS jusqu'à trois fois supérieures à celles d'instances R5 de même taille. Les instances R5b offrent une bande passante pouvant atteindre 60 Gbit/s et des performances EBS de 260 000 IOPS, le stockage par bloc le plus rapide sur EC2. Elles reposent sur le système AWS Nitro, qui est une combinaison de matériel dédié et d'hyperviseur Nitro.

Q : Quels sont des cas d'utilisation idéaux pour les instances R5b ?

Les instances R5b sont idéales pour les charges de travail de bases de données relationnelles conséquentes, notamment Microsoft SQL Server, SAP HANA, IBM DB2 et Oracle, qui exécutent des applications gourmandes en performances, telles que les plateformes commerciales, les systèmes ERP et les systèmes de dossiers médicaux. Les clients qui cherchent à migrer vers AWS des charges de travail locales conséquentes assorties d'exigences élevées en matière de performances de stockage trouveront dans les instances R5b une solution appropriée.

Q : Quelles sont les différentes options de stockage disponibles sur les instances R5b ?

Les instances R5b sont optimisées pour EBS par défaut, et offrent une bande passante EBS dédiée jusqu'à 60 000 Mbits/s ainsi que 260 K IOPS pour les volumes EBS tant chiffrés que non chiffrés. Les instances R5b prennent uniquement en charge l'interface Non-Volatile Memory Express (NVMe) pour accéder aux volumes de stockage EBS. R5b est compatible avec tous les types de volumes, à l'exception des volumes io2.

Q : Quand dois-je utiliser des instances R5b ?

Les clients exécutant des charges de travail telles que des bases de données relationnelles et des analyses de données volumineuses, qui souhaitent profiter des performances accrues du réseau de stockage EBS peuvent utiliser des instances R5b pour obtenir des performances et une bande passante supérieures. Les clients peuvent également réduire les coûts en migrant leurs charges de travail vers des instances R5b de plus petite taille ou en consolidant les charges de travail sur des instances R5b moins nombreuses.

Q : Quelles sont les options de stockage disponibles pour les instances High Memory ?

Les instances de mémoire élevée prennent en charge les volumes Amazon EBS pour le stockage. Les instances de mémoire élevée sont optimisées pour EBS par défaut et proposent jusqu'à 38 Gbit/s de bande passante de stockage vers les volumes EBS chiffrés et non chiffrés.

Q : Que sont les instances Amazon EC2 X2gd ?

Les instances Amazon EC2 X2gd sont la prochaine génération d'instances optimisées pour la mémoire alimentées par les processeurs AWS Graviton2 basés sur ARM à technologie AWS. Les instances X2gd offrent un rapport prix/performance jusqu'à 55 % supérieur à celui des instances X1 basées sur x86 et offrent le coût le plus bas par Gio de mémoire dans Amazon EC2. Ce sont les premières instances de la famille X créées sur le AWS Nitro System, qui est une combinaison de matériel dédié et d'hyperviseur Nitro.

Q : Quelles charges de travail sont adaptées aux instances X2gd ?

X2gd est idéal pour les clients utilisant des charges de travail évolutives liées à la mémoire et compatibles avec ARM telles que Redis et les bases de données en mémoire Memcached, qui ont besoin d'un accès mémoire à faible latence et qui bénéficient de plus de mémoire par vCPU. X2gd est également bien adapté aux bases de données relationnelles telles que PostgreSQL, MariaDB, MySQL et RDS Aurora. Les clients qui exécutent des charges de travail gourmandes en mémoire, comme Apache Hadoop, des analyses en temps réel et des mise en cache en temps réel bénéficieront du ratio vCPU/mémoire de 1:16 de X2gd. Les charges de travail à thread unique, comme les tâches de vérification du backend de l'EDA, bénéficieront du cœur physique et de la mémoire des instances X2gd, ce qui leur permettra de consolider davantage de charges de travail sur une seule instance. L'instance X2gd dispose également d'un stockage en bloc local NVMe SSD pour améliorer les temps de réponse en agissant comme une couche de mise en cache.

Q : Quand dois-je utiliser les instances X2gd par rapport aux instances de la famille X1, X2i ou R ?

Les instances X2gd sont idéales pour les charges de travail évolutives liées à la mémoire et compatibles avec ARM telles que les bases de données en mémoire, les applications analytiques de mémoire, les charges de travail de base de données relationnelle en open source, les charges de travail EDA et les larges serveurs de mise en cache. Les instances X2gd offrent aux clients le coût le plus bas par gigaoctet de mémoire dans EC2, avec des tailles jusqu'à 1 Tio. Les instances X2iezn, X2idn, X2iedn, X1 et X1e utilisent des processeurs x86 et conviennent aux charges de travail de classe entreprise à forte intensité de mémoire et évolutives, telles que les charges de travail Windows, les bases de données en mémoire (par exemple, SAP HANA) et les bases de données relationnelles (par exemple, OracleDB). Les clients peuvent exploiter la famille d'instances X basée sur x86 pour des tailles de mémoire plus importantes, jusqu'à 4 TiB. Les instances R6g et R6gd conviennent aux charges de travail comme les applications web, les bases de données et les requêtes d'indexation de recherches qui ont besoin de plus de vCPU durant les périodes de traitement de données intensif. Les clients exécutant des charges de travail liées à la mémoire qui nécessitent moins de 1 Tio de mémoire et qui dépendent du jeu d'instructions x86, comme les applications Windows et les applications comme Oracle ou SAP, peuvent tirer parti de la famille d'instances R5 et R6.

Q : Quand dois-je utiliser les instances X2idn et X2iedn ?

Les instances X2idn et X2iedn sont équipées de processeurs Intel Xeon Scalable de 3e génération avec une fréquence turbo tout cœur allant jusqu'à 3,5 GHz et offrent des performances de calcul jusqu'à 50 % supérieures à celles des instances X1 comparables. Les instances X2idn et X2iedn comprennent toutes deux jusqu'à 3,8 To de stockage local NVMe SSD et jusqu'à 100 Gbit/s de bande passante réseau, tandis que X2idn offre jusqu'à 2 Tio de mémoire et X2iedn jusqu'à 4 Tio de mémoire. Les instances X2idn et X2iedn sont certifiées SAP et conviennent parfaitement aux charges de travail telles que les bases de données traditionnelles et en mémoire de petite à grande taille, ainsi que pour l'analytique.

Q : Quand dois-je utiliser des instances X2iezn ?

Les instances X2iezn sont dotées des processeurs Intel Xeon Scalable les plus rapides du cloud et conviennent parfaitement aux charges de travail qui nécessitent des performances élevées en mode single-threading, combinées à un ratio mémoire-vCPU élevé et à une mise en réseau à grande vitesse. Les instances X2iezn ont une fréquence turbo pour tous les cœurs allant jusqu'à 4,5 GHz, présentent un rapport de 32:1 entre la mémoire et les vCPU, et offrent un rapport prix/performance de calcul jusqu'à 55% supérieur à celui des instances X1e. Les instances X2iezn conviennent parfaitement aux charges de travail de l'automatisation de la conception de composants électroniques (Electronic Design Automation ou EDA), telles que la vérification physique, l'analyse de synchronisation statique, le contrôle de la puissance et la simulation au niveau des portes de circuits complets.

Q : Quels systèmes d'exploitation/AMI sont pris en charge sur les instances X2gd ?

Les AMI suivantes sont prises en charge : Amazon Linux 2, Ubuntu 18.04 ou version ultérieure, Red Hat Enterprise Linux 8.2 ou version ultérieure, et SUSE Enterprise Server 15 ou version ultérieure. Les clients trouveront des AMI supplémentaires comme Fedora, Debian, NetBSD et CentOS par le biais des AMI communautaires et de l'AWS Marketplace. Des AMI optimisées pour Amazon ECS et EKS sont aussi disponibles pour les applications conteneurisées.

Q : Quand dois-je utiliser des instances X1 ?

Les instances X1 sont idéales pour l'exécution de bases de données en mémoire comme SAP HANA, les moteurs de traitement de Big Data comme Apache Spark ou Presto et les applications de Calcul Haute Performance (HPC). Elles sont certifiées par SAP pour l'exécution d'environnements de production de Business Suite S/4HANA nouvelle génération, Business Suite sous HANA (SoH), Business Warehouse sous HANA (BW) et les solutions Data Mart sous HANA dans le cloud AWS.

Q : Les instances X1 et X1e permettent-elles de contrôler l'état de gestion de l'alimentation de la CPU ?

Oui. Vous pouvez configurer les états C et P sur des instances x1e.32xlarge, x1e.16xlarge, x1e.8xlarge, x1.32xlarge et x1.16xlarge. Les états C peuvent activer des fréquences turbo supérieures (jusqu'à 3,1 GHz avec un turbo sur un ou deux cœurs). Quant aux états P, ils servent à abaisser les variations de performances en bloquant tous les cœurs sur des états P1 ou plus. Cette opération est similaire à la désactivation du mode Turbo et permet d'exécuter constamment le processeur à la fréquence d'horloge de base du CPU.

x1e.32xlarge prend également en charge Windows Server 2012 R2 et 2012 RTM. x1e.xlarge, x1e.2xlarge, x1e.4xlarge, x1e.8xlarge, x1e.16xlarge et x1.32xlarge prennent également en charge Windows Server 2012 R2, 2012 RTM et 2008 R2 64 bits (Windows Server 2008 SP2 et les versions antérieures ne sont pas pris en charge) et x1.16xlarge prend en charge Windows Server 2012 R2, 2012 RTM, 2008 R2 64 bits, 2008 SP2 64 bits et 2003 R2 64 bits (les versions Windows Server 32 bits ne sont pas prises en charge).

Existe-t-il des cadres de déploiement de référence SAP HANA standard disponibles pour l'instance High Memory et AWS ?

Vous pouvez utiliser les déploiements AWS Launch Wizard pour SAP ou SAP HANA de référence AWS Quick Start pour déployer rapidement tous les blocs SAP HANA nécessaires sur des instances à mémoire élevée en suivant les recommandations d'AWS et de SAP pour des performances et une fiabilité élevées.

Instances de la génération précédente

Q : Pourquoi les instances M1, C1, CC2 et HS1 ne figurent-elles plus sur les pages de tarification ?

Elles ont été déplacées vers la page consacrée aux instances de la génération précédente.

Q : Cette ancienne génération d'instances est-elle encore prise en charge ?

Oui. Les instances faisant partie de la génération précédente restent totalement prises en charge.

Q : Est-il encore possible d'utiliser ou d'ajouter des instances de la génération précédente ?

Oui. Les instances de la génération précédente sont encore disponibles en tant qu'instances à la demande, réservées ou Spot, et sont accessibles via nos API, les outils de ligne de commande et l'interface de la console de gestion EC2.

Q : Mes instances appartenant à la génération précédente vont-elles être supprimées ?

Non. Tant que les instances n'atteignent pas leur fin de vie et ne sont pas totalement obsolètes, les instances des générations précédentes seront pleinement fonctionnelles et ne seront pas supprimées en raison de cette modification. Si AWS décide de rendre obsolètes les instances de génération précédente pour des raisons liées à la fin de vie, vous serez informé de cette modification.  

Q : Les instances de la génération précédente seront-elles désactivées bientôt ?

Comme c'est le cas pour toute technologie connaissant des évolutions rapides, la dernière génération offre généralement des performances supérieures à tarif égal. Nous encourageons donc nos clients à profiter de ces progrès technologiques. Si AWS décide de rendre obsolètes les instances de génération précédente pour des raisons liées à la fin de vie, vous serez informé de cette modification.

Q : Les instances de la génération précédente que j'ai achetées en tant qu'instances réservées seront-elles affectées d'une quelconque manière ?

Non. Vos instances réservées ne seront pas modifiées, et les instances appartenant à la génération précédente resteront disponibles.

Instances optimisées pour le stockage

Q : Qu'est-ce qu'une instance à stockage dense ?

Les instances à stockage dense sont conçues pour les charges de travail qui nécessitent un accès séquentiel rapide en lecture/écriture à de très gros volumes de données. Il peut s'agir, par exemple, de calculs distribués Hadoop, d'entrepôts de données à traitement massivement parallèle, ou encore d'applications de traitement de fichiers journaux. Les instances à stockage dense offrent le meilleur rapport prix/Go de stockage et prix/débit de disque de toute la gamme EC2.

Q : En quoi les instances à stockage dense se distinguent-elles des instances à E/S élevées ?

Les instances E/S élevées (Im4gn, Is4gen, I4i, I3, I3en) sont destinées aux charges de travail qui exigent une faible latence et des E/S aléatoires élevées en plus d'une densité de stockage modérée. Elles offrent le meilleur prix/IOPS parmi les autres types d'instances EC2. Les instances à stockage dense (D3, D3en, D2) et à stockage sur disque dur (H1) sont optimisées pour les applications qui nécessitent un accès séquentiel rapide en lecture et en écriture, ainsi que de faibles coûts de stockage, afin de traiter de très gros volumes de données. Ce type d'instance offre le meilleur rapport prix/Go de stockage et prix/débit de toutes les instances EC2.

Q : Quel est le débit de disque maximal fourni par les instances à stockage dense et à stockage sur disque dur ?

Le plus grand format d'instance à stockage sur disque dur dense de la génération actuelle, appelé d3en.12xlarge, peut atteindre un débit de disque de 6,2 Gio/s en lecture et 6,2 Gio/s en écriture, avec des blocs d'une taille de 128 K. Veuillez consulter la page détaillée du produit pour obtenir des informations supplémentaires sur les performances. Pour optimiser les performances de vos instances D2, D3 et D3en sous Linux en termes de débit de disque, nous vous conseillons d'utiliser la dernière version de l'AMI Linux Amazon, ou une autre AMI Linux dotée de la version 3.8 ou ultérieure du noyau et prenant en charge les attributions persistantes, qui sont une extension du protocole d'anneau de blocs Xen qui apporte des améliorations notables en termes de débit de disque et de capacité de mise à l'échelle.

Q : Les instances à stockage dense et à stockage sur disque dur fournissent-elles des mécanismes de basculement ou de redondance ?

Les instances D2 et H1 fournissent des notifications pour les défaillances matérielles. Comme tout stockage d'instance, les volumes de stockage sur disque dur dense ne sont pas conservés au-delà de la durée de vie de l'instance. Nous vous recommandons donc d'établir un certain niveau de redondance (par exemple via RAID 1/5/6) ou d'utiliser des systèmes de fichiers (tels que HDFS et MapR-FS) qui prennent en charge la redondance et la tolérance aux pannes. Vous pouvez également sauvegarder régulièrement des données vers d'autres solutions de stockage de données telles qu'Amazon EBS ou Amazon S3.

Q : En quoi les instances à stockage dense sur disque dur se distinguent-elles d'Amazon EBS ?

Le service Amazon EBS est une solution de stockage permanent au niveau bloc destinée à Amazon EC2, à la fois simple, élastique et fiable (grâce à la réplication), et qui permet de faire abstraction des détails des supports de stockage sous-jacents utilisés. Les instances Amazon EC2 avec stockage sur disque dur local ou NVMe offrent des blocs de construction de stockage haute performance directement attachés, qui peuvent être utilisés pour diverses applications de stockage. Les instances de stockage dense sont conçues spécialement pour les clients qui souhaitent bénéficier d'un accès séquentiel rapide en lecture/écriture à de très gros volumes de données stockés localement (par exemple, dans le cas de calculs distribués Hadoop ou d'entrepôts de données à traitement massivement parallèle).

Q : Puis-je lancer des instances à stockage dense sur disque dur en tant qu'instances optimisées Amazon EBS ?

Chaque type d'instance de stockage sur disque dur (H1, D2, D3 et D3en) est optimisé pour EBS par défaut. Dans la mesure où cette fonctionnalité est toujours activée, le lancement explicite d'une de ces instances en tant qu'instance optimisée pour EBS n'affecte pas le comportement de l'instance. Pour plus d'informations, voir Instances optimisées pour Amazon EBS.

Q : Puis-je lancer des instances D2 en tant qu'instances optimisées Amazon EBS ?

Chaque instance de type D2 est optimisée pour EBS par défaut. Les instances D2 offrent un débit de 500 à 4 000 Mbit/s dans EBS, en plus du débit réseau à usage général fourni à l'instance. Dans la mesure où cette fonctionnalité est toujours activée sur les instances D2, le lancement explicite d’une instance D2 en tant qu’instance optimisée pour EBS n’affectera pas le comportement de l’instance.

Q : Qu’est-ce qu’une instance à E/S élevées ?

Les instances E/S élevées utilisent le stockage d'instance local sur NVMe pour offrir aux applications une capacité E/S très élevée à faible latence, et sont optimisées pour les applications qui nécessitent des millions d'IOPS (opérations d'E/S par seconde). Comme les instances en cluster, les instances à E/S élevées peuvent être mises en cluster à l'aide de groupes de placement du cluster pour une mise en réseau à faible latence.

Q : Est-ce que toutes les fonctions d'Amazon EC2 sont disponibles pour les instances à E/S élevées ?

Les instances à E/S élevées prennent en charge toutes les fonctions Amazon EC2. Les instances Im4gn, Is4gen, I4i, I3 et I3en offrent uniquement le stockage NVMe, tandis que les instances I2 de la génération héritée autorisent l'accès au stockage blkfront existant.

Q : AWS propose d'autres offres en matière de bases de données et de Big Data. Dans quels cas ou pour quelle raison devrais-je utiliser des instances à E/S élevées ?

Les instances E/S élevées sont idéales pour les applications qui nécessitent un accès à des millions d'IOPS à faible latence, et peuvent tirer parti de magasins de données et d'architectures qui gèrent la disponibilité et la redondance des données. Exemples d'applications :

  • Bases de données NoSQL telles que Cassandra et MongoDB
  • Bases de données en mémoire, comme Aerospike
  • Charges de travail Elasticsearch et d'analyses
  • Systèmes OLTP

Q : Les instances à E/S élevées proposent-elles des mécanismes de basculement ou la redondance ?

Comme les autres types d'instances Amazon EC2, le stockage d'instance sur des instances Im4gn, Is4gen, I4i, I3 et I3en persiste pendant tout le cycle de vie de l'instance. Les clients sont supposés intégrer la résilience dans leurs applications. Nous préconisons l'utilisation de bases de données et de systèmes de fichiers qui prennent en charge la redondance et la tolérance aux pannes. Il est conseillé aux clients de sauvegarder régulièrement leurs données dans Amazon S3 afin d'améliorer leur durabilité.

Q : Les instances à E/S élevées prennent-elles en charge la commande TRIM ?

La commande TRIM permet au système d'exploitation de signaler aux disques SSD les blocs de données qui ne sont plus considérés comme étant utilisés et peuvent être effacés en interne. En l'absence de commande TRIM, les futures opérations d'écriture dans les blocs concernés peuvent ralentir considérablement. Les instances Im4gn, Is4gen, I4i, I3 et I3en prennent en charge TRIM.

Q : Comment les instances D3 et D3en se comparent-elles aux instances D2 ?

Les instances D3 et D3en offrent des spécifications améliorées par rapport aux instances D2 sur les attributs de calcul, de stockage et de réseau suivants :

  • Les instances D3 et D3en offrent des performances de calcul jusqu'à 30 % supérieures à celles d'instances D2 équivalentes. Le bénéfice exact en termes de performance dépendra de la charge de travail spécifique.
  • Les instances D3 et D3en offrent un débit de disque respectivement jusqu'à 45 % et 100 % supérieur à celui d'instances D2.
  • Les instances D3 sont disponibles à un prix inférieur de 5 % à celui des instances D2. Les instances D3en réduisent le coût par To de stockage jusqu'à 80 % par rapport aux instances D2.
  • Les instances D3 et D3en sont dotées de l'Intel Advanced Vector Extensions (AVX 512) qui offrent jusqu'à 2 fois plus de FLOPS par cycle que l'AVX 2 sur D2.
  • Les instances D3en offrent une nouvelle taille d'instance (12xl) avec 48 vCPU et 7 To de stockage par vCPU pour 336 To de stockage total, mais la moitié de la mémoire par vCPU des instances D2 avec 48 To de stockage total.
  • Les instances D3 et D3en offrent respectivement jusqu'à 25 Gbit/s et 75 Gbit/s de bande passante du réseau sur leurs plus grandes tailles afin de répondre aux besoins des clients en matière de performances réseau pour l'exécution de charges de travail de big data et de clusters de systèmes de fichiers.

Q : Les instances D3 et D3en chiffrent-elles les volumes de stockage et le trafic réseau ?

Oui. Les données écrites sur les volumes de stockage seront chiffrées au repos au moyen du chiffrement AES-256-XTS. Le trafic réseau entre instances D3 et D3en d'un même VPC ou d'un VPC appairé est chiffré par défaut au moyen d'une clé 256 bits.

Stockage

Amazon Elastic Block Store (Amazon EBS)

Q : Qu'arrive-t-il à mes données lorsqu'un système se termine ?

Les données enregistrées sur un stockage d'instance local persisteront uniquement tant que cette instance sera active. Toutefois, les données stockées sur un volume Amazon EBS persisteront sans que la durée de vie de l'instance soit prise en compte. De ce fait, nous vous recommandons d'utiliser le stockage d'instance local pour les données temporaires et, pour les données nécessitant une durabilité supérieure, nous vous recommandons d'utiliser les volumes Amazon EBS ou de sauvegarder vos données sur Amazon S3. Si vous utilisez un volume Amazon EBS en tant que partition racine, vous devez configurer l'indicateur Delete On Terminate sur « N » pour votre volume Amazon EBS afin qu'il persiste indépendamment de la durée vie de l'instance.

Q : Quel type de performances puis-je attendre des volumes Amazon EBS ?

Amazon EBS propose quatre types de volume de génération actuelle qui sont divisés en deux catégories principales : le stockage SSD pour les charges de travail transactionnelles et le stockage HDD pour les charges de travail à débit élevé. Ils se distinguent par leurs caractéristiques de performance et leurs tarifs, ce qui vous permet d'adapter vos performances de stockage et vos coûts en fonction des besoins de vos applications. Pour plus d'informations, consultez la présentation d'Amazon EBS. Pour en savoir plus sur les performances, reportez-vous à la section relative aux performances d'EBS dans le guide de l'utilisateur Amazon EC2.

Q : Que sont les types de volume HDD à débit optimisé (st1) et HDD à froid (sc1) ?

Les volumes ST1 sont soutenus par des disques durs (HDD) et sont idéals pour les charges de travail à débit élevé fréquemment consultées comprenant de grands ensembles de données et de grandes tailles d'I/O, comme MapReduce, Kafka, le traitement de journaux, les entrepôts de données et les charges de travail ETL. Ces volumes offrent un excellent débit (mesuré en Mo/s), avec la possibilité d'atteindre des pics de 250 Mo/s par To, avec un débit de base de 40 Mo/s par To et un débit maximal de 500 Mo/s par volume. Les volumes ST1 offrent le débit prévu sur la quasi-totalité de la période (99 %) et possèdent suffisamment de crédits d'E/S pour prendre en charge une analyse complète du volume au taux de pics.

Les volumes SC1 sont soutenus par des disques durs et offrent le coût par Go le plus bas parmi les types de volume EBS. Ils sont idéals pour les charges de travail moins consultées comprenant de grands jeux de données froids. A l'instar des volumes st1, les volumes sc1 fournissent un modèle de pics : ces volumes peuvent atteindre des pics de 80 Mo/s par To, avec un débit de base de 12 Mo/s par To et un débit maximal de 250 Mo/s par volume. Pour les données peu consultées, les volumes sc1 fournissent un stockage très économique. Les volumes SC1 offrent le débit prévu sur la quasi-totalité de la période (99 %) et possèdent suffisamment de crédits d'E/S pour prendre en charge une analyse complète du volume au taux de pics.

Pour maximiser les performances des volumes st1 et sc1, nous vous recommandons d'utiliser les instances EC2 optimisées pour EBS.

Q : Quel type de volume dois-je choisir ?

Amazon EBS propose deux catégories de stockage principales : le stockage SSD pour les charges de travail transactionnelles (les performances dépendent principalement du taux d'E/S par seconde (IOPS)) et le stockage HDD pour les charges de travail intensives (les performances dépendent principalement du débit mesuré en Mo/s). Les volumes SSD sont conçus pour les charges de travail de base de données transactionnelles nécessitant des capacités d'E/S par seconde intensives, les volumes de démarrage et les charges de travail nécessitant un volume élevé d'IOPS. Les volumes SSD comprennent les volumes SSD Provisioned IOPS (io1 et io2) et les volumes SSD à usage général (gp2 et gp3). Les volumes HDD sont conçus pour les charges de travail à débit élevé et Big Data, les grandes tailles d'E/S et les modèles d'E/S séquentiels. Les volumes HDD comprennent les volumes HDD à débit optimisé (st1) et à froid (sc1). Pour plus d'informations, consultez la présentation d'Amazon EBS.

Q : Prenez-vous en charge les instances multiples accédant à un seul volume ?

Oui, vous pouvez activer Multi-Attach sur un volume (io1) IOPS provisionné EBS pour qu'il soit possible d'attacher simultanément un volume à un maximum de seize instances EC2 basées sur Nitro au sein de la même zone de disponibilité. Pour en savoir plus sur Amazon EBS, consultez la page de présentation d'EBS.

Q : Sera-t-il possible d'accéder aux instantanés EBS en utilisant les API Amazon S3 habituelles ?

Non, les instantanés EBS sont uniquement disponibles via les API Amazon EC2.

Q : Les volumes doivent-ils être démontés pour prendre un instantané ? Faut-il attendre la fin de l'instantané pour pouvoir utiliser à nouveau le volume ?

Non. Les instantanés peuvent être pris en temps réel alors que le volume est attaché et en cours d'utilisation. Toutefois, les instantanés ne capturent que les données qui ont été écrites sur votre volume Amazon EBS, toute donnée ayant été cachée localement par votre application ou votre système d'exploitation pouvant être exclue. Afin d'assurer des instantanés constants sur les volumes attachés à une instance, nous recommandons de détacher clairement le volume, d'émettre la commande d'instantané puis de rattacher le volume. Pour les volumes Amazon EBS qui font office de périphériques racine, nous recommandons d'éteindre la machine pour effectuer un instantané précis.

Q : Les instantanés sont-ils gérés par version ? Puis-je lire un ancien instantané pour effectuer une récupération à un instant donné ?

À chaque instantané est attribué un identifiant unique et les clients peuvent créer des volumes sur la base d'un des instantanés existants.

Q : Quels sont les frais qui s'appliquent lors de l'utilisation des instantanés partagés Amazon EBS ?

Si vous partagez un instantané, vous n'êtes pas facturé lorsque d'autres utilisateurs en font une copie. Si vous faites une copie du volume partagé d'un autre utilisateur, vous êtes facturé au tarif EBS normal.

Q : Les utilisateurs de mes instantanés partagés Amazon EBS peuvent-ils changer mes données ?

Les utilisateurs qui ont la permission de créer des volumes basés sur vos instantanés partagés doivent d'abord faire 'abord une copie de votre instantané dans leur compte. Les utilisateurs peuvent modifier leur propre copie de données, mais les données présentes sur votre instantané d'origine et tout autre volume crée par d'autres utilisateurs à partir de votre instantané d'origine ne seront pas modifiées.

Q : Comment puis-je détecter les instantanés Amazon EBS qui ont été partagés avec moi ?

Vous pouvez trouver des instantanés qui ont été partagés avec vous en sélectionnant « Instantanés privés » dans le menu déroulant d'affichage dans la section d'instantanés de AWS Management Console. Cette section énumère à la fois les instantanés dont vous êtes propriétaire et ceux qui sont partagés avec vous.

Q : Comment puis-je trouver quels sont les instantanés Amazon EBS qui sont partagés globalement ?

Vous pouvez trouver les instantanés qui ont été partagés globalement en sélectionnant « Public Snapshots » dans le menu déroulant d'affichage de la section Snapshots dans AWS Management Console.

Q : Existe-t-il une fonction de chiffrement pour les volumes et les instantanés Amazon EBS ?

Oui. EBS offre un chiffrement transparent des volumes et instantanés de données. EBS Encryption vous permet de mieux répondre aux exigences de conformité en matière de sécurité et de chiffrement.

Q : Comment trouver la liste des ensembles de données publics Amazon ?

Toutes les informations sur les ensembles de données publics sont disponibles dans notre Centre de ressources consacré aux ensembles de données publics. Vous pouvez également obtenir une liste des ensembles de données publics dans AWS Management Console en choisissant « Amazon Snapshots » dans le menu déroulant d'affichage de la section Snapshots.

Q : Où puis-je obtenir des informations supplémentaires sur Amazon EBS ?

Consultez la page des FAQ sur Amazon EBS.

Amazon Elastic File System (Amazon EFS)

Q : Comment accéder à un système de fichiers depuis une instance Amazon EC2 ?

Pour accéder à votre système de fichiers, vous pouvez le monter sur une instance Amazon EC2 basée sur Linux à l'aide de la commande de montage Linux standard et du nom du serveur DNS du système. Une fois le système monté, vous pouvez travailler avec ses fichiers et répertoires comme vous le feriez avec un système de fichiers local.

Amazon EFS utilise le protocole NFSv4.1. Pour découvrir un exemple qui vous explique, étape par étape, comment accéder à un système de fichiers depuis une instance Amazon EC2, consultez le guide de démarrage Amazon EFS.

Q : Quels types d'instances Amazon EC2 et quelles images AMI fonctionnent avec Amazon EFS ?

Amazon EFS est compatible avec tous les types d'instances Amazon EC2 et est accessible depuis les AMI basées sur Linux. Vous pouvez combiner les types d'instances connectés à un seul système de fichiers. Pour découvrir un exemple qui vous explique, étape par étape, comment accéder à un système de fichiers depuis une instance Amazon EC2, consultez le guide de démarrage Amazon EFS.

Q : Comment charger des données dans un système de fichiers ?

Vous pouvez charger des données dans un système de fichiers Amazon EFS à partir de vos instances Amazon EC2 ou des serveurs de vos centres de données sur site.

Les systèmes de fichiers Amazon EFS peuvent être montés sur une instance Amazon EC2. Toutes les données accessibles via cette instance Amazon EC2 peuvent alors également être lues et écrites dans Amazon EFS. Pour charger des données qui ne sont pas actuellement stockées dans le cloud Amazon, vous pouvez utiliser les mêmes méthodes que celles que vous utilisez pour transférer des fichiers vers Amazon EC2, par exemple, Secure Copy (SCP).

Les systèmes de fichiers Amazon EFS peuvent être montés sur un serveur sur site. Toutes les données accessibles via ce serveur peuvent alors également être lues et écrites dans Amazon EFS via des outils Linux standard. Pour savoir plus précisément comment accéder à un système de fichiers à partir d'un serveur sur site, consultez la section Accès sur site de la FAQ Amazon EFS.

Pour plus d'informations sur le transfert de données vers le cloud Amazon, consultez la page Migration de données vers le cloud.

Q : Comment accéder à mon système de fichiers en dehors de mon VPC ?

Les instances Amazon EC2 de votre VPC peuvent accéder directement à votre système de fichiers. Les serveurs sur site peuvent monter vos systèmes de fichiers via une connexion AWS Direct Connect à votre VPC.

Q : Combien d’instances Amazon EC2 peuvent se connecter à un système de fichiers ?

Amazon EFS prend en charge une à plusieurs milliers d'instances Amazon EC2 connectées simultanément à un système de fichiers.

Q : Où puis-je obtenir des informations supplémentaires sur Amazon EFS ?

Vous pouvez consulter les Questions fréquentes (FAQ) sur Amazon EFS.

Stockage d'instance NVMe

Q : Les données stockées dans un stockage d'instance NVMe Amazon EC2 sont-elles chiffrées ?

Oui, toutes les données sont chiffrées dans un module matériel AWS Nitro avant d'être écrites sur les disques SSD connectés localement via le stockage d'instance NVMe.

Q : Quel est l'algorithme de chiffrement utilisé pour chiffrer le stockage d'instance NVMe d'Amazon EC2 ?

Le stockage d'instance NVMe d'Amazon EC2 est chiffré avec un chiffrement par bloc XTS-AES-256.

Q : Les clés de chiffrement sont-elles uniques pour chaque instance ou un appareil spécifique pour le stockage d'instance NVMe ?

Les clés de chiffrement sont générées de manière sécurisée dans le module matériel Nitro. Elles sont uniques pour chaque périphérique de stockage d'instance NVMe fourni avec une instance EC2.

Q : Quelle est la durée de vie des clés de chiffrement sur un stockage d'instance NVMe ?

Toutes les clés sont irrévocablement détruites en cas de désattribution du stockage, y compris en cas d'action de suspension ou d'arrêt d'une instance.

Q : Puis-je désactiver le chiffrement du stockage d'instance NVMe ?

Non, le chiffrement du stockage d'instance NVMe est toujours actif. Il est impossible de le désactiver.

Q : Les données de performances IOPS publiées sur I3 et I3en incluent-elles le chiffrement des données ?

Oui. Les chiffres IOPS documentés pour le stockage d'instance NVMe Im4gn, Is4gen, I4i, I3 et I3en incluent le chiffrement.

Q : Le stockage d'instance NVMe Amazon EC2 prend-il en charge AWS Key Management Service (KMS) ?

Non, le chiffrement de disque sur le stockage d'instance NVMe ne prend pas en charge l'intégration au système AWS KMS. Les clients ne peuvent pas intégrer leurs propres clés au stockage d'instance NVMe. 

Mise en réseau et sécurité

Elastic Network Adapter (ENA) Express

Q : Qu'est-ce qu'ENA Express ?

ENA Express est une amélioration d'Elastic Network Adapter qui apporte le protocole Scalable Reliable Datagram (SRD) aux réseaux TCP et UDP traditionnels. Transparente pour l'application, la fonction ENA Express améliore les largeurs de bande à flux unique et réduit les latences de queue dans les charges de travail à haut débit.

Q : Comment fonctionne ENA Express ?

Une fois configurée, ENA Express fonctionne entre deux instances prises en charge dans une zone de disponibilité (AZ). ENA Express détecte la compatibilité entre vos instances EC2 et établit une connexion SRD quand ENA Express est activé sur deux instances communicantes. Une fois la connexion établie, votre trafic peut profiter de SRD et de ses avantages en termes de performances.

Q : Quand utiliser ENA Express ?

La fonction ENA Express est idéale pour les applications nécessitant un débit élevé à flux unique, comme les systèmes de stockage distribués et l'encodage de médias en direct. Ces charges de travail nécessitent une bande passante élevée pour un flux unique et un faible temps de latence.

Q : Comment activer ENA Express ?

ENA Express peut être activée au niveau de chaque ENI. ENA Express peut être activée lors de la connexion d'une carte réseau à une instance ou lors de l'exécution d'une commande de modification. ENA Express doit être activée sur les deux interfaces ENI communiquantes afin d'établir une communication point à point. De plus, si vous utilisez des trames Jumbo, vous devez ajuster votre MTU maximale à 8900 pour utiliser ENA Express.

Q : Quels sont les protocoles pris en charge par ENA Express ?

ENA Express prend en charge le protocole TCP par défaut. Le protocole UDP peut être activé de manière facultative par le biais d'un argument API ou dans la console de gestion.

Q : Quelles instances sont prises en charge ?

ENA Express est pris en charge sur les instances EC2 basées sur Graviton, Intel et AMD. Cette fonctionnalité est prise en charge sur les instances optimisées pour le calcul, à mémoire optimisée, à usage général et à stockage optimisé. Pour obtenir la liste complète des instances prises en charge, consultez le guide de l’utilisateur d’ENA Express.

Q : Quelle est la différence entre Elastic Fabric Adapter (EFA) et ENA Express ?

EFA est une interface réseau conçue pour les applications HPC et ML, et elle utilise également le protocole SRD. EFA nécessite un modèle de programmation réseau différent, qui utilise l'interface LibFabric pour transmettre la communication à l'interface ENI. Contrairement à EFA, ENA Express vous permet d’exécuter votre application de manière transparente en utilisant les protocoles TCP et UDP.

Q : Que se passe-t-il si j’exécute ENA Express sur une instance et qu’elle communique avec une autre instance qui ne prend pas en charge ENA Express ou qui ne l’a pas activée sur l’interface ENI ?

ENA Express détectera si ENA Express a été activée sur une autre instance. Si cette instance ne prend pas en charge ENA Express ou ne l'a pas activée, votre instance reviendra au fonctionnement normal d'ENA. Dans ce cas, vous ne pourrez bénéficier d'aucun des avantages liés aux performances du protocole SRD, mais il n'y a pas non plus d'effets négatifs.

Q : Quels systèmes d'exploitation sont pris en charge ?

La fonctionnalité SRD sera prise en charge sur tous les systèmes d'exploitation, mais veuillez noter que les paramètres de suivi ENA Express seront disponibles uniquement au moyen de l'outil EthTool dans la dernière image AMI Linux fournie par Amazon ou en installant le pilote ENA version 2.8.0 ou ultérieure à partir de GitHub, tous les systèmes d'exploitation prenant en charge la métrologie informatique à l'avenir.

Q : Quels sont les outils de surveillance disponibles pour assurer ce suivi ?

ENA Express offre des compteurs EthTool pour suivre les paquets qui sont éligibles pour la transmission SRD en plus de ceux effectivement envoyés et reçus avec SRD. En outre, EthTool prendra en charge une mesure en pourcentage de l'utilisation des ressources SRD, ce qui vous permettra de savoir quand vous devriez envisager de mettre à l'échelle votre architecture. Enfin, un booléen permet d'activer ou de désactiver ENA Express et le protocole UDP.

Q : Où la fonction ENA Express est-elle disponible ?

ENA Express est disponible dans toutes les régions commerciales. Elle peut être utilisée pour établir la communication entre deux instances activées au sein de la même AZ.

Q : L'utilisation d'ENA Express entraîne-t-elle des coûts supplémentaires ?

Non. ENA Express est gratuit.

Elastic Fabric Adapter (EFA)

Q : Pourquoi utiliser EFA ?

EFA garantit la capacité de mise à l'échelle, la flexibilité et l'élasticité du cloud pour les applications de calcul haute performance étroitement liées. Grâce à EFA, les applications de calcul haute performance étroitement liées ont accès à un débit plus élevé et un niveau de latence plus bas et plus constant, par rapport aux canaux TCP traditionnels. Ainsi, les opérations de mise à l'échelle sont améliorées. Le support d'EFA peut être activé de manière dynamique, à la demande sur toutes les instances EC2 prises en charge, sans pré-réservation. Ainsi, vous disposez de la flexibilité nécessaire pour répondre aux priorités de votre charge de travail ou de votre activité, en constante évolution.

Q : Quels types d'applications peuvent bénéficier d'EFA ?

Les applications HPC distribuent des charges de travail de calcul à un cluster d'instances pour le traitement en parallèle. La dynamique des fluides numériques (CFD), les simulations de plantage et les simulations climatiques constituent quelques exemples d'applications de calcul haute performance (HPC). Les applications de calcul haute performance sont généralement écrites à l'aide de l'interface MPI (Message Passing Interface) et imposent des exigences strictes en matière de latence et de bande passante pour les communications inter-instances. Les applications utilisant l'interface MPI et tout autre intergiciel de calcul haute performance prenant en charge la pile de communication libfabric peuvent bénéficier des avantages d'EFA.

Q : Comment fonctionne le processus de communication EFA ?

Avec les dispositifs EFA vous disposez de toutes les fonctionnalités des systèmes ENA, ainsi que d'une nouvelle interface matérielle avec contournement de système d'exploitation qui permet aux applications d'espace utilisateur de communiquer directement avec la fonction de transport fiable fournie par le matériel. La plupart des applications utilisent un intergiciel existant, comme l'interface MPI, pour interagir avec EFA. AWS a collaboré avec plusieurs fournisseurs d’intergiciel pour assurer le support nécessaire pour la fonction de contournement de système d’exploitation d’EFA. Veuillez noter que la communication utilisant la fonctionnalité de contournement du système d’exploitation est limitée aux instances situées dans une Zone de disponibilité (AZ).

Q : Où l’interface EFA est-elle disponible ?

L’interface EFA est disponible dans toutes les régions commerciales. Elle peut être utilisée pour établir la communication entre deux instances activées au sein de la même AZ.

Q : Quels types d’instances prennent en charge EFA ?

Pour obtenir la liste complète des instances EC2 prises en charge, consultez cette page de notre documentation.

Q : Quelles sont les différences entre une ENI EFA et une ENI ENA ?

Une ENI ENA offre des fonctions traditionnelles de mise en réseau IP, nécessaires à la mise en réseau VPC. Une ENI EFA offre toutes les fonctionnalités d'une ENI ENA, ainsi que la prise en charge matérielle pour permettre aux applications de communiquer directement avec l'ENI EFA, sans passer par le noyau d'instance (communication avec contournement du système d'exploitation), grâce à une interface de programmation étendue. En raison de leurs capacités avancées, les ENI EFA peuvent uniquement être rattachées au lancement de l'instance ou aux instances arrêtées.

Q : Quels sont les prérequis pour activer EFA sur une instance ?

La prise en charge d'EFA peut être activée au lancement de l'instance ou ajoutée à une instance arrêtée. Les dispositifs EFA ne peuvent pas être rattachés à une instance en cours d'exécution.

Mise en réseau améliorée

Q : Quelles sont les capacités de mise en réseau incluses dans cette fonctionnalité?

Nous prenons actuellement en charge les capacités de mise en réseau améliorée utilisant la virtualisation des E/S à racine unique (SR-IOV: Single Root I/O Virtualization). La méthode SR-IOV de virtualisation des dispositifs fournit de meilleures performances des E/S et une utilisation de la CPU réduite par rapport aux implémentations traditionnelles. Pour les instances Amazon EC2 prises en charge, cette fonctionnalité fournit de meilleures performances en termes de paquet par seconde (PPS), une réduction des latences inter-instance et une très faible instabilité du réseau.

Q : Pourquoi devrais-je utiliser la mise en réseau améliorée?

Si vos applications bénéficient de performances élevées en termes de paquets par seconde et/ou d'une mise en réseau de faible latence, la mise en réseau améliorée offre des performances nettement meilleures, une uniformité des performances et de l'évolutivité.

Q : Comment puis-je activer la mise en réseau améliorée sur des instances prises en charge?

Pour activer cette fonctions, vous devez lancer une image AMI HVM avec les pilotes appropriés. Les instances répertoriées comme étant de génération actuelle utilisent l'ENA pour une mise en réseau améliorée. L'AMI Amazon Linux inclut ces deux pilotes par défaut. Si des AMI ne comprennent pas ces pilotes, vous devez télécharger et installer les pilotes appropriés en fonction du type d'instance que vous prévoyez d'utiliser. Vous pouvez utiliser les instructions Linux ou Windows pour activer la mise en réseau améliorée dans les AMI ne contenant pas le pilote SR-IOV par défaut. La mise en réseau améliorée est uniquement prise en charge dans Amazon VPC.

Q : Dois-je payer des frais supplémentaires pour utiliser la mise en réseau améliorée?

Non, l'utilisation de la mise en réseau améliorée n'engage aucun coût supplémentaire. Pour utiliser la mise en réseau améliorée, vous devez lancer l’AMI appropriée sur un type d’instance pris en charge dans un VPC.

Q : Quels sont les types d’instance qui prennent en charge la mise en réseau améliorée ?

Selon le type d'instance, vous pouvez activer la mise en réseau améliorée par l'intermédiaire de l'un des mécanismes suivants :

Interface Intel 82599 Virtual Function (VF) – L'interface Intel 82599 Virtual Function prend en charge les vitesses réseau allant jusqu'à 10 Gbit/s pour les types d'instance pris en charge. Les instances C3, C4, D2, I2, M4 (à l'exclusion de m4.16xlarge) et R3 utilisent l'interface Intel 82599 VF pour le réseau amélioré.

Elastic Network Adapter (ENA) – Elastic Network Adapter (ENA) prend en charge les vitesses réseau allant jusqu'à 200 Gbit/s pour les types d'instances pris en charge. Les instances répertoriées comme étant de génération actuelle utilisent ENA pour un réseau amélioré. Seules les instances C4, D2 et M4 plus petites que m4.16xlarge font exception.

Q : Que signifie le fait d'avoir plusieurs cartes réseau pour une instance EC2 ? Quelle est leur utilité ?

Les instances EC2 de nouvelle génération utilisent des cartes réseau Nitro pour le déchargement du plan de données des VPC. Pour augmenter la bande passante du réseau et améliorer les performances du débit de paquets, vous pouvez configurer des instances EC2 spécifiques pour qu'elles utilisent plusieurs cartes réseau pour le traitement des paquets, ce qui augmente finalement les performances globales du système.

Q : Quels types d'instances prennent en charge plusieurs cartes réseau ?

Les cartes réseau multiples sont prises en charge par les instances accélérées telles que p4d.24xlarge et les instances optimisées pour le réseau telles que c6in.32xlarge. Pour une liste complète des instances prenant en charge plusieurs cartes réseau, référez-vous aux Interfaces réseau Elastic.

Q : Quel est le nombre d'interfaces réseau par défaut avec lequel une instance à plusieurs cartes peut être lancée ?

Tout dépend du type d'instance. Les instances accélérées telles que p4 augmentent jusqu'à 15 interfaces réseau par carte réseau. Les instances à grande capacité de réseau, telles que les instances c6in récemment lancées, prennent en charge un total de 14 interfaces réseau réparties uniformément (7 et 7) sur les deux cartes réseau. Pour en savoir plus sur l'échelle d'interface réseau par carte réseau, référez-vous à la section Cartes réseau.

Elastic Load Balancing

Q : Quelles sont les options d'équilibrage de charge proposées par le service Elastic Load Balancing ?

Elastic Load Balancing propose deux types de programmes d'équilibrage de charge, qui offrent chacun une haute disponibilité, une mise à l'échelle automatique et une sécurité robuste. Il s'agit de Classic Load Balancer qui achemine le trafic basé sur des informations au niveau de l'application ou du réseau, et de Application Load Balancer qui achemine le trafic basé sur des informations avancées au niveau de l'application qui incluent le contenu de la demande.

Q : Quand dois-je utiliser l'équilibreur Classic Load Balancer ou Application Load Balancer ?

Classic Load Balancer est idéal pour un équilibrage de charge simple du trafic sur plusieurs instances EC2, alors que Application Load Balancer est idéal pour les applications qui nécessitent des fonctionnalités de routage avancées, des microservices et des architectures basées sur les conteneurs. Pour en savoir plus, référez-vous à la page consacrée à Elastic Load Balancing.

Adresses IP Elastic

Q. Pourquoi suis-je limité à 5 adresses IP Elastic par région ?

Les adresses Internet publiques (IPV4) sont des ressources rares. Il n'y a qu'une quantité limitée d'adresses IP publiques disponibles et Amazon EC2 s'engage à aider utiliser cet espace de manière efficace.

Par défaut, tous les comptes sont limités à 5 adresses IP Elastic par région. Si vous avez besoin de plus de 5 adresses IP Elastic, nous vous demandons de faire une demande pour que votre limite soit augmentée. Nous vous demanderons de réfléchir à votre utilisation et de nous aider à comprendre pourquoi vous avez besoin d'adresses supplémentaires. Vous pouvez demander un plus grand nombre d'adresses IP Elastic ici. Toutes les augmentations sont spécifiques à la région pour laquelle elles ont été demandées.

Q : Pourquoi des frais me sont-ils facturés alors que mon adresse IP Elastic n'est pas associée à une instance en cours d'exécution ?

Afin de nous assurer que nos clients utilisent efficacement les adresses IP Elastic, nous imposons des frais horaires peu élevés pour chaque adresse non associée à une instance en cours d'exécution.

Q : Ai-je besoin d'une adresse IP Elastic pour chaque instance que j'exécute ?

Non. Vous n'avez pas besoin d'une adresse IP Elastic pour chaque instance. Par défaut, chaque instance est fournie avec une adresse IP privée et une adresse IP publique pouvant être acheminée par internet. L'adresse IP privée reste associée à l'interface réseau lorsque l'instance est interrompue et redémarrée et elle est libérée une fois l'instance terminée. L'adresse publique est associée exclusivement à l'instance jusqu'à ce qu'elle soit arrêtée, interrompue ou remplacée par une adresse IP Elastic. Ces adresses IP doivent être adéquates pour de nombreuses applications où vous n'avez pas besoin d'un point de terminaison acheminable par Internet ayant une longue durée de vie. Certaines applications comme les clusters de calcul, l'indexation de site web et les services backend ne nécessitent généralement pas d'adresse IP Elastic.

Q : Combien de temps faut-il pour remapper une adresse IP Elastic ?

A l'heure actuelle, le processus de remappage prend quelques minutes à partir du moment où vous nous demandez de remapper l'IP Elastic jusqu'à ce que la modification soit entièrement propagée dans notre système.

Q : Puis-je configurer l'enregistrement DNS inverse pour mon adresse IP Elastic ?

Toutes les adresses IP Elastic sont fournies avec un DNS inverse dans un fichier standard sous la forme ec2-1-2-3-4.region.compute.amazonaws.com. Pour les clients ayant besoin de paramètres de DNS inverse personnalisés pour des applications accessibles sur Internet utilisant une authentification mutuelle basée sur l'IP (telles que l'envoi d'e-mails depuis des instances EC2), vous pouvez configurer l'enregistrement DNS inverse de votre adresse IP Elastic en remplissant ce formulaire. Sinon, veuillez contacter le support client AWS si vous souhaitez qu'AWS délègue la gestion du DNS inverse de vos IP Elastic vers vos serveurs de noms DNS faisant autorité (tels que Amazon Route 53) afin que vous puissiez gérer vos propres enregistrements DNS PTR inverses pour prendre en charge ces cas d'utilisation. Notez qu'un enregistrement DNS avant pointant vers cette adresse IP Elastic doit exister avant que nous puissions créer l'enregistrement DNS inverse.

Sécurité

Q : Comment empêcher les autres personnes de voir mes systèmes ?

Vous avez un contrôle total sur la visibilité de vos systèmes. Le système de sécurité Amazon EC2 vous permet de placer de manière arbitraire vos instances en cours d'exécution dans des groupes de votre choix. A l'aide de l'interface de services Web, vous pouvez alors spécifier quels groupes peuvent communiquer avec quels autres groupes, et quels sous-résaux IP sur Internet peuvent parler à quels groupes. Ceci vous permet de contrôler l'accès à vos instances dans notre environnement hautement dynamique. Bien entendu, vous pouvez également sécuriser vos instances comme tout autre serveur.

Q : Puis-je obtenir un historique de tous les appels d'API EC2 effectués sur mon compte à des fins d'analyse de sécurité et de résolution des problèmes opérationnels ?

Oui. Pour obtenir un historique de tous les appels d'API EC2 (y compris sur VPC et EBS) réalisés sur votre compte, il vous suffit d'activer CloudTrail dans AWS Management Console. Pour plus d'informations, consultez la page d'accueil de CloudTrail.

Q : Où puis-je trouver d'autres informations concernant la sécurité sur AWS ?

Pour en savoir plus sur la sécurité sur AWS, consultez notre livre blanc Amazon Web Services : présentation des procédures de sécurité et notre manuel Guide de sécurité d'Amazon EC2 sous Windows

Gestion

Amazon CloudWatch

Q : Quelle est la granularité d'intervalle de temps minimale pour les données qu'Amazon CloudWatch reçoit et regroupe ?

Les mesures sont reçues et regroupées à des intervalles d'une minute.

Q : Quels sont les systèmes d'exploitation pris en charge par Amazon CloudWatch ?

Amazon CloudWatch reçoit et fournit des mesures pour toutes les instances Amazon EC2 et devrait fonctionner avec tous les systèmes d'exploitation actuellement compatibles avec le service Amazon EC2.

Q :Vais-je perdre les données de mesures si je désactive la surveillance pour une instance Amazon EC2 ?

Vous pouvez récupérer les données de mesures de n'importe quelle instance Amazon EC2 pendant une période de deux semaines à partir du moment où vous avez commencé à surveiller celle-ci. Après deux semaines, les données de mesures pour une instance Amazon EC2 ne seront plus disponibles si la surveillance a été désactivée pour cette instance Amazon EC2. Si vous souhaitez archiver les données de mesuress au-delà de deux semaines, vous pouvez le faire en appelant la commande mon-get-stats de la ligne de commande et en enregistrant le résultat dans Amazon S3 ou Amazon SimpleDB.

Q : Puis-je accéder aux données de mesures d'une instance Amazon EC2 terminée ou d'un Elastic Load Balancer supprimé ?

Oui. Amazon CloudWatch stocke les données de mesures pour les instances Amazon EC2 terminées ou les Elastic Load Balancer supprimés pendant deux semaines.

Q : Les frais de surveillance d'Amazon CloudWatch changent-ils en fonction du type d'instance Amazon EC2 que je surveille ?

Non, les frais de surveillance Amazon CloudWatch ne changent pas en fonction des types d'instance Amazon EC2.

Q : Pourquoi le graphique de la même fenêtre temporelle est-il différent lorsque j'affiche des périodes de 5 minutes ou de 1 minute ?

Si vous affichez la même fenêtre temporelle avec une période de 5 minutes ou avec une période de 1 minute, vous pourrez voir que les points de données sont affichés à différents endroits du graphique. Pour la période que vous spécifiez dans votre graphique, Amazon CloudWatch trouvera tous les points de données disponibles et calculera un seul point additionné pour représenter le période entière. Dans le cas d'une période de 5 minutes, le seul point de données est placé au début de la fenêtre temporelle de 5 minutes. Dans le cas d'une période de 1 minute, le seul point de données est placé à la marque 1 minute. Nous conseillons d'utiliser la période de 1 minute pour la résolution des problèmes et autres activités qui nécessitent les graphiques les plus précis de périodes temporelles.

Amazon EC2 Auto Scaling

Q : Puis-je automatiquement mettre à l'échelle mes groupes Amazon EC2 Auto Scaling ?

Oui. Amazon EC2 Auto Scaling est un service entièrement géré conçu pour lancer ou arrêter automatiquement des instances Amazon EC2 afin de vous aider à avoir le nombre correct d'instances Amazon EC2 disponibles pour gérer la charge de votre application. EC2 Auto Scaling vous permet de maintenir la disponibilité de votre application grâce à la gestion de flotte pour les instances EC2, qui détecte et remplace les instances en mauvais état et qui met automatiquement à l'échelle à la hausse ou à la baisse votre capacité Amazon EC2 suivant les conditions que vous avez définies. En outre, EC2 Auto Scaling peut augmenter automatiquement le nombre d'instances Amazon EC2 en fonction des pics et baisses de demande, afin de maintenir un niveau de performance élevé tout en limitant les frais.

Les stratégies d'attribution dans EC2 Auto Scaling déterminent la manière dont les instances Spot de votre flotte se remplissent à partir des groupes d'instances Spot. La stratégie d'allocation optimisée en termes de capacité tente de provisionner des instances Spot à partir des groupes d'instances Spot les plus disponibles en analysant les métriques de capacité. Cela fonctionne parfaitement pour les charges de travail comme le Big Data et l'analyse, le rendu image et multimédia, le machine learning et le calcul haute performance pouvant coûter plus cher en interruption. La stratégie d'allocation au prix le plus bas lance des instances Spot en se basant strictement sur la diversification entre les groupes « N » les moins chers.

Pour plus d'informations, consultez les Questions fréquentes (FAQ) sur Amazon EC2 Auto Scaling.

Mise en veille prolongée

Q : Pourquoi mettre une instance en veille prolongée ?

Vous pouvez mettre une instance en veille prolongée afin de garantir une exécution rapide de l'instance et des applications, si elles sont longues à amorcer (par exemple, pour le chargement des caches en mémoire). Vous pouvez démarrer des instances, les configurer dans un état souhaité et les mettre en veille prolongée. Vous pouvez ensuite reprendre ces instances "préchauffées" pour réduire le temps nécessaire pour la remise en service de l'instance. La mise en veille prolongée conserve l'état de la mémoire au fil des cycles d'arrêt et de démarrage.

Q : Que se passe-t-il lorsque je mets mon instance en veille prolongée ?

Lorsque vous mettez votre instance en veille prolongée, les données de votre volume racine EBS et des volumes de données EBS attachés sont préservées. En outre, le contenu de la mémoire (RAM) de l'instance est préservé sur le volume racine EBS. Au redémarrage de l'instance, celle-ci revient à son état précédent et recharge le contenu de la mémoire RAM.

Q : Quelle est la différence entre la mise en veille prolongée et l'arrêt ?

Avec la mise en veille prolongée, votre instance hiberne et les données de la mémoire RAM sont préservées. Avec l'option Arrêt, votre instance est arrêtée et sa mémoire vive est réinitialisée.

Dans les deux cas, les données de votre volume racine EBS et des volumes de données EBS attachés sont préservées. Votre adresse IP privée ne change pas, de même que votre adresse IP Elastic (le cas échéant). Le comportement de la couche réseau est similaire à celui appliqué pour le flux de travail arrêt-démarrage d'EC2. L'arrêt et la mise en veille prolongée sont uniquement disponibles pour les instances soutenues par Amazon EBS. Le stockage d'instance local n'est pas maintenu.

Q : Combien coûte la mise en veille prolongée d'une instance ?

Les instances mises en veille prolongée sont facturées aux tarifs EBS standard pour le stockage. Comme pour les instances arrêtées, aucun surplus d'utilisation de l'instance ne sera facturé lorsque celle-ci est en veille prolongée.

Q : Comment mettre une instance en veille prolongée ?

La mise en veille prolongée doit être activée au lancement de l'instance. Une fois activée, vous pouvez utiliser l'API StopInstances avec un paramètre "Hibernate" supplémentaire pour déclencher la mise en veille prolongée. Vous pouvez également passer par la console en sélectionnant votre instance, puis en cliquant sur Actions > État de l'instance > Arrêter – Mettre en veille prolongée. Pour en savoir plus sur la mise en veille prolongée, consultez le Guide de l'utilisateur.

Q : Comment redémarrer une instance mise en veille prolongée ?

Pour relancer l'instance, utilisez l'API StartInstances, de la même manière que pour une instance arrêtée normalement. Vous pouvez également passer par la console en sélectionnant votre instance, puis en cliquant sur Actions > État de l'instance > Démarrer.

Q : Peut-on activer la mise en veille prolongée pour une instance existante ?

Non, vous ne pouvez pas activer la mise en veille prolonger sur une instance existante (en cours d'exécution ou arrêtée). Cette option doit être activée au lancement de l'instance.

Q : Comment savoir si une instance est en veille prolongée ?

Pour savoir si une instance est en veille prolongée, examinez le motif d'état. Il doit indiquer "Client.UserInitiatedHibernate". Celui-ci se trouve dans la console, dans la section « Instances – Détails » ou dans la réponse à l'API DescribeInstances, dans le champ « motif ».

Q : Quel est l'état de l'instance lorsqu'elle est en veille prolongée ?

Les instances en veille prolongée sont marquées comme "Arrêtées".

Q : Quelles données sont enregistrées lorsqu'une instance est mise en veille prolongée ?

Le stockage de volume EBS (volume de démarrage et volumes de données associés) et la mémoire (RAM) sont enregistrés. Votre adresse IP privée ne change pas (pour le VPC), de même que votre adresse IP Elastic (le cas échéant). Le comportement de la couche réseau est similaire à celui appliqué pour le flux de travail arrêt-démarrage d'EC2.

Q : Où sont stockées mes données lorsque je mets une instance en veille prolongée ?

Comme pour la fonction Arrêter, les données du dispositif racine et des dispositifs associés sont stockées sur les volumes EBS correspondants. Le contenu de la mémoire (RAM) est stocké sur le volume racine EBS.

Q : Les données de ma mémoire (RAM) sont-elles chiffrées lorsqu'elles sont déplacées vers EBS ?

Oui. Les données de la mémoire RAM sont toujours chiffrées lorsqu'elles sont déplacées vers le volume racine EBS. Le chiffrement du volume racine EBS est appliqué lors du lancement de l'instance. Cela permet de protéger le contenu sensible qui se trouve en mémoire au moment de la mise en veille prolongée.

Q : Combien de temps mon instance peut-elle rester en veille prolongée ?

La veille prolongée n'est pas prise en charge au-delà de 60 jours. Si vous souhaitez conserver votre instance pendant plus longtemps, vous devez redémarrer l'instance et passer par un cycle Arrêter/Démarrer (sans mise en veille prolongée). Nous nous efforçons d'actualiser notre plateforme de manière constante, grâce à des mises à niveau et des correctifs de sécurité, qui peuvent parfois entrer en conflit avec les anciennes instances mises en veille prolongée. Nous vous informerons des mises à jour critiques qui nécessitent de redémarrer les instances en veille prolongée, afin que vous effectuiez l'arrêt ou le redémarrage du système.

Q : Quels sont les prérequis pour la mise en veille prolongée d'une instance ?

Pour utiliser la mise en veille prolongée, le volume racine doit correspondre à un volume EBS chiffré. L'instance doit être configurée de manière à recevoir le signal ACPID pour la mise en veille prolongée (ou utiliser les AMI publiées par Amazon configurées pour la mise en veille prolongée). En outre, l'espace disponible sur le volume racine EBS de votre instance doit être suffisamment grand pour permettre d'écrire les données en mémoire.

Question : Quels sont les instances et systèmes d'exploitation qui prennent en charge la mise en veille prolongée ?

Pour les instances exécutant Amazon Linux, Amazon Linux 2, Ubuntu et Windows, la mise en veille prolongée est prise en charge dans les instances C3, C4, C5, C5d, I3, M3, M4, M5, M5a, M5ad, M5d, R3, R4, R5, R5a, R5ad, R5d, T2, T3 et T3a. 

Pour les instances exécutant CentOS, Fedora et Red Hat Enterprise Linux, la mise en veille prolongée est prise en charge dans les instances C5, C5d, M5, M5a, M5ad, M5d, R5, R5a, R5ad, R5d, T3 et T3a.

Sous Windows, la mise en veille prolongée est prise en charge sur les instances dont la RAM est inférieure ou égale à 16 Go. Pour les autres systèmes d'exploitation, la mise en veille prolongée est prise en charge sur les instances dont la RAM est inférieure à 150 Go. Pour examiner la liste des versions de systèmes d'exploitation et des types d'instances prises en charge, consultez le Guide de l'utilisateur.

Q : Dois-je utiliser des Amazon Machine Image (AMI) spécifiques pour placer mon instance en veille prolongée ?

Vous pouvez utiliser n'importe quelle AMI configurée pour prendre en charge la mise en veille prolongée. Vous pouvez utiliser les AMI publiées par AWS prenant en charge la mise en veille prolongée par défaut. Alternativement, vous pouvez créer une image personnalisée à partir d'une instance après avoir suivi la liste des prérequis pour la mise en veille prolongée et après avoir correctement configuré votre instance.

Q : Que se passe-t-il si mon volume racine EBS n'est pas assez grand pour stocker l'état de mémoire (RAM) pour la mise en veille prolongée ?

Pour activer la mise en veille prolongée, un espace est réservé sur le volume racine pour stocker la mémoire (RAM) de l'instance. Veillez à ce que le volume racine soit suffisamment grand pour stocker le contenu de la mémoire RAM et pour accommoder votre usage prévu (par exemple, le système d'exploitation et les applications). Si l'espace disponible sur le volume racine EBS est insuffisant, la mise en veille prolongée échoue et l'instance est arrêtée.

VM Import/Export

Q : Qu'est-ce que VM Import/Export ?

VM Import/Export permet aux clients d'importer des images de machine virtuelle (VM) afin de créer des instances Amazon EC2. Les clients peuvent également exporter des instances EC2 précédemment importées afin de créer des machines virtuelles (VM). Ils peuvent utiliser VM Import/Export pour développer les investissements déjà consacrés à la création de VM en migrant leurs VM vers Amazon EC2.

Q : Quels systèmes d'exploitation sont pris en charge ?

VM Import/Export prend actuellement en charge les machines virtuelles Windows et Linux, y compris plusieurs éditions de Windows Server, Red Hat Enterprise Linux (RHEL), CentOS, Ubuntu, Debian et autres. Pour plus d'informations sur VM Import, y compris les formats de fichiers, les architectures et les configurations de système d'exploitation pris en charge, consultez la section VM Import/Export du VM Import/Export.

Q : Quels formats de fichiers de machines virtuelles sont pris en charge ?

Vous pouvez importer des images VMDK VMware ESX, des images VHD Citrix Xen, des images VHD Microsoft Hyper-V et des images RAW sous la forme d'instances Amazon EC2. Vous pouvez exporter des instances EC2 au format VMDK VMware ESX, OVA VMware ESX, VHD Microsoft Hyper-V ou VHD Citrix Xen. Pour obtenir une liste complète des systèmes d'exploitation pris en charge, consultez Quels sont les systèmes d'exploitation pris en charge ?

Q : Qu'est-ce que VMDK ?

VMDK est un format de fichier qui spécifie un disque dur de machine virtuelle contenu dans un seul fichier. Il est généralement utilisé par les infrastructures informatiques virtuelles telles que celles vendues par VMware, Inc.

Q : Comment préparer un fichier VMDK pour l'importer à l'aide du client VMware vSphere ?

Le fichier VMDK peut être préparé par un appel du modèle File-Export-Export vers OVF dans VMware vSphere Client. Le fichier VMDK obtenu est compressé pour réduire la taille de l'image, et il est compatible avec VM Import/Export. Aucune préparation spéciale n'est nécessaire si vous utilisez Amazon EC2 VM Import Connector vApp pour VMware vCenter.

Q : Qu'est-ce que VHD ?

VHD (Virtual Hard Disk) est un format de fichier qui spécifie un disque dur de machine virtuelle contenu dans un seul fichier. Le format d'image VHD est utilisé par les plateformes de virtualisation telles que Microsoft Hyper-V et Citrix Xen.

Q : Comment préparer un fichier VHD pour l'importer à partir de Citrix Xen ?

Ouvrez Citrix XenCenter et sélectionnez la machine virtuelle que vous souhaitez exporter. Dans le menu Tools, cliquez sur « Virtual Appliance Tools » et sélectionnez « Export Appliance » pour initier la tâche d'exportation. Une fois l'exportation terminée, le fichier d'image VHD figure dans le répertoire de destination que vous avez spécifié dans la boîte de dialogue d'exportation.

Q : Comment préparer un fichier VHD pour l'importer à partir de Microsoft Hyper-V ?

Ouvrez Hyper-V Manager et sélectionnez la machine virtuelle que vous souhaitez exporter. Dans le panneau Actions pour la machine virtuelle, sélectionnez « Export » afin d'initier la tâche d'exportation. Une fois l'exportation terminée, le fichier d'image VHD figure dans le répertoire de destination que vous avez spécifié dans la boîte de dialogue d'exportation.

Q : Faut-il remplir d'autres conditions pour importer une machine virtuelle dans Amazon EC2 ?

La machine virtuelle doit être à l'arrêt avant de générer l'image VMDK ou VHD. La VM ne peut pas être en pause ou suspendue. Nous conseillons d'exporter la machine virtuelle avec simplement le volume de démarrage joint. Vous pouvez importer des disques supplémentaires en utilisant la commande ImportVolume et les associer à la machine virtuelle avec AttachVolume. De plus, les disques cryptés (e.g. Bit Locker) et les fichiers d'image cryptés ne sont pas pris en charge. Vous avez également la responsabilité de vous assurer que vous disposez des droits et des licences nécessaires pour importer vers AWS et exécuter n'importe quel logiciel dans votre image VM.

Q : Est-ce que la machine virtuelle doit être configurée d'une certaine manière pour permettre l'importation dans Amazon EC2 ?

Assurez-vous que Bureau à distance ou Secure Shell (SSH) est bien activé pour l'accès à distance et vérifiez que votre pare-feu hôte (pare-feu Windows, logiciel iptables de Linux ou similaire), s'il est configuré, permet d'accéder au Bureau à distance ou à SSH. Autrement, vous serez dans l'incapacité d'accéder à votre instance après la fin de l'import. Assurez-vous également que les VM Windows sont configurées pour utiliser des mots de passe forts pour tous les utilisateurs, y compris pour l'administrateur, et que les VM Linux sont configurées avec une clé publique pour accéder à SSH.

Q : Comment importer une machine virtuelle vers une instance Amazon EC2 ?

Vous pouvez importer vos images de machine virtuelle en utilisant les outils d'API d'Amazon EC2 :

  • Importez le fichier VMDK, VHD ou RAW via l'API ec2-import-instance. La tâche d'importation d'instance capture les paramètres nécessaires à la configuration correcte des propriétés d'instance Amazon EC2 (taille d'instance, zone de disponibilité et groupes de sécurité) et télécharge l'image disque sur Amazon S3.
  • Si l'API ec2-import-instance est interrompue ou arrêtée avant la fin du téléchargement, utilisez ec2-resume-import pour reprendre le téléchargement. La tâche d'importation reprendra là où elle s'est arrêtée.
  • Utiliser la commande ec2-describe-conversion-tasks pour surveiller l'avancement de l'importation et obtenir l'ID d'instance Amazon EC2 résultant.
  • Une fois votre tâche d'importation terminée, vous pouvez démarrer l'instance Amazon EC2 en spécifiant son ID d'instance à l'API ec2-run-instances.
  • Enfin, utilisez l'outil de ligne de commande ec2-delete-disk-image pour supprimer votre image de disque d'Amazon S3, car elle est devenue inutile.

Autrement, si vous utilisez la plateforme de virtualisation VMware vSphere, vous pouvez importer votre machine virtuelle vers Amazon EC2 en utilisant une interface utilisateur graphique fournie via le portail AWS Management Portal for vCenter. Veuillez consulter le Guide de démarrage dans AWS Management Portal for vCenter. AWS Management Portal for vCenter intègre la prise en charge de VM Import. Une fois le portail installé dans vCenter, effectuez un clic droit sur une machine virtuelle (VM) et sélectionnez « Migrate to EC2 » pour créer une instance EC2 à partir de cette machine virtuelle. Le portail se charge alors d'exporter la VM depuis vCenter, de la télécharger dans S3 et de la convertir en instance EC2, et ce, sans qu'aucune autre action de votre part soit nécessaire. Vous pouvez également suivre la progression de vos transferts de VM depuis le portail.

Q : Comment exporter une instance Amazon EC2 vers mon environnement de virtualisation sur site ?

Vous pouvez exporter votre instance Amazon EC2 à l'aide des outils de ligne de commande d'Amazon EC2 :

  • Exportez l'instance à l'aide de la commande ec2-create-instance-export-task. Cette commande capture les paramètres nécessaires (ID de l'instance, compartiment S3 contenant l'image exportée, nom de l'image exportée, format VMDK, OVA ou VHD) à l'exportation correcte de l'instance dans le format choisi. Le fichier exporté est enregistré dans le compartiment S3 créé auparavant.
  • Utilisez ec2-describe-export-tasks pour surveiller l'avancement de l'exportation.
  • Utilisez ec2-cancel-export-task pour annuler une tâche d'exportation en cours.

Q : Y a-t-il d'autres conditions à remplir pour exporter une instance EC2 à l'aide de VM Import/Export ?

Vous pouvez exporter des instances EC2 en cours d'exécution ou arrêtées, que vous avez précédemment importées à l'aide de VM Import/Export. Si l'instance est en cours d'exécution, elle est temporairement arrêtée pour prendre un instantané du volume de démarrage. Les volumes de données EBS ne sont pas exportables. Les instances EC2 contenant plusieurs interfaces réseau ne sont pas exportables.

Q : Puis-je exporter des instances Amazon EC2 associées à un ou plusieurs volumes de données EBS ?

Oui, mais VM Import/Export n'exportera que le volume de démarrage de l'instance EC2.

Q : Combien coûte l'importation d'une machine virtuelle ?

Les frais standard de transfert et de stockage de données de Amazon S3 pour le téléchargement et le stockage de votre fichier d'image VM vous seront facturés. Une fois votre VM importée, les services horaires d'instances Amazon EC2 standard et de service EBS s'appliquent. Si vous ne souhaitez plus continuer à stocker votre fichier d'image VM dans S3 après la fin du processus d'importation, utilisez l'outil de ligne de commande ec2-delete-disk-image pour supprimer votre image disque d'Amazon S3.

Q : Combien coût l'exportation d'une machine virtuelle ?

Les frais de stockage Amazon S3 standard vous seront facturés pour le stockage de l'image de la machine virtuelle exportée. Des frais de transfert de données S3 standard vous seront également appliqués lors du téléchargement du fichier VM exporté dans votre environnement de virtualisation sur site. Enfin, vous devrez acquitter les frais EBS standard pour le stockage d'un instantané temporaire de votre instance EC2. Pour réduire le plus possible les coûts de stockage, supprimez le fichier d’image VM dans S3 après son téléchargement dans votre environnement de virtualisation.

Q : Lorsque j’importe une machine virtuelle de Windows Server qui a atteint Microsoft EOS, qui doit fournir la licence du système d’exploitation ?

Lorsque vous démarrez une machine virtuelle importée avec Microsoft Windows Server qui a atteint Microsoft EOS, vous êtes facturé au tarif horaire d’une instance standard Amazon EC2 exécutant la version de Windows Server appropriée. Ce tarif comprend le droit d’utiliser ce système d’exploitation dans Amazon EC2. Vous êtes responsable de vous assurer que tous les autres logiciels installés disposent d’une licence.

Dans ce cas, qu’advient-il de ma clé de licence Microsoft Windows sur site lorsque j’importe une machine virtuelle de Windows Server qui a atteint Microsoft EOS ? Étant donné que votre clé de licence Microsoft Windows sur site, associée à cette machine virtuelle, n’est pas utilisée lors de l’exécution de votre machine virtuelle importée en tant qu’instance EC2, vous pouvez la réutiliser pour une autre machine virtuelle dans votre environnement sur site.

Q : Puis-je continuer à utiliser la clé de licence Microsoft Windows fournie par AWS après avoir réexporté une instance EC2 dans mon environnement de virtualisation sur site ?

Non. Dès qu'une instance EC2 est exportée, la clé de licence qu'elle utilise n'est plus disponible. Vous devez réactiver et spécifier une nouvelle clé de licence pour la VM exportée, une fois celle-ci démarrée sur votre plate-forme de virtualisation sur site.

Q : Lorsque j'importe une machine virtuelle avec Red Hat Enterprise Linux (RHEL), qui doit fournir la licence du système d'exploitation ?

Lorsque vous importez vos images de machine virtuelle Red Hat Enterprise Linux (RHEL), vous pouvez utiliser la portabilité de licence pour vos instances RHEL. Grâce à la portabilité de licence, vous êtes en mesure de conserver les licences RHEL pour les instances importées et ce, au moyen des souscriptions au service Cloud Access de Red Hat Enterprise Linux. Contactez Red Hat pour en savoir plus sur Cloud Access et pour vérifier votre éligibilité.

Q : Combien de temps prend l'importation d'une machine virtuelle ?

La durée de l'importation d'une machine virtuelle dépend de la taille de l'image disque et de la vitesse de votre connexion réseau. Pour exemple, pour importer une image VMDK de 10 Go Windows Server 2008 SP2 il faut environ 2 heures lorsqu'elle est transférée avec une connexion réseau de 10 Mbit/s. Si vous disposez d'une connexion réseau plus lente ou souhaitez importer un disque volumineux, l'importation pourrait prendre considérablement plus de temps.

Q : Dans quelles régions Amazon EC2 puis-je utiliser VM Import/Export ?

Consultez la page du tableau des régions pour connaître la disponibilité des produits et services par région.

Q : Combien de tâches d'importation ou d'exportation simultanées puis-je lancer ?

Chaque compte peut avoir jusqu'à cinq tâches d'importation actives et cinq tâches d'exportation par région.

Q : Puis-je exécuter des machines virtuelles importées dans un Amazon Virtual Private Cloud (Amazon VPC) ?

Oui, vous pouvez lancer des machines virtuelles importées dans Amazon VPC.

Q : Puis-je utiliser la console de gestion AWS avec VM Import/Export ?

Non. Les commandes de VM Import/Export sont disponibles dans l'API et l'interface de ligne de commande EC2. Vous pouvez également utiliser AWS Management Portal for vCenter pour importer des machines virtuelles dans Amazon EC2. Une fois importées, les instances obtenues sont disponibles et utilisables via AWS Management Console.

Options de facturation et d'achat

Facturation

Q : Comment mon utilisation d'Amazon EC2 me sera-t-elle facturée ?

Vous ne payez que ce que vous utilisez. Le tarif indiqué est un tarif horaire, mais suivant les instances que vous sélectionnez, vous payez à l'heure ou à la seconde (60 secondes minimum) pour chaque type d'instance. Les instances-heures partiellement consommées sont facturées en fonction de l'utilisation de l'instance. Les données transférées entre les services AWS dans différentes régions sont facturées aux tarifs de transfert de données interrégional standard. L'utilisation des autres services Amazon Web Services est facturée séparément d'Amazon EC2.

Pour en savoir plus sur les tarifs d'Amazon EC2, consultez la section relative à la tarification sur la page de présentation d'Amazon EC2.

Q : Quand la facturation de mes systèmes Amazon EC2 commence-t-elle et prend-elle fin ?

La facturation commence lorsque Amazon EC2 débute la séquence de démarrage d'une instance AMI. La facturation se termine lorsque l'instance se termine, ce qui peut se produire en raison d'une commande de services web, en déclenchant "shutdown -h" ou en raison d'une défaillance d'instance. Lorsque vous arrêtez une instance, nous la fermons, mais nous ne vous facturons pas pour l'utilisation horaire et les frais de transfert de données associés. Nous vous facturons toutefois les frais de stockage de tous les volumes Amazon EBS. Pour en savoir plus, consultez la documentation AWS.

Q : Qu'est-ce qui définit une utilisation d'instance EC2 facturable ?

Des heures d'instance vous sont facturées dès que l'état de vos instances indique qu'elles sont en cours d'exécution. Si vous ne souhaitez plus payer de frais pour votre instance, vous devez y mettre fin afin d'éviter que des heures-instance supplémentaires vous soient facturées. La facturation commence dès lors qu'une instance est en fonctionnement.

Q : Si j'ai deux instances dans deux zones de disponibilité différentes, comment suis-je facturé pour les transferts de données régionaux ?

Chaque instance est facturée pour ses données entrantes et sortantes selon les tarifs des transferts de données correspondants. Par conséquent, si des données transitent entre ces deux instances, celles-ci sont facturées au tarif du « transfert de données sortantes depuis EC2 vers une autre région AWS » pour la première instance et au tarif du « transfert de données entrantes depuis une autre région AWS » pour la deuxième instance. Pour en savoir plus sur la tarification du transfert de données, consultez cette page.

Q : Si j'ai deux instances dans deux régions différentes, comment les transferts de données vont-ils m'être facturés ?

Chaque instance est facturée pour ses données entrantes et sortantes selon les tarifs des transferts de données inter-régions. Par conséquent, si des données sont transférées entre ces deux instances, elles sont facturées selon les tarifs des transferts sortants de données inter-régions pour la première instance et selon les tarifs des transferts entrants de données inter-régions pour la seconde instance.

Q : De quoi aura l'air ma facture mensuelle à la seconde par rapport à ma facture à l'heure ?

Bien que les frais EC2 de votre facture mensuelle soient désormais calculés à la seconde, pour des raisons de cohérence, la facture EC2 mensuelle indiquera sous la forme d'heures décimales l'utilisation cumulée pour chaque instance exécutée dans le mois. Par exemple, pour une instance s'exécutant pendant 1 heure, 10 minutes et 4 secondes, la forme serait 1.1677. Consultez ce blog pour accéder à un exemple du rapport de facturation détaillé.

Q : Vos prix sont-ils toutes taxes comprises ?

Sauf indication contraire, nos prix n'incluent pas les taxes et redevances applicables, y compris la TVA et les taxes sur les ventes applicables. Pour les clients dont l'adresse de facturation est située au Japon, l'utilisation de services AWS est soumise à la taxe sur la consommation applicable dans ce pays. En savoir plus.

Frais de transfert de données lors du transfert de toutes les données hors d’AWS

Q : Aurai-je à payer des frais de transfert de données vers Internet lors du transfert de mes données hors d’AWS ?

AWS propose aux clients éligibles un transfert de données gratuit vers Internet lorsqu’ils transfèrent toutes leurs données hors d’AWS, conformément à la procédure ci-dessous.

Q : Je souhaite transférer mes données hors d’AWS. Comment puis-je demander un transfert de données gratuit vers Internet ?

Procédez comme suit :

1) Si vous disposez d’une équipe dédiée à votre compte AWS, contactez-la d’abord et informez-la de vos projets. Dans certains cas, si vous avez un engagement négocié avec AWS, vous souhaiterez discuter des options qui s’offrent à vous avec l’équipe responsable de votre compte AWS.

2) Passez en revue les critères et le processus décrits sur cette page.

3) Contactez le support client AWS et indiquez que votre demande concerne un « transfert de données gratuit pour quitter AWS ». Le support client AWS vous demandera de fournir des informations afin qu’il puisse revoir vos projets de transfert, déterminer si vous êtes éligible au transfert de données gratuit et calculer un montant de crédit approprié.

4) Si le support client AWS approuve votre transfert, vous recevrez un crédit temporaire pour le coût du transfert des données sortantes en fonction du volume de toutes les données que vous avez stockées dans les services AWS au moment du calcul par AWS. Le support client AWS vous informera si votre demande est approuvée, et vous aurez alors 60 jours pour terminer votre départ d’AWS. Le crédit ne sera pris en compte que pour l’utilisation du transfert de données sortantes et ne sera pas appliqué à l’utilisation d’autres services. Après avoir quitté les services AWS, dans le délai de 60 jours, vous devez supprimer toutes les données et charges de travail restantes de votre compte AWS. Sinon, vous pouvez fermer votre compte AWS.

Les transferts de données gratuits pour les prestataires informatiques en déplacement sont également soumis aux critères suivants :

a) Seuls les clients possédant un compte AWS actif et en règle peuvent bénéficier du transfert de données gratuit.

b) Si vous avez moins de 100 Go de données sur votre compte AWS, vous pouvez transférer ces données hors d’AWS gratuitement dans le cadre de l’offre gratuite existante d’AWS de 100 Go par mois pour les transferts de données sortantes. Les clients qui ont moins de 100 Go de données sur leur compte AWS ne sont pas éligibles à des crédits supplémentaires.

c) AWS vous fournira un transfert de données gratuit vers Internet lorsque vous transférerez toutes vos données hors d’AWS. Si vous souhaitez uniquement modifier votre utilisation totale d’un seul service, mais pas tout, contactez le support client AWS.

d) Si vos plans changent ou si vous ne pouvez pas terminer votre transfert hors d’AWS dans les 60 jours, vous devez en informer le support client AWS.

e) Les frais de service standard liés à l’utilisation des services AWS ne sont pas inclus. Seuls les frais de transfert de données liés à votre transfert hors d’AWS peuvent donner droit à des crédits. Toutefois, le transfert de données depuis des services de transfert de données spécialisés, tels qu’Amazon CloudFront, AWS Direct Connect, AWS Snow Family et AWS Global Accelerator, n’est pas inclus.

f) AWS peut revoir votre utilisation des services afin de vérifier la conformité à ces exigences. Si nous déterminons que vous avez utilisé le transfert de données sortantes dans un but autre que celui de quitter AWS, nous pouvons vous facturer le transfert de données sortant crédité.

g) AWS peut apporter des modifications en ce qui concerne les transferts de données gratuits vers Internet à tout moment.

Q : Pourquoi dois-je demander l’approbation préalable d’AWS pour le transfert gratuit de données vers Internet avant de transférer mes données hors d’AWS ?

Les clients AWS effectuent des centaines de millions de transferts de données chaque jour, et nous ne connaissons généralement pas la raison de chaque transfert de données. Par exemple, les clients peuvent transférer des données à un utilisateur final de leur application, à un visiteur de leur site Web ou à un autre environnement cloud ou sur site à des fins de sauvegarde. Par conséquent, la seule façon de savoir si votre transfert de données est destiné à faciliter votre départ d'AWS est de nous en informer au préalable.

Frais de transfert de données lors de la migration depuis Singapour (SIN) vers la Malaisie (KUL)

Q : Aurai-je à régler des frais pour le transfert de données interrégional (DTIR) lorsque je migrerai mes données depuis Singapour vers la Malaisie ?

AWS propose aux clients éligibles un DTIR gratuit lorsqu'ils migrent tout ou partie de leurs données depuis Singapour vers la Malaisie, conformément au processus ci-dessous (voir question suivante).

Q : Je souhaite migrer mes données depuis Singapour vers la Malaisie. Comment puis-je demander un DTIR gratuit ?

Procédez comme suit :

1) Si vous disposez d’une équipe dédiée à votre compte AWS, contactez-la d’abord et informez-la de vos projets. Dans certains cas, si vous avez conclu un accord de tarification privée avec AWS, vous souhaiterez certainement discuter des options qui s’offrent à vous avec l’équipe responsable de votre compte AWS.

2) Passez en revue les critères et le processus décrits sur cette page (après l’étape 6).

3) Contactez le support client AWS et indiquez que votre demande concerne « un transfert de données gratuit entre régions (DTIR) pour migrer des données depuis Singapour vers la Malaisie ». Le support client AWS vous demandera de fournir des informations afin qu’il puisse étudier vos projets de migration, déterminer si vous êtes éligible au DTIR gratuit et, le cas échéant, calculer un montant de crédit approprié.

4) Si le support client AWS approuve votre transfert, vous recevrez un crédit temporaire correspondant au coût du DTIR en fonction du volume de toutes les données que vous souhaitez migrer via les services AWS depuis Singapour vers la Malaisie. Le support client AWS vous informera si votre demande est approuvée, et vous aurez alors 60 jours pour finaliser votre migration inter-régionale. Le crédit ne sera pris en compte que pour l’utilisation du DTIR et ne sera pas appliqué à l’utilisation d’autres services.

5) Une fois la migration terminée dans le délai de 60 jours, vous devez supprimer les données et les charges de travail migrées depuis Singapour dans les 30 jours suivant la fin de votre migration.

6) Vous pouvez répéter les étapes 3 à 5 si vous devez migrer des données de Singapour vers la Malaisie sur plusieurs cycles de transferts de données.

Le DTIR gratuit pour la migration depuis Singapour vers la Malaisie est également soumis aux critères suivants :

1) Seuls les clients possédant un compte AWS actif et en règle peuvent bénéficier du DTIR gratuit.

2) Si vos plans changent ou que vous ne parvenez pas à finaliser votre migration inter-régionale sous 60 jours, vous devez en informer le support client AWS.

3) Les frais de service standard liés à l’utilisation des services AWS ne sont pas inclus. Seuls les frais de DTIR liés à votre migration de Singapour vers la Malaisie peuvent donner droit à des crédits.

4) AWS peut revoir votre utilisation des services afin de vérifier la conformité à ces exigences. Si nous déterminons que vous avez utilisé le DTIR dans un but autre que la migration de données et de charges de travail depuis Singapour vers la Malaisie, nous sommes en droit de vous facturer le DTIR qui a été crédité.

5) AWS peut apporter des modifications en ce qui concerne le DTIR gratuit à tout moment.

Q : Pourquoi dois-je demander l'approbation préalable d'AWS pour le DTIR gratuit avant de migrer mes données depuis Singapour vers la Malaisie ?

Les clients AWS effectuent des centaines de millions de transferts de données chaque jour, et nous n'en connaissons généralement pas la raison. Par exemple, les clients peuvent transférer des données pour répliquer des charges de travail à des fins de sauvegarde, à un visiteur de leur site Web depuis la Malaisie. Par conséquent, la seule façon de savoir que votre transfert de données est destiné à faciliter votre migration inter-régionale de Singapour vers la Malaisie est de nous en informer au préalable.

Instances réservées convertibles

Q : Qu'est-ce qu'une instance réservée convertible ?

Une instance réservée convertible est un type d'instance réservée dotée d'attributs qui peuvent être modifiés pendant la période de validité de l'instance.

Q : Quand est-il préférable d'acheter une instance réservée convertible au lieu d'une instance réservée standard ?

L'instance réservée convertible est utile aux clients qui peuvent s'engager à utiliser des instances EC2 pendant trois ans en échange d'une remise importante sur leur utilisation d'EC2, qui ne sont pas sûrs de leurs besoins futurs en instances ou qui souhaitent bénéficier des changements de prix.

Q : Quelles sont les options de durée disponibles sur les IR convertibles ?

Comme les instances réservées standard, les instances réservées convertibles sont disponibles à l'achat pour un ou trois ans.

Q : Puis-je échanger mon instance réservée convertible pour profiter d'une instance réservée convertible correspondant à un autre type d'instance, un autre système d'exploitation, une autre location ou une autre option de paiement ?

Oui, vous pouvez sélectionner un nouveau type d'instance, un nouveau système d'exploitation, une nouvelle location ou une nouvelle option de paiement lorsque vous échangez vos instances réservées convertibles. Vous avez également la possibilité d'échanger une partie de votre instance réservée convertible ou de fusionner la valeur de plusieurs instances réservées convertibles en un seul échange.

Q : Puis-je transférer une instance réservée convertible ou standard d'une région à une autre ?

Non, chaque instance réservée est associée à une région spécifique qui ne peut pas être modifiée pendant la durée de la réservation.

Q : Comment modifier la configuration d'une instance réservée convertible ?

Vous pouvez modifier la configuration de votre instance réservée convertible à l'aide d'EC2 Management Console ou de l'API GetReservedInstancesExchangeQuote. Vous avez également la possibilité d'échanger une partie de votre instance réservée convertible ou de fusionner la valeur de plusieurs instances réservées convertibles en un seul échange. Pour en savoir plus sur l'échange d'instances réservées convertibles, cliquez ici.

Q : Dois-je payer des frais lors de l'échange d'instances réservées convertibles ?

Non, aucuns frais ne s'appliquent à l'échange d'instances réservées. Toutefois, vous devrez peut-être payer des frais d'alignement ponctuels tenant compte des écarts de prix entre les instances réservées convertibles dont vous disposez et celles que vous souhaitez acquérir.

Q : Comment fonctionnent les échanges d'instances réservées convertibles ?

Lors de l'échange d'instances réservées convertibles, EC2 veille à ce que la valeur totale des instances réservées convertibles soit maintenue en procédant à une conversion. Ainsi, si vous convertissez une instance réservée d'une valeur totale de 1000 USD en une autre instance réservée, vous recevez une ou plusieurs instances réservées convertibles d'une valeur totale égale ou supérieure à 1000 USD. Vous ne pouvez pas convertir une instance réservée convertible en une ou plusieurs instances réservées convertibles d'une valeur totale inférieure.

Q : Qu'entendez-vous par « valeur totale » ?

La valeur totale correspond à la somme de tous les paiements attendus que vous avez effectués pendant la période de validité de l'instance réservée.

Q : Pouvez-vous expliquer comment le coût d'alignement est calculé pour une conversion entre deux instances réservées convertibles avec paiement initial complet ?

Imaginons que vous avez acheté une instance réservée convertible assortie d'un paiement initial complet de 1000 USD et qu'à mi-chemin de la période de validité vous décidez de modifier les attributs de l'instance réservée. Étant donné que vous êtes à mi-chemin de la période de validité de l'instance réservée, la valeur restante de l'instance réservée, calculée au prorata, est de 500 USD. L'instance réservée convertible avec paiement initial complet que vous souhaitez convertir représente aujourd'hui un paiement initial de 1 200 USD. Étant donné que vous êtes à la moitié de la période de validité de votre instance réservée convertible existante, la nouvelle instance réservée convertible représente une valeur de 600 USD. Les frais d'alignement correspondent à la différence entre la valeur du paiement initial de l'instance d'origine et la valeur du paiement initial de l'instance souhaitée, soit 100 USD (600 USD moins 500 USD).

Q : Pouvez-vous expliquer les conversions entre des instances réservées convertibles sans paiement initial ?

Contrairement aux conversions entre instances réservées convertibles avec une valeur initiale, étant donné que vous convertissez des instances réservées sans coût initial, aucuns frais d'alignement ne s'appliquent. Cependant, le montant horaire que vous payez avant l'échange doit être supérieur ou égal au montant horaire total que vous payez après l'échange.

Par exemple, imaginons que vous achetez une instance réservée convertible sans paiement initial (A) à un taux horaire de 0,10 USD et que vous décidez d'échanger cette instance A contre une autre instance réservée (B) facturée à un taux horaire de 0,06 USD. Lors de la conversion, vous recevez deux instances réservées B, car le montant horaire que vous payez doit être supérieur ou égal au montant horaire payé pour l'instance A.

Q : Puis-je personnaliser le nombre d'instances que je reçois suite à un échange d'instances réservées convertibles ?

Non, EC2 utilise la valeur des instances réservées convertibles que vous échangez pour calculer le nombre minimal d'instances réservées convertibles que vous recevez tout en s'assurant qu'à l'issue de l'échange, vous obtenez des instances réservées convertibles d'une valeur égale ou supérieure.

Q : L'échange d'instances réservées convertibles est-il limité ?

Non, l'échange d'instances réservées convertibles n'est pas limité.

Q : Puis-je choisir librement le type d'instance lors de l'échange d'instances réservées convertibles ?

Non, vous pouvez échanger vos instances uniquement contre les instances réservées convertibles actuellement proposées par AWS.

Q : Puis-je modifier l'option de paiement associée à mon instance réservée convertible ?

Oui, vous pouvez modifier l'option de paiement associée à votre instance réservée. Par exemple, vous pouvez échanger vos instances réservées sans paiement initial contre des instances réservées avec paiement initial partiel ou paiement initial complet pour profiter de meilleurs tarifs. Vous ne pouvez pas passer de l'option « paiement initial complet » à l'option « sans paiement initial », ni de l'option « paiement initial partiel » à l'option « sans paiement initial ».

Q : Les instances réservées convertibles permettent-elles de bénéficier de baisses de prix, le cas échéant ?

Oui, vous pouvez échanger vos instances réservées pour profiter de tarifs réduits. Par exemple, si le prix de nouvelles instances réservées convertibles baisse de 10 %, vous pouvez échanger vos instances réservées convertibles et profiter de la réduction de 10 %.

Flotte EC2

Q : Qu'est-ce que Amazon EC2 Fleet ?

Avec un seul appel d'API, EC2 Fleet vous permet de provisionner la capacité de calcul entre différents types d'instance, zones de disponibilité et à travers les instances sur demande, réservées (RI) et les instances Spot pour optimiser la mise à l'échelle, la performance et les coûts.

Q : Si j'utilise actuellement le parc d'instances Spot d'Amazon EC2, dois-je migrer vers Amazon EC2 Fleet ?

Si vous utilisez des instances Spot Amazon EC2 avec parc d'instances Spot, vous pouvez continuer à les utiliser. Spot Fleet et EC2 Fleet offrent la même fonctionnalité. Il n'est pas nécessaire de migrer.

Q : Puis-je utiliser les remises sur les instances réservées (RI) avec Amazon EC2 Fleet ?

Oui. Comme les autres API EC2 ou les autres services AWS qui lancent des instances EC2, si l'instance à la demande lancée par EC2 Fleet correspond à un RI existant, cette instance recevra la réduction RI. Par exemple, si vous possédez des RI régionaux pour les instances M4 et que vous avez spécifié uniquement des instances M4 dans votre EC2 Fleet, les réductions RI seront automatiquement appliquées à cette utilisation de M4.

Q : La fonction Amazon EC2 Fleet basculera-t-il en mode à la demande si la capacité EC2 Spot n'est pas entièrement remplie ?

Non, EC2 Fleet continuera de tenter de répondre à votre capacité Spot désirée en fonction du nombre d'instances Spot que vous avez demandées dans votre spécification de lancement Fleet.

Q : Quel est le prix d'Amazon EC2 Fleet ?

EC2 Fleet est disponible sans frais supplémentaires, vous ne payez que pour les ressources sous-jacentes lancées par EC2 Fleet.

Q : Pouvez-vous fournir un exemple d'utilisation concrète d'Amazon EC2 Fleet ?

Il existe plusieurs moyens de tirer parti d'Amazon EC2 Fleet, notamment dans les charges de travail de big data, les applications conteneurisées, les charges de travail de traitement de grille, etc. Dans cet exemple de charge de travail de séquençage génomique, vous pouvez lancer une grille de nœuds de travail avec un seul appel API : sélectionnez vos instances favorites, attribuez des pondérations à ces instances, spécifiez la capacité cible des instances Spot et On-Demand et créez une flotte en quelques secondes pour traiter des données génomiques rapidement.

Q : Comment allouer des ressources dans une flotte Amazon EC2 Fleet ?

Par défaut, EC2 Fleet lancera l'option à la demande ayant le plus bas prix. Pour les instances Spot, EC2 Fleet fournit trois stratégies d'allocation : optimisée pour la capacité, pris le plus bas et diversifiée. La stratégie d'allocation optimisée en termes de capacité tente de provisionner des instances Spot à partir des groupes d'instances Spot les plus disponibles en analysant les métriques de capacité. Cela fonctionne parfaitement pour les charges de travail comme le Big Data et l'analyse, le rendu image et multimédia, le machine learning et le calcul haute performance pouvant coûter plus cher en interruption.

La stratégie plus bas prix vous permet d'allouer vos ressources d'instances Spot dans des groupes qui offrent le prix le plus bas par unité de capacité au moment de la demande. La stratégie diversifiée vous permet de provisionner des instances Spot dans plusieurs groupes Spots et vous pouvez maintenir la capacité cible de votre flotte pour augmenter l'application.

Q : Puis-je soumettre une demande de flotte Amazon EC2 Fleet multi-régions ?

Non, nous ne prenons pas en charge les demandes EC2 Fleet multi-régions.

Q : Puis-je étiqueter une flotte Amazon EC2 Fleet ?

Oui. Vous pouvez marquer une demande EC2 Fleet pour créer des groupes de tags pertinents pour l'entreprise afin d'organiser les ressources selon les dimensions techniques, commerciales et de sécurité.

Q : Puis-je modifier ma flotte Amazon EC2 Fleet ?

Oui, vous pouvez modifier la capacité totale de votre EC2 Fleet lorsqu'elle est en mode de maintenance. Vous devrez peut-être annuler la demande et en soumettre une nouvelle pour modifier les autres paramètres de configuration de la demande.

Q : Puis-je spécifier une IMAGE AMI différente pour chaque type d'instance que je veux utiliser ?

Oui. Il vous suffit d’indiquer l’AMI que vous souhaitez utiliser dans chaque spécification de lancement fournie avec votre flotte EC2.

Blocs de capacité Amazon EC2 pour le ML

Q : Que sont les blocs de capacité Amazon EC2 pour le ML ?

Les blocs de capacité Amazon EC2 pour le ML vous permettent de réserver des instances GPU dans des UltraClusters Amazon EC2 pour exécuter vos charges de travail de machine learning (ML). Avec les blocs de capacité Amazon EC2, vous pouvez réserver de la capacité GPU à compter d’une date ultérieure pour une durée maximale de 6 mois et pour des tailles de cluster allant de 1 à 64 instances. Lorsque la date et l’heure de votre réserve de bloc de capacité EC2 arriveront, vous pourrez lancer vos instances et les utiliser jusqu’à la fin de votre période de réserve.

Q : Pourquoi utiliser des blocs de capacité EC2 ?

Les blocs de capacité EC2 permettent d’accéder facilement aux instances GPU les plus performantes d’Amazon EC2 pour ML, même en cas de pénurie de GPU à l’échelle du secteur d’activité. Utilisez les blocs de capacité EC2 pour garantir la disponibilité de la capacité des instances GPU afin de planifier votre développement de ML en toute confiance. Les blocs de capacité EC2 sont fournis dans des UltraClusters EC2 afin que vous puissiez tirer parti des meilleures performances de latence et de débit du réseau disponibles dans EC2.

Q : Quand dois-je utiliser les blocs de capacité Amazon EC2 au lieu des réserves de capacité à la demande ?

Vous devez utiliser les blocs de capacité EC2 lorsque vous avez besoin d’une assurance de capacité à court terme pour entraîner ou affiner des modèles de ML, réaliser des expériences, créer des prototypes ou gérer les pics de demande d’applications de ML. Avec les blocs de capacité EC2, vous pouvez avoir l’esprit tranquille en sachant que vous aurez accès aux ressources du GPU à une date précise pour exécuter vos charges de travail de ML. Vous devez utiliser les réserves de capacité à la demande pour tous les autres types de charge de travail nécessitant une assurance, tels que les applications critiques, les exigences réglementaires ou la reprise après sinistre.

Q : Comment démarrer avec les blocs de capacité EC2 ?

Vous pouvez rechercher les blocs de capacité EC2 disponibles en fonction de vos besoins en matière de capacité dans la Console de gestion AWS, dans l’interface de la ligne de commande AWS (AWS CLI) et dans les kits de développement logiciel (SDK) AWS. Une fois que vous avez acheté un bloc de capacité EC2, une réserve est créée sur votre compte. Lorsque l’heure de début du bloc de capacité EC2 arrive, EC2 émet un événement via Amazon EventBridge pour indiquer que la réserve est désormais active et utilisable. Pour utiliser un bloc de capacité EC2 actif, sélectionnez l’option d’achat « Bloc de capacité » et ciblez l’ID de réserve de capacité pour votre bloc de capacité EC2 lors du lancement d’instances EC2. À l’approche de l’heure de fin de votre bloc de capacité EC2, EC2 émettra un événement via EventBridge pour vous informer que votre réserve se terminera bientôt afin que vous puissiez contrôler votre charge de travail. Environ 30 minutes avant l’expiration de votre bloc de capacité EC2, AWS commencera à mettre fin à toutes les instances en cours d’exécution. Le montant qui vous est facturé pour votre bloc de capacité EC2 n’inclut pas les 30 dernières minutes de la réserve.

Q : Quels types d’instances les blocs de capacité EC2 prennent-ils en charge et dans quelles Régions AWS sont-ils disponibles ?

Les blocs de capacité EC2 sont disponibles pour les types d'instances suivants dans les régions suivantes :

  • Instances EC2 p5e.48xlarge dans la région USA Est (Ohio)
  • Instances EC2 p5.48xlarge dans les régions USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Oregon) et Asie-Pacifique (Tokyo)
  • Instances EC2 p4d.24xlarge dans les régions USA Est (Ohio) et USA Ouest (Oregon)
  • Instances EC2 trn1.32xlarge dans la région Asie-Pacifique (Melbourne)

Q : Quelles sont les options de taille disponibles avec les blocs de capacité EC2 ?

Les blocs de capacité EC2 sont disponibles dans des clusters de 1, 2, 4, 8, 16, 32 et 64 instances, et ils peuvent être réservés pour une durée maximale de 14 jours par incréments d’un jour, ou une durée maximale de 182 jours par incréments de 7 jours.

Q : Combien de temps à l’avance puis-je réserver un bloc de capacité EC2 ?

Vous pouvez acheter un bloc de capacité EC2 dans huit semaines ou dès maintenant, lorsque la capacité sera disponible. Les réservations EC2 Capacity Blocks qui débutent dans le futur commencent toujours à 11 h 30, temps universel coordonné (UTC), et se terminent toujours à 11 h 30 UTC.

Q : Que se passe-t-il s’il n’y a pas de blocs de capacité EC2 disponibles répondant à mes spécifications ?

Si aucun bloc de capacité EC2 ne correspond à vos besoins, vous pouvez réessayer votre demande avec des paramètres d’entrée différents. Nous vous recommandons d’utiliser la plage de dates la plus large possible dans vos demandes de recherche pour avoir les meilleures chances de trouver un bloc de capacité EC2.

Q : Puis-je modifier ou annuler mon bloc de capacité EC2 ?

Non, un bloc de capacité EC2 ne peut pas être modifié ou annulé une fois qu’il est réservé.

Q : Combien coûtent les blocs de capacité EC2 ?

Lorsque vous recherchez un bloc de capacité EC2 sur plusieurs dates, AWS renvoie l’offre la moins chère disponible qui répond à vos spécifications dans la plage de dates que vous indiquez. Le prix d’un bloc de capacité EC2 dépend de l’offre disponible totale et de la demande au moment de l’achat de la réserve. Vous pouvez consulter le prix d’une offre de bloc de capacité EC2 avant de la réserver, et le prix d’un bloc de capacité EC2 est facturé à l’avance au moment de la réservation. Le prix d’un bloc de capacité EC2 ne change pas une fois celui-ci réservé. Lorsque vous lancerez des instances dans un bloc de capacité EC2 actif, l’utilisation d’un système d’exploitation premium ne vous sera facturée que sur la base d’un paiement à l’utilisation.

Q : Les remises sur les Savings Plans et les instances réservées (RI) s’appliquent-elles aux blocs de capacité EC2 ?

Non, les blocs de capacité EC2 ne sont pas couverts par les remises sur les Savings Plans ou sur les instances réservées.

Q : Puis-je utiliser les blocs de capacité EC2 avec Amazon SageMaker ?

À l’heure actuelle, les blocs de capacité EC2 ne prennent en charge que les instances EC2.

Réservations de capacité Amazon EC2

Q : Que sont les réservations de capacité ?

Les réservations de capacité vous permettent de réserver de la capacité de calcul pour vos instances Amazon EC2 dans une zone de disponibilité spécifique, quelle que soit la durée. Les réservations de capacité garantissent que vous avez toujours accès à la capacité Amazon EC2 quand vous en avez besoin, aussi longtemps que vous en avez besoin.

Q : Pourquoi utiliser les réservations de capacité ?

Vous devez utiliser les réservations de capacité si vous avez des exigences de capacité strictes pour les charges de travail critiques actuelles ou futures qui nécessitent un certain niveau d'assurance de capacité à long ou à court terme.

Q : Quand puis-je créer des réservations de capacité ?

Vous pouvez créer des réservations de capacité pour une utilisation immédiate ou demander que des réservations de capacité soient livrées entre 5 et 120 jours dans le futur.

Q : Comment puis-je commencer à utiliser les réservations de capacité ?

Vous pouvez commencer par créer des réservations de capacité à l'aide de la console AWS, de l'interface de ligne de commande ou de l'API CreateCapacityReservation. Vous devez spécifier ici le type d'instance, la zone de disponibilité, la plate-forme (OS) et la location d'instance de la capacité que vous souhaitez réserver. Si vous souhaitez demander des réservations de capacité pour une date ultérieure, vous devrez également ajouter une date de début et une durée d'engagement.

Q : Combien coûtent les réserves de capacité ?

Les réservations de capacité sont facturées au tarif à la demande équivalent, que vous exécutiez des instances avec une capacité réservée ou non. Si vous n'utilisez pas la réservation, elle apparaît comme une réservation non utilisée sur votre facture Amazon EC2. Lorsque vous exécutez une instance qui correspond aux attributs d’une réserve, vous payez seulement l’instance. Nous ne facturons pas de frais de réserve. Il n’y a aucuns frais anticipés ou additionnels.

Par exemple, si vous créez une réservation de capacité pour 20 instances c5.2xlarge et que vous exécutez 15 instances c5.2xlarge, 15 instances et cinq instances inutilisées vous seront facturées dans la réservation (effectivement facturées pour 20 instances).

Q : Puis-je bénéficier d'une remise sur l'utilisation d'une réservation de capacité ?

Oui. Les plans d'épargne ou les remises sur les instances réservées régionales (RI) s'appliquent aux réservations de capacité. La réduction s'appliquera à la fois aux portions utilisées et non utilisées de la réservation lorsque les attributs de la réservation de capacité correspondent aux attributs d'un plan d'épargne actif ou d'un IR régional actif.

Remarque : une instance réservée régionale est une instance réservée EC2 limitée à une région AWS. Les remises sur les instances réservées zonales (limitées à une zone de disponibilité [AZ] au sein d’une région) ne s’appliquent pas aux réserves de capacité, car les instances réservées zonales sont fournies avec une réserve de capacité.

Q : J'ai créé une réserve de capacité. Comment puis-je l’utiliser ?

Une réservation de capacité est liée à une AZ, à un type d'instance, à une plate-forme (OS) et à une location spécifiques. Pour déterminer quelles instances peuvent utiliser la réservation, vous devez spécifier les critères de correspondance. Les réservations de capacité dont le critère de correspondance est « Ouvert » couvriront automatiquement les instances en cours d'exécution correspondantes ou les instances récemment lancées, à condition que la capacité excédentaire de la réservation soit suffisante.

Vous pouvez également créer des réservations de capacité avec des critères de correspondance « ciblés » qui vous permettent de spécifier quelles instances peuvent utiliser la réservation. Reportez-vous à la documentation technique Linux ou Windows pour en savoir plus sur l’option de ciblage.

Q : Combien d’instances puis-je réserver ?

Le nombre d’instances que vous êtes autorisé à réserver dépend du nombre limite d’instances à la demande de votre compte. Vous pouvez réserver autant d’instances que cette limite le permet, moins le nombre d’instances en cours d’exécution.

Si vous souhaitez bénéficier d'une limite plus élevée, contactez votre service commercial AWS ou remplissez le formulaire de demande d'instance Amazon EC2 en indiquant votre cas d'utilisation, et votre demande d'augmentation sera étudiée. Les augmentations de limite sont liées à la région concernée.

Q : Puis-je modifier une réservation de capacité une fois qu'elle a commencé ?

Oui, vous pouvez modifier le nombre d'instances, les critères de correspondance et la date de fin de la réservation.

Q : Puis-je mettre fin à une réserve de capacité après son début ?

Oui. Vous pouvez mettre fin à une réservation de capacité active après l'expiration de la période d'engagement (applicable uniquement pour les réservations datées ultérieurement) en l'annulant à l'aide de la console ou de l'API/SDK, ou en modifiant votre réservation pour spécifier une heure de fin qui la fera expirer automatiquement. Les instances exécutées ne sont pas affectées par les changements de votre réserve de capacité, même par la suppression ou l'expiration d'une réservation.

Q : Puis-je partager une réserve de capacité avec un autre compte AWS ?

Oui. Vous pouvez partager des réserves de capacité actives avec d’autres comptes AWS ou au sein de votre organisation AWS via AWS Resource Access Manager (AWS RAM). Vous pouvez partager les réservations de capacité EC2 en trois étapes simples : créer un partage de ressources à l'aide de la RAM AWS, ajouter des ressources (réservations de capacité) au partage de ressources et spécifier les comptes cibles avec lesquels vous souhaitez partager les ressources.

Q : Où puis-je trouver plus d'informations sur l'utilisation des réserves de capacité ?

Consultez la documentation technique Linux ou Windows pour apprendre à créer et utiliser une réservation de capacité.

Instances réservées

Q : Qu'est-ce qu'une instance réservée ?

Une instance réservée (IR) est une offre d'Amazon EC2 qui vous permet de profiter d'une remise importante sur l'utilisation des instances EC2 lorsque vous vous engagez pour une durée d'un an ou de trois ans.

Q : Quelles sont les différences entre les instances réservées standard et les instances réservées convertibles ?

Les IR standard vous permettent de bénéficier d'une remise importante sur l'utilisation des instances EC2 lorsque vous vous engagez à utiliser une famille d'instances particulière. Les instances réservées convertibles vous donnent la possibilité de modifier la configuration de vos instances pendant leur période de validité, tout en bénéficiant d'une remise sur l'utilisation d'Amazon EC2. Pour en savoir plus sur les IR convertibles, cliquez ici.

Q : Les instances réservées fournissent-elles une réservation de capacité ?

Oui, lorsqu'une IR standard ou convertible est limitée à une zone de disponibilité spécifique(AZ), la capacité d'instance correspondant à la configuration exacte de l'IR est réservée à votre utilisation (on appelle ces IR les « IR zonales »). Les IR zonales vous confortent dans l'idée que vous pouvez lancer des instances quand vous en avez besoin.

Vous pouvez également choisir de renoncer à la réserve de capacité et acheter des IR standard ou convertibles qui sont limitées à une région (appelées « IR régionales »). Les IR régionales appliquent automatiquement la réduction sur l’utilisation à toutes les zones de disponibilité (AZ) et tailles d’instance d’une région, ce qui vous permet de profiter plus facilement du tarif réduit de l’IR.

Q : Quand acheter une instance réservée zonale ?

Si vous souhaitez profiter de la réserve de capacité, vous devez acheter une IR dans une zone de disponibilité (AZ) spécifique.

Q : Quand acheter une instance réservée régionale ?

Si vous n'avez pas besoin de la réservation de capacité, vous devez acheter une IR régionale. Les IR régionales offrent une flexibilité au niveau de la zone de disponibilité et de taille d’instance, ce qui permet d’étendre l’application du tarif réduit de l’IR.

Q : Qu’est-ce que la flexibilité au niveau de la zone de disponibilité (AZ) et de la taille d’instance ?

La flexibilité au niveau de la zone de disponibilité (AZ) et de la taille d’instance vous permet de profiter plus facilement du tarif réduit de votre IR régionale. La flexibilité au niveau de la zone de disponibilité (AZ) s’applique au tarif réduit de votre IR sur l’utilisation dans toute zone de disponibilité (AZ) d’une région, tandis que la flexibilité au niveau de la taille d’instance s’applique au tarif réduit de votre IR sur l’utilisation d’une taille au sein d’une famille d’instances. Supposons que vous possédez une IR régionale m5.2xlarge Linux/Unix avec une location par défaut dans la région USA Est (Virginie du Nord). Le tarif réduit de cette IR peut automatiquement s’appliquer à deux instances m5.xlarge dans la zone de disponibilité us-east-1a ou à quatre instances m5.large dans la zone de disponibilité us-east-1b.

Q : Quels types d'instances réservées offrent une flexibilité au niveau de la taille d'instance ?

Les IR régionales Linux/Unix avec la location par défaut offrent une flexibilité au niveau de la taille d'instance. La flexibilité au niveau de la taille d’instance n’est pas disponible sur les IR d’autres plateformes telles que Windows, Windows avec SQL Standard, Windows avec SQL Server Enterprise, Windows avec SQL Server Web, RHEL et SLES, ou les instances G4.

Q : Que dois-je faire pour profiter de la flexibilité au niveau de la zone de disponibilité (AZ) et de la taille d’instance ?

Avec les IR régionales, aucune action de votre part n’est requise pour bénéficier de la flexibilité au niveau de la zone de disponibilité (AZ) et de la taille d’instance.

Q : Je possède des IR zonales. Comment les attribuer à une région ?

Vous pouvez attribuer vos IR zonales standard à une région en modifiant la portée de l’IR en la faisant passer d’une zone de disponibilité (AZ) spécifique à une région à partir de la console EC2 ou à l’aide de l’API ModifyReservedInstances.

Q : Comment acheter une instance réservée ?

Pour commencer, vous pouvez acheter une IR à partir de la console EC2 ou à l’aide de l’interface de ligne de commande AWS. Il vous suffit de préciser le type d’instance, la plateforme, la location, la période de validité, l’option de paiement et la région ou la zone de disponibilité (AZ).

Q : Est-il possible d’acheter une instance réservée pour une instance en cours d’exécution ?

Oui, AWS applique automatiquement le tarif réduit d'une IR à toute utilisation d'instance applicable à compter de la date d'achat. Consultez la page Mise en route pour en savoir plus.

Q : Puis-je contrôler les instances qui sont facturées au tarif réduit ?

Non. AWS optimise automatiquement les instances facturées au tarif réduit pour garantir que vous payez toujours le montant le moins élevé. Pour plus d'informations sur la tarification horaire et son application aux IR, consultez la page Avantages de facturation et options de paiement.

Q : Comment fonctionne la flexibilité au niveau de la taille d'instance ?

EC2 utilise l'échelle ci-dessous pour comparer les différentes tailles au sein d'une famille d'instances. En cas de flexibilité au niveau de la taille d'instance sur les IR, cette échelle est utilisée pour appliquer le tarif réduit des IR à l'utilisation normalisée de la famille d'instances. Par exemple, si vous possédez une IR m5.2xlarge qui est limitée à une région, votre tarif réduit peut s'appliquer à l'utilisation d'une instance m5.2xlarge ou de deux instances m5.xlarge.

Cliquez ici pour en savoir plus sur la manière dont la flexibilité au niveau de la taille d'instance des instances réservées s'applique à votre utilisation d'Amazon EC2. Et cliquez ici pour en savoir plus sur la manière dont la flexibilité au niveau de la taille d'instance des instances réservées est présentée dans le rapport d'utilisation et de coût.

Taille d'instance

Facteur de normalisation

nano

 0,25

micro 0,5
small 1
medium 2
large 4
xlarge 8
2xlarge 16
4xlarge 32
8xlarge 64
9xlarge 72
10xlarge 80
12xlarge 96
16xlarge 128
18xlarge 144
24xlarge 192
32xlarge 256

Q : Puis-je modifier mon instance réservée pendant sa période de validité ?

Oui, vous pouvez modifier la zone de disponibilité (AZ) de l’IR, faire passer la portée de l’IR de la zone de disponibilité (AZ) à la région (et inversement), ou modifier la taille des instances au sein de la même famille d’instances (sur la plateforme Linux/Unix).

Q : Puis-je modifier le type d’instance de mon instance réservée pendant sa période de validité ?

Oui. Les IR convertibles vous donnent la possibilité de modifier le type d'instance, le système d'exploitation, la location ou l'option de paiement de votre IR pendant sa période de validité. Pour plus d'informations, consultez la section relative aux IR convertibles de la FAQ.

Q : Quelles sont les différentes options de paiement des instances réservées ?

Vous avez le choix entre trois options de paiement lors de l'achat d'une IR. Avec l'option Tous les frais initiaux, vous payez pour toute la durée de l'IR en un seul paiement initial. Avec l'option Frais initiaux partiels, vous vous acquittez d'un faible paiement initial, puis vous êtes facturé selon un tarif horaire réduit pendant toute la durée de l'IR. L'option Aucuns frais initiaux ne nécessite aucun paiement initial et permet de bénéficier d'un tarif horaire réduit pendant toute la durée de réservation de l'instance.

Q : Quand les instances réservées sont-elles activées ?

La remise tarifaire et la réserve de capacité (le cas échéant) sont activées quand le paiement a bien été accepté. Vous pouvez afficher le statut (pending | active | retired) de vos IR sur la page « Reserved Instances » (Instances réservées) de la console Amazon EC2.

Q : Les instances réservées s’appliquent-elles aux instances Spot ou aux instances exécutées sur un hôte dédié ?

Non, les IR ne s'appliquent pas aux instances Spot ou aux instances exécutées sur un hôte dédié. Pour réduire le coût d'utilisation des hôtes dédiés, achetez des réservations d'hôtes dédiés.

Q : Comment les instances réservées sont-elles prises en compte dans la facturation consolidée ?

Notre système optimise automatiquement la facturation des instances au tarif réduit pour garantir que les comptes consolidés bénéficient toujours des meilleurs tarifs. Si vous possédez des IR qui s’appliquent à une zone de disponibilité (AZ), seul le compte qui possède l’IR bénéficie de la réserve de capacité. Cependant, la remise s’applique automatiquement à l’utilisation sur tous les comptes de votre famille de facturation consolidée.

Q : Puis-je bénéficier d'une remise sur des achats d'instances réservées ?

Oui, EC2 propose des remises sur les achats d’instances réservées. Ces remises sont déterminées en fonction de la valeur nominale totale (sans remise) des IR actives par région. La valeur nominale totale correspond à la somme de tous les paiements attendus pour une IR pendant la durée de réserve, y compris les frais initiaux et les paiements horaires récurrents. Les niveaux et les remises correspondantes sont affichés en-dessous.

Niveau de valeur nominale

Remise sur les frais initiaux

Remise sur le tarif horaire

Moins de 500 000 USD

0 %

0 %

Entre 500 000 USD et 4 000 000 USD

5 %

5 %

Entre 4 000 000 USD et 10 000 000 USD 10 % 10 %
Plus de 10 000 000 USD Appelez-nous  

Q : Pouvez-vous expliquer comment les remises sur volume sont appliquées aux achats d'instances réservées ?

Bien sûr. Supposons que vous disposez actuellement d'IR actives d'une valeur de 400 000 USD dans la région US-east-1. A présent, si vous achetez des IR d'une valeur de 150 000 USD dans la même région, la première tranche de 100 000 USD de cet achat ne bénéficiera pas d'une remise. Cependant, les 50 000 USD restants bénéficieront d'une remise de 5 %. Vous serez donc facturé 47 500 USD pour cette partie de l'achat pendant la période de validité en fonction de l'option de paiement choisie.

Pour en savoir plus, consultez la section Comprendre les niveaux de tarification avec remise des instances réservées du Guide de l'utilisateur Amazon EC2.

Q : Comment calculer la valeur nominale d'une instance réservée ?

Voici un exemple de calcul de valeur nominale pour une réservation d'instances sur trois ans avec l'option « paiement initial partiel » :

Valeur de la remise sur volume pour 3 ans avec frais initiaux partiels dans la région USA Est

  Montant USD des frais initiaux Montant USD des frais horaires récurrents Valeur horaire récurrente Valeur nominale
m3.xlarge 1 345 USD 0,060 USD 1 577 USD 2 922 USD
c3.xlarge 1 016 USD 0,045 USD 1 183 USD 2 199 USD

Q : Comment les remises sur volume sont-elles calculées si j'utilise la facturation consolidée ?

Si vous utilisez la facturation consolidée, AWS utilise le prix nominal total cumulé des IR actives sur l'ensemble de vos comptes consolidés pour déterminer le niveau de remise sur volume applicable. Les niveaux de remise sur volume sont définis au moment de l'achat. Il est donc important d'activer la facturation consolidée avant d'acheter des IR, afin de pouvoir bénéficier du niveau de remise sur volume le plus élevé possible selon vos comptes consolidés.

Q : Les instances réservées convertibles donnent-elles droit à des remises sur volume ?

Non. Cependant, la valeur de chaque IR convertible que vous achetez vous permet d'être mieux positionné pour prétendre à une remise sur volume.

Q : Comment savoir à quel niveau de remise sur volume je peux prétendre ?

Pour déterminer le niveau de remise sur volume auquel vous pouvez prétendre, consultez la section Comprendre les niveaux de tarification avec remise des instances réservées du Guide de l'utilisateur Amazon EC2.

Q : Le coût de mes instances réservées va-t-il changer si le prochain volume que je réserve me rend éligible à un autre niveau de remise ?

Non. Les remises sur volume sont déterminées au moment de l'achat. Par conséquent, le coût de vos instances réservées reste inchangé si vous avez droit à d'autres niveaux de remise. Les nouveaux achats bénéficieront de remises en fonction du niveau de remise sur volume auquel vous avez droit au moment de l'achat.

Q : Dois-je faire quoi que ce soit lors de l'achat pour bénéficier de remises sur volume ?

Non, les remises sur volume vous sont automatiquement appliquées lorsque vous utilisez l'API PurchaseReservedInstance ou l'interface EC2 Management Console pour acheter des IR. Si vous achetez pour plus de 10 millions d'USD d'instances réservées, contactez-nous afin de bénéficier de réductions supérieures à celles qui vous sont automatiquement appliquées.

Place de marché des instances réservées

Q : Qu’est-ce que la place de marché des instances réservées (RI) ?

La place de marché des IR est une place de marché en ligne qui permet aux clients AWS de vendre leurs instances réservées (IR) Amazon EC2 à d’autres entreprises ou organisations. Les clients peuvent également parcourir l’offre disponible sur la place de marché des IR afin de faire leur choix parmi une sélection encore plus vaste de durées et d’options tarifaires proposées par d’autres clients AWS.

Q : Quand puis-je répertorier une IR sur la place de marché des instances réservées ?

Vous pouvez répertorier une IR lorsque :

  • Vous êtes inscrit en tant que vendeur sur la place de marché des IR.
  • Vous avez payé votre IR.
  • Vous êtes propriétaire de l’IR depuis plus de 30 jours.

Q : Les IR peuvent-elles être transférées ?

Les instances réservées EC2 ne sont transférables que conformément aux exigences de la place de marché des IR énoncées dans les conditions de service AWS et ne peuvent pas être transférées autrement.

Q : Puis-je vendre n’importe quelle IR sur la place de marché des IR EC2 ?

Non, AWS interdit la revente des IR achetées dans le cadre d’un programme de réduction conformément aux conditions de service AWS. Toutes les IR achetées directement auprès d’AWS ou sur la place de marché des IR EC2, que ce soit avec paiement de tous les frais initiaux, avec paiement des frais initiaux partiels ou sans frais initiaux, et bénéficiant d’une remise de la part d’AWS (par exemple, remise sur le volume d’IR ou autres programmes de remise) ne sont pas éligibles à la vente sur la place de marché des IR EC2.

Q : Comment vais-je m’inscrire en tant que vendeur sur la place de marché des IR ?

Si vous voulez vous inscrire sur la place de marché des IR, vous pouvez entamer une procédure d’inscription en vendant une IR via la console de gestion EC2 ou en configurant votre profil à partir de la page des paramètres de compte sur le portail AWS. Quelle que soit la méthode choisie, vous devrez effectuer les étapes suivantes :

  1. Commencez par consulter la présentation de la procédure d'inscription.
  2. Connectez-vous à votre compte AWS.
  3. Indiquez le compte bancaire sur lequel vous souhaitez que nous procédions aux versements. Après que vous aurez sélectionné « Continue » (Continuer), nous définirons ce compte bancaire comme le compte de versement par défaut.
  4. Sur l’écran de confirmation, sélectionnez « Continue to Console to Start Listing » (Continuer vers la console pour commencer l’inscription).

Si vous vendez pour plus de 20 000 USD d’IR ou si vous envisagez de vendre 50 IR ou plus, vous devrez nous fournir des informations fiscales avant de pouvoir référencer vos IR. Sélectionnez « Continue with Tax Interview » (Continuer par le questionnaire pour le calcul des taxes). Dans le cadre de ce questionnaire pour le calcul des taxes, vous serez invité à indiquer le nom de votre entreprise, le nom de la personne à contacter, ses coordonnées, ainsi que le numéro d’identification fiscale à l’aide du flux TIMS.

De plus, si vous envisagez de vendre pour plus de 50 000 USD d’IR par an, vous devrez remplir une demande d’augmentation des limites.

Q : Comment saurai-je quand je pourrai commencer à vendre sur le marché des IR ?

Vous pouvez commencer à vendre des instances sur la place de marché des IR dès lors que vous avez ajouté un compte bancaire dans le cadre de la procédure d’inscription. Une fois l’activation terminée, un e-mail de confirmation vous est envoyé. Cependant, il est important de noter que vous ne pourrez pas recevoir de versements tant que nous n’aurons pas reçu les vérifications effectuées auprès de votre banque, ce qui peut prendre jusqu’à deux semaines selon les établissements bancaires.

Q : Comment mettre en vente une IR ?

Pour mettre en vente une IR, il vous suffit de suivre ces étapes dans la console Amazon EC2 :

  1. Sélectionnez les IR que vous souhaitez vendre, puis choisissez « Sell Reserved Instances » (Vendre des instances réservées). Si vous n’avez pas terminé la procédure d’inscription, vous serez invité à vous inscrire en suivant les étapes de la procédure.
  2. Pour chaque type d’IR, indiquez le nombre d’instances que vous aimeriez vendre et le montant du règlement unique que vous voudriez fixer. Notez que vous pouvez fixer différents montants pour ce règlement unique en fonction de la durée restante. De cette manière, vous n’avez pas à réajuster le prix de votre IR si elle ne se vend pas rapidement. Par défaut, vous devez simplement définir le prix actuel, et nous l’abaisserons automatiquement selon un incrément identique tous les mois.
  3. Une fois vos tarifs configurés, un écran de confirmation finale s’affiche. Sélectionnez « Sell Reserved Instance » (Vendre une instance réservée).

Q : Quelles IR puis-je mettre en vente ?

Vous pouvez référencer toute IR active depuis au moins 30 jours et pour laquelle nous avons reçu votre paiement. Cela signifie que vous pouvez généralement référencer vos réserves lorsqu’elles sont actives. Il est important de noter que si des frais vous ont déjà été facturés, votre IR peut être active alors qu’AWS n’a pas encore perçu votre paiement. Dans ce cas, votre IR ne sera référencée que lorsque nous aurons reçu votre paiement.

Q : Comment les IR référencées s’affichent-elles sur les systèmes des acheteurs ?

Les IR (aussi bien celles de tierces parties que celles proposées par AWS) référencées sur la place de marché des IR sont accessibles dans la section « Reserved Instances » (Instances réservées) de la console Amazon EC2. Vous pouvez également utiliser l’appel d’API DescribeReservedInstancesListings.

Les IR référencées sont classées par type, par durée restante, par prix initial et par tarif horaire. Les acheteurs peuvent alors acheter plus facilement l’IR qui correspond le mieux à leurs besoins.

Q : Combien de temps, sur la durée de l’IR, puis-je référencer ?

Vous pouvez vendre une IR pour la durée restante, arrondie au mois le plus proche. Par exemple, s’il lui reste 9 mois et 13 jours, votre instance est référencée à la vente en tant qu’IR d’une durée de 9 mois.

Q : Puis-je supprimer mon IR après l’avoir mise en vente ?

Oui, vous pouvez retirer une IR référencée à tout moment, tant qu’aucune vente ne porte le statut En attente (ce qui signifie qu’un acheteur a acquis votre IR et que le paiement est en attente de confirmation).

Q : Quelles dimensions de tarification puis-je définir pour les IR que je souhaite mettre en vente ?

Sur la place de marché des IR, vous pouvez fixer le prix initial que vous êtes prêt à accepter. En revanche, vous ne pouvez pas définir de tarif horaire (lequel reste celui défini sur l’IR à l’origine). De plus, vous ne percevez rien par rapport aux paiements associés aux tarifs horaires.

Q : Puis-je continuer à utiliser ma réserve alors qu’elle est référencée sur la place de marché des IR ?

Oui, vous continuez à bénéficier des capacités et avantages tarifaires associés à votre réserve, et ce jusqu’à sa vente. Une fois la réserve vendue, les instances en cours d’exécution qui étaient facturées au tarif inférieur seront facturées au tarif à la demande, jusqu’à l’achat d’une nouvelle réserve ou la fermeture de l’instance.

Q : Puis-je revendre une IR que j’ai achetée sur la place de marché des IR ?

Oui, vous pouvez revendre les IR achetées sur la place de marché des IR comme n’importe quelle autre IR.

Q : Existe-t-il des restrictions lors de la vente d’IR ?

Oui, vous devez disposer d’un compte bancaire américain pour vendre des IR sur la place de marché des IR. La prise en charge de comptes bancaires hors des États-Unis viendra très prochainement. En outre, vous ne pouvez pas vendre d’IR dans la région US GovCloud.

Q : Puis-je vendre des IR achetées selon les niveaux de tarification des volumes publics ?

Non, cette option n’est pas encore disponible.

Q : La vente d’IR sur la place de marché des IR est-elle payante ?

Oui, AWS facture des frais de service de 12 % du prix initial total de chaque IR que vous vendez sur la place de marché des IR.

Q : AWS peut-il vendre des sous-ensembles de mes IR référencées ?

Oui, AWS peut éventuellement vendre un sous-ensemble de la quantité d’IR que vous avez référencée. Par exemple, si vous référencez 100 IR, il est possible qu’un acheteur soit uniquement intéressé par 50 de ces instances. Nous lui vendrons alors ces 50 instances, et les 50 restantes seront toujours référencées jusqu’à ce que vous décidiez, éventuellement, de les retirer de la place de marché.

Q : Comment les acheteurs paient-ils les IR qu’ils ont achetées ?

Une fois la vente d’une IR conclue, son règlement s’effectue via transfert électronique (paiement ACH) vers un compte bancaire aux États-Unis.

Q : Quand recevrai-je mon argent ?

Une fois qu’AWS a reçu le paiement de la part du client ayant acheté votre réserve, nous vous reversons la somme par virement sur le compte bancaire que vous avez indiqué lors de votre inscription à la place de marché des IR.

Nous vous envoyons ensuite une notification par e-mail afin de vous informer que la somme vous a été virée. Généralement, les virements prennent effet sur votre compte dans les 3 à 5 jours qui suivent la vente de votre IR.

Q : Si je vends mon IR sur la place de marché des IR, les frais d’assistance Premium Support me seront-ils également remboursés ?

Non, aucun remboursement au prorata de la somme initiale payée en contrepartie de l’assistance AWS Premium Support n’est prévu.

Q : Serai-je informé des activités de la place de marché des IR ?

Oui, vous recevrez un seul et unique e-mail par jour qui détaillera vos opérations sur la place de marché des IR, notamment chaque fois que vous créerez ou annulerez le référencement d’une IR, que des acheteurs acquerront vos instances référencées ou qu’AWS reversera des sommes sur votre compte bancaire.

Q : Quelles informations sont échangées entre l’acheteur et le vendeur pour faciliter le calcul de la taxe sur les transactions ?

Les informations concernant la ville, l'état, le code postal (ZIP+4 pour les États-Unis) et le pays de l'acheteur seront transmises au vendeur via un rapport de versement. Ces informations permettront aux vendeurs de calculer les éventuelles taxes applicables à la transaction qu'ils doivent reverser à l'administration fiscale de leur pays (taxes sur les ventes, TVA, etc.). Le nom de l’entité légale du vendeur est également fourni sur la facture d’achat.

Q : Existe-t-il des restrictions pour les clients lors de l’achat d’IR tierces ?

Oui, vous ne pouvez pas acheter vos propres IR référencées, y compris celles de vos comptes associés (via la facturation consolidée).

Q : Dois-je payer l’assistance Premium Support lorsque j’achète des IR sur la place de marché des IR ?

Oui, si vous êtes un client Premium Support, des frais d’assistance Premium Support vous seront facturés lorsque vous achèterez une IR sur la place de marché des IR.

Savings Plans

Q : Qu’est-ce que Savings Plans ?

Savings Plans est un modèle de tarification flexible qui permet une utilisation d’EC2, de Lambda et de Fargate à bas prix en échange d’un engagement à une consommation régulière (mesurée en USD/heure) sur une période d’un ou trois ans. Lorsque vous souscrivez à des Savings Plans, vous êtes facturé selon la tarification réduite Savings Plans pour votre utilisation, à hauteur de votre engagement. Par exemple, si vous vous êtes engagé à une utilisation à hauteur de 10 USD par heure, vous bénéficierez des tarifs Savings Plans pour votre utilisation jusqu'à 10 USD et votre utilisation au-delà de cet engagement vous sera facturée conformément aux tarifs à la demande.

Q : Quels sont les types de Savings Plans proposés par AWS ?

AWS propose deux types de Savings Plans :

  1. Les Compute Savings Plans vous offrent la plus grande flexibilité qui soit et vous permettent de réduire vos coûts jusqu'à 66 %. Ces formules s'appliquent automatiquement à l'utilisation de l'instance EC2 indépendamment de la famille d'instance, de la taille, de l'AZ, de la région, du système d'exploitation ou de la location, ainsi qu'à l'utilisation d'AWS Fargate et Lambda. Par exemple, avec les Compute Savings Plans, vous pouvez passer d’une instance C4 à une instance M5, transférer une charge de travail de la région UE (Irlande) vers la région UE (Londres) ou encore transférer une charge de travail d’EC2 vers Fargate ou Lambda à tout moment et toujours bénéficier automatiquement de la tarification Savings Plans.
  2. La catégorie EC2 Instance Savings Plans offre les prix les plus bas, permettant de faire des économies allant jusqu’à 72 % contre un engagement d’utilisation de familles d’instances spécifiques dans une région (par exemple, des instances M5 en Virginie du Nord). Cela réduit automatiquement les coûts pour la famille d’instances sélectionnée dans cette région, sans tenir compte de la zone de disponibilité, de la taille, du système d’exploitation ou de la location. Les EC2 Instance Savings Plans offrent assez de flexibilité pour ajuster votre utilisation entre les instances au sein d'une famille dans une région donnée. Par exemple, vous pouvez passer d'une instance c5.xlarge s'exécutant sur Windows à une instance c5.2xlarge s'exécutant sur Linux et continuer à bénéficier automatiquement de la tarification Savings Plan.

Q : Quels avantages offrent les Savings Plans comparés aux instances réservées EC2 ?

Comme les instances réservées EC2, les Savings Plans permettent de faire des économies substantielles par rapport aux offres de la formule à la demande. De plus, ils réduisent automatiquement les factures des clients sur l'utilisation des capacités de calcul dans toute région AWS, même quand les utilisations varient. Ainsi, vous disposez de la flexibilité nécessaire pour utiliser l'option de calcul la mieux adaptée à vos besoins et continuez à économiser de l'argent, le tout sans avoir à procéder à des échanges ou des modifications.

Les Compute Savings Plans, qui permettent d’économiser jusqu’à 66 % (tout comme les IR convertibles), réduisent automatiquement vos coûts sur toute utilisation d’instance EC2 indépendamment de la région, de la famille d’instances, de la taille, du système d’exploitation, de la location et même sur AWS Fargate et Lambda. Les EC2 Instance Savings Plans, qui permettent des économies allant jusqu’à 72 % (tout comme les IR standard), réduisent automatiquement les coûts de votre utilisation des instances d’une famille d’instances EC2 donnée dans une région spécifique (par exemple, des instances M5 en Virginie du Nord) quels que soient leur taille, leur système d’exploitation ou leur location.

Q : Les Savings Plans fournissent-ils des réserves de capacité pour les instances EC2 ?

Non, les Savings Plans ne fournissent pas de réserves de capacité. Cependant, vous pouvez réserver de la capacité avec les réserves de capacité à la demande et bénéficier de tarifs réduits pour ces capacités grâce aux Savings Plans.

Q : Comment puis-je démarrer avec les Savings Plans ?

Vous pouvez faire vos premiers pas avec les Savings Plans à partir de l’Explorateur de coûts AWS dans la Console de gestion AWS ou via l’API/l’interface CLI. Vous pouvez choisir aisément un Savings Plan qui vous permettra de réaliser un maximum d’économies en suivant les recommandations disponibles dans l’Explorateur de coûts AWS. L'engagement horaire recommandé est basé sur votre historique d'utilisation à la demande et vos choix de type de plan, de période d'engagement et d'options de paiement. Une fois que vous avez souscrit à un Savings Plan, le tarif réduit correspondant sera automatiquement appliqué pour toute utilisation de capacités de calcul jusqu'au plafond prévu et toute utilisation au-delà de ce plafond sera facturée aux tarifs réguliers.

Q : Puis-je continuer à acheter des instances réservées EC2 ?

Oui. Vous pouvez continuer à acheter des instances réservées pour assurer la compatibilité avec vos processus de gestion de coûts existants, et vos instances réservées contribueront à la réduction de votre facture générale en association avec les Savings Plans. Cependant, à l'expiration de vos instances réservées, nous vous recommandons de souscrire à des Savings Plans qui offrent les mêmes avantages que les instances réservées, mais avec plus de flexibilité.

Instances Spot

Q : Qu'est-ce qu'une instance Spot ?

Les instances Spot constituent des capacités inutilisées d'EC2. Elles permettent d'économiser jusqu'à 90 % du prix à la demande, et AWS peut les interrompre avec un préavis de 2 minutes. Les instances Spot utilisent les mêmes instances EC2 sous-jacentes que les instances réservées et à la demande. Elles sont idéales pour les charges de travail flexibles et tolérantes aux pannes. Les instances Spot sont une option supplémentaire permettant d'acquérir des capacités de calcul. Elles peuvent être utilisées en parallèle avec des instances réservées et à la demande.

Q : En quoi une instance Spot est-elle différente d'une instance à la demande ou d'une instance réservée ?

Lorsqu'elles sont exécutées, les instances Spot sont identiques aux instances réservées et à la demande. Les principales différences sont que les instances Spot offrent généralement une remise considérable par rapport aux instances à la demande, que vos instances peuvent être interrompues par Amazon EC2 avec un préavis de 2 minutes pour répondre à une hausse de la capacité nécessaire, et que les prix Spot évoluent en fonction de l'offre et de la demande sur le long terme pour les capacités EC2 inutilisées.

Reportez-vous ici pour en savoir plus sur les instances Spot.

Q : Comment puis-je acheter et démarrer une instance Spot ?

Les instances Spot peuvent être lancées avec les mêmes outils que ceux que vous utilisez actuellement, notamment AWS Management Console, les groupes Auto Scaling, l'API RunInstances et le parc d'instances Spot. En outre, de nombreux services AWS prennent en charge le lancement d'instances Spot, notamment EMR, ECS, Datapipeline, CloudFormation et Batch.

Pour démarrer une instance Spot, il vous suffit de choisir un modèle de lancement et le nombre d'instances que vous désirez.

Cliquez ici pour en savoir plus sur la demande d'instances Spot.

Q : Combien d'instances Spot puis-je demander ?

Vous pouvez demander autant d'instances Spot que le permet votre limite Spot pour chaque région. Veuillez noter que les nouveaux clients AWS peuvent démarrer avec une limite plus basse. Pour en savoir plus sur les limites d'instances Spot, consultez le Guide de l'utilisateur Amazon EC2.

Si vous souhaitez bénéficier d'une limite plus élevée, remplissez le formulaire de demande d'instance Amazon EC2 en indiquant votre cas d'utilisation, et votre demande d'augmentation sera étudiée. Les augmentations de limite sont liées à la région concernée.

Q : Quel prix vais-je payer pour une instance Spot ?

Vous payez le prix Spot en vigueur au début de chaque heure d'instance pour votre instance en cours d'exécution. Si le prix Spot évolue après le lancement de votre instance, le nouveau prix est facturé pour l'heure suivante d'utilisation de l'instance.

Q : Qu’est-ce qu’un groupe de capacité Spot ?

Un groupe de capacité Spot est un ensemble d’instances EC2 inutilisées avec le même type d’instance, le même système d’exploitation et la même zone de disponibilité. Chaque groupe de capacité Spot possède son propre prix, basé sur l’offre et la demande.

Q : Quelles sont les bonnes pratiques d'utilisation pour les instances Spot ?

Nous recommandons fortement d'utiliser plusieurs groupes de capacité Spot pour optimiser les capacités Spot à votre disposition. EC2 intègre des capacités d'automatisation permettant d'identifier les capacités les plus rentables sur plusieurs groupes de capacité Spot à l'aide d'EC2 Auto Scaling, d'EC2 Fleet ou de Spot Fleet. Pour plus d'informations, consultez les bonnes pratiques pour les instances Spot.

Q : Comment puis-je déterminer l'état de ma demande d'instance Spot ?

L'état de votre demande d'instance Spot peut être consulté via le code et les messages de statut de demande d'instance Spot. Les informations sur l'état de la demande d'instance Spot sont accessibles sur la page Instance Spot de la console EC2 d'AWS Management Console, ainsi que via l'API et la CLI. Pour en savoir plus, reportez-vous au Guide du développeur Amazon EC2.

Q : Les instances Spot sont-elles disponibles pour toutes les familles et tailles d'instance, dans toutes les régions ?

Les instances Spot sont disponibles dans toutes les régions AWS publiques. Spot est disponible pour presque toutes les familles et tailles d'instances EC2, y compris pour les nouvelles instances optimisées pour le calcul, à accélération graphique et les types d'instances FPGA. La liste complète des types d'instances pris en charge dans chaque région est disponible ici.

Q : Quels sont les systèmes d'exploitation disponibles en tant qu'instances Spot ?

Linux/UNIX, Windows Server et Red Hat Enterprise Linux (RHEL) sont disponibles. Windows Server avec SQL Server n'est pas disponible à l'heure actuelle.

Q : Puis-je utiliser une instance Spot avec une AMI payante en tant que logiciel tiers (comme les packs logiciel IBM) ?

Pas à l'heure actuelle

Q : Puis-je arrêter mes instances Spot en cours d'exécution ?

Oui, vous pouvez « arrêter » vos instances Spot en cours d'exécution lorsqu'elles ne sont pas nécessaires et les conserver pour une utilisation ultérieure, plutôt que de résilier les instances ou d'annuler la demande Spot. La fonctionnalité Arrêter est disponible pour les demandes Spot persistantes.

Q : Comment arrêter les instances Spot ?

Vous pouvez arrêter vos instances Spot en appelant l'API StopInstances et en fournissant les identifiants des instances Spot, comme si vous demandiez l'arrêt de vos instances à la demande. Vous pouvez également passer par AWS Management Console en sélectionnant votre instance, puis en cliquant sur Actions > État de l'instance > Arrêter.

Q : Comment démarrer les instances Spot arrêtées ?

Vous pouvez démarrer les instances Spot qui ont été arrêtées en appelant l'API StartInstances et en fournissant les identifiants des instances Spot, comme si vous demandiez le démarrage de vos instances à la demande. Vous pouvez également passer par la Console de gestion AWS en sélectionnant votre instance, puis en cliquant sur Actions > État de l'instance > Démarrer.

Remarque : les instances Spot démarreront uniquement si la capacité Spot est encore disponible dans votre prix maximal. Spot évalue la disponibilité de la capacité chaque fois que vous souhaitez démarrer des instances Spot arrêtées.

Q : Comment déterminer si j'ai arrêté mon instance Spot ou si elle a été interrompue ?

Vous pouvez déterminer si vous avez arrêté une instance Spot ou si elle a été interrompue en consultant le code d'état de la demande Spot. Ce code apparaît en tant qu'État de la demande Spot sur la page Demandes Spot de la Console de gestion AWS ou dans la réponse de l'API DescribeSpotInstanceRequests, dans le champ « status-code ».

Si le code d'état de la demande Spot est « instance-stopped-by-user », cela signifie que vous avez arrêté votre instance Spot.

Q : Comment serai-je facturé si mon instance Spot est arrêtée ou interrompue ?

Si votre instance Spot est résiliée ou arrêtée par Amazon EC2 dans la première heure de l'instance, cette utilisation ne vous sera pas facturée. Toutefois, si vous supprimez ou résiliez l'instance Spot vous-même, vous serez facturé à la seconde la plus proche. Si l'instance Spot est résiliée ou arrêtée par Amazon EC2 dans les heures qui suivent, l'utilisation vous est facturée à la seconde la plus proche. Si vous travaillez sur Windows ou Red Hat Enterprise Linux (RHEL) et que vous arrêtez ou résiliez vous-même l'instance Spot, l'heure entière vous est facturée.

Q : Quand mon instance Spot sera-t-elle interrompue ?

Au cours des 3 derniers mois, 92 % des interruptions d'instances Spot ont été réalisées par des clients supprimant manuellement leur instance, car leur application avait terminé ses opérations.

EC2 peut se retrouver dans l'obligation de récupérer votre instance Spot pour deux raisons. La raison la plus fréquente est le besoin de répondre à la demande de capacités Amazon EC2 (par exemple, pour l'utilisation des instances réservées et à la demande). Sinon, si vous avez choisi de définir un « prix Spot maximum » et que le prix Spot dépasse cette limite, votre instance sera récupérée avec un préavis de deux minutes. Ce paramètre détermine le prix maximum que vous seriez prêt à payer pour une heure d'instance Spot. Cette valeur est définie par défaut sur le prix d'une instance à la demande. Comme indiqué précédemment, vous continuez de payer le prix Spot en vigueur, et non le prix maximum, au moment de l'exécution de votre instance, facturé à la seconde.

Q : Que devient mon instance Spot après son interruption ?

Vous avez le choix entre supprimer, arrêter ou mettre en hibernation vos instances Spot lorsqu'elles sont interrompues. L'arrêt et la mise en hibernation sont disponibles pour les demandes Spot permanentes et les parcs Spot pour lesquels l'option « maintenir » a été activée. Vos instances sont supprimées par défaut.

Consultez la section dédiée à l'hibernation des instances Spot pour en savoir plus sur la gestion des interruptions.

Q : Quelle est la différence entre les options d'interruption Arrêt et Mise en hibernation ?

Avec la mise en veille prolongée, votre instance hiberne et les données de la mémoire RAM sont préservées. Avec l'option Arrêt, votre instance est arrêtée et sa mémoire vive est réinitialisée.

Dans les deux cas, les données de votre volume racine EBS et des volumes de données EBS attachés sont préservées. Votre adresse IP privée ne change pas, de même que votre adresse IP Elastic (le cas échéant). Le comportement de la couche réseau est similaire à celui appliqué pour le flux de travail arrêt-démarrage d'EC2. L'arrêt et la mise en veille prolongée sont uniquement disponibles pour les instances soutenues par Amazon EBS. Le stockage d'instance local n'est pas maintenu.

Q : Que se passe-t-il si mon volume racine EBS n'est pas assez grand pour stocker un état de mémoire (mémoire vive) pour une hibernation ?

L'espace disponible sur votre volume racine EBS doit être suffisamment grand pour permettre d'écrire les données en mémoire. Si l'espace disponible sur le volume racine EBS est insuffisant, la mise en veille prolongée échoue et l'instance est arrêtée. Assurez-vous que votre volume EBS est suffisamment vaste pour préserver les données en mémoire avant de sélectionner l'option de mise en hibernation.

Q : Quel est l'intérêt de mettre mon instance Spot en hibernation lorsqu'elle est interrompue ?

Les instances Spot en hibernation sont mises en pause et relancées automatiquement, et vos charges de travail reprennent ainsi là où elles ont été interrompues. Vous pouvez utiliser la mise en hibernation quand votre ou vos instances doivent conserver l'état d'instance sur plusieurs cycles d'arrêt-redémarrage, c'est-à-dire quand les applications exécutées sur des instances Spot dépendent de données contextuelles, commerciales ou de session stockées dans la mémoire vive.

Q : Comment activer la mise en hibernation pour mes instances Spot ?

Consultez la section dédiée à la Mise en veille prolongée des instances Spot pour en savoir plus sur l'activation de la mise en veille prolongée de vos instances Spot.

Q : La mise en hibernation de mon instance Spot est-elle payante ?

La mise en hibernation de votre instance ne s'accompagne d'aucun coût supplémentaire, en dehors du coût du stockage EBS et des ressources EC2 que vous pouvez utiliser. Une instance en hibernation n'entraîne aucuns frais d'utilisation d'instance.

Q : Puis-je relancer une instance mise en veille prolongée ?

Non, vous ne pourrez pas relancer directement une instance mise en veille prolongée. Le cycle veille prolongée-relancement est contrôlé par Amazon EC2. Si une instance est mise en veille prolongée par Spot, elle sera relancée par Amazon EC2 lorsque les capacités nécessaires sont à nouveau disponibles. 

Q : Quels sont les instances et les systèmes d'exploitation prenant en charge la mise en hibernation ?

La mise en hibernation des instances Spot est actuellement prise en charge par les AMI Amazon Linux et par les systèmes d'exploitation Ubuntu et Microsoft Windows exécutés sur n'importe quel type d'instance des familles C3, C4, C5, M4, M5, R3 et R4 avec une mémoire vive (RAM) inférieure à 100 Gio.

Pour connaître la liste des versions de systèmes d'exploitation prises en charge, consultez la section dédiée à la mise en veille prolongée des instances Spot.

Q : Comment suis-je facturé si mon prix Spot évolue alors que mon instance est en cours d'exécution ? 

Vous paierez le prix par heure d'instance défini au début de chaque heure d'instance pour l'heure entière, facturé à la seconde la plus proche.

Q : Où puis-je voir mon historique d'utilisation d'instances Spot et le montant de ma facture ?

AWS Management Console met des rapports de facturation détaillés à disposition affichant les heures de début et de suppression/d'arrêt des instances Spot, pour toutes les instances. Les clients peuvent comparer le rapport de facturation à l'historique des prix Spot grâce à l'API pour vérifier que le prix spot facturé est correct.

Q. Qu'est-ce qu'une flotte d'instances Spot ?

Un parc d'instances Spot vous permet, d'une part, de demander automatiquement plusieurs instances Spot qui offrent le prix le plus bas par unité de capacité pour votre cluster ou votre application, comme une tâche de traitement par lot, un flux de production Hadoop ou une tâche de calcul HPC en réseau et, d'autre part, de gérer ces instances. Vous pouvez spécifier les types d'instances compatibles avec votre application. Vous définissez une capacité cible en fonction des besoins de votre applications (avec différents critères, notamment le nombre d'instances et de vCPU, la mémoire, le stockage et le débit réseau). Cette capacité cible pourra être mise à jour après le lancement du parc. Les parcs d'instances Spot vous permettent de lancer et de maintenir une capacité cible, mais aussi de demander automatiquement des ressources pour remplacer celles qui sont interrompues ou clôturées manuellement. En savoir plus sur les parcs d'instances Spot.

Q : Des frais supplémentaires sont-ils facturés pour les demandes de parc d'instances Spot ?

Non, aucuns frais supplémentaires ne sont facturés pour les demandes de parc d'instances Spot.

Q : Q : Quelles sont les limites s'appliquant à une demande de parc d'instances Spot ?

Consultez la section Limites du parc d'instances Spot du guide de l'utilisateur Amazon EC2 pour en savoir plus sur les limites qui s'appliquent à votre demande de parc d'instances Spot.

Q : Q : Que se passe-t-il lorsque ma demande de parc d'instances Spot tente de lancer des instances Spot, mais qu'elle dépasse ma limite de demande d'instances Spot régionale ?

Si votre demande de parc d'instances Spot dépasse la limite de demande d'instances Spot régionale, les demandes d'instances Spot individuelles échoueront et présenteront le statut de demande « Limite de requête Spot dépassée ». Votre historique de demandes de parc d'instances Spot affichera les erreurs de limite de demande que la demande de parc a reçues. Consultez la section Surveillance de votre parc d'instances Spot du guide de l'utilisateur Amazon EC2 pour apprendre comment décrire votre historique de demandes de parc d'instances Spot.

Q : Mes demandes de flotte d'instances Spot sont-elles assurées d'être satisfaites ?

Non. Les demandes de flotte d'instances Spot vous permettent d'envoyer simultanément plusieurs demandes d'instances Spot. Elles sont soumises à la même disponibilité et aux mêmes prix que les demandes d'instance Spot uniques. Par exemple, si aucune ressource n'est disponible pour les types d'instances spécifiés dans votre demande de parc d'instances Spot, il est possible que cette demande ne soit pas satisfaite en partie ou dans son intégralité. Nous vous conseillons d'inclure l'ensemble des types d'instances et des zones de disponibilité adaptés à vos charges de travail dans le parc d'instances Spot.

Q : Est-il possible de soumettre une demande de parc d'instances Spot sur plusieurs zones de disponibilité ?

Oui. Consultez la section Exemples de parcs d'instances Spot du guide de l'utilisateur Amazon EC2 pour apprendre à soumettre une demande de parc d'instances Spot sur plusieurs zones de disponibilité.

Q : Est-il possible de soumettre une demande de parc d'instances Spot multi-régions ?

Non, nous ne prenons pas en charge les demandes de parcs d'instances Spot multi-régions.

Q : De quelle manière la flotte d'instances Spot alloue-t-il des ressources dans les différents groupes d'instances Spot définis dans les spécifications de lancement ?

L'API RequestSpotFleet fournit trois stratégies d'allocation : capacity-optimized (optimisé pour la capacité), lowestPrice et diversified (diversifié). La stratégie d'allocation optimisée en termes de capacité tente de provisionner des instances Spot à partir des groupes d'instances Spot les plus disponibles en analysant les métriques de capacité. Cela fonctionne parfaitement pour les charges de travail comme le Big Data et l'analyse, le rendu image et multimédia, le machine learning et le calcul haute performance pouvant coûter plus cher en interruption.

La stratégie lowestPrice vous permet d'allouer vos ressources de flotte d'instances Spot dans des groupes d'instances qui offrent le prix le plus bas par unité de capacité au moment de la demande. La stratégie diversified vous permet d'allouer vos ressources de flotte d'instances Spot dans différents groupes d'instances Spot. Cela vous permet de conserver la capacité cible de votre flotte et d'augmenter la disponibilité de votre application au gré des fluctuations de la capacité Spot.

L'exécution des ressources de votre application dans différents groupes d'instances Spot vous permet de réduire les coûts de fonctionnement de votre flotte au fil du temps. Consultez le Guide de l'utilisateur Amazon EC2 pour en savoir plus.

Q : Puis-je ajouter une balise à une demande de flotte d'instances Spot ?

Vous pouvez demander le lancement d'instances Spot avec des balises depuis une flotte d'instances Spot. La flotte en elle-même ne peut pas être balisée.

Q : Comment puis-je savoir à quelle flotte appartiennent mes instances Spot ?

Vous pouvez identifier les instances Spot associées à votre flotte en décrivant votre demande de flotte. Les demandes de flotte sont disponibles durant les 48 heures suivant la clôture de toutes leurs instances Spot. Consultez le guide de l'utilisateur Amazon EC2 pour savoir comment décrire votre demande de flotte d'instances Spot.

Q : Puis-je modifier ma demande de parc d'instances Spot ?

Oui, vous pouvez modifier la capacité cible de votre demande de parc d'instances Spot. Vous devrez peut-être annuler la demande et en soumettre une nouvelle pour modifier les autres paramètres de configuration de la demande.

Q : Puis-je spécifier une AMI différente pour chaque type d'instances que je souhaite utiliser ?

Oui, il vous suffit d'indiquer l'AMI que vous souhaitez utiliser dans chaque spécification de lancement fournie avec votre demande de parc d'instances Spot.

Q : Q : Puis-je utiliser mon parc d'instances Spot avec Elastic Load Balancing, Auto Scaling ou Elastic MapReduce ?

Vous pouvez utiliser les fonctions d'Auto Scaling avec les parcs d'instances Spot, notamment le suivi des objectifs, les vérifications d'état, les métriques CloudWatch, etc. Vous pouvez attacher des instances à vos équilibreurs Elastic Load Balancer (aussi bien pour les équilibreurs de charge classiques que pour les équilibreurs d'application). Elastic MapReduce offre une fonction de gestion de parcs d'instances dont les capacités sont similaires à celles des parcs d'instances Spot.

Q : Une demande de flotte d'instances Spot supprime-t-elle mes instances Spot lorsqu'elles ne s'exécutent plus dans les groupes d'instances Spot présentant les prix les plus bas ou à capacité optimisée, afin de les relancer ?

Non. Les demandes de parc d'instances Spot ne mettent pas fin automatiquement aux instances et ne les relancent pas non plus lorsqu'elles sont en cours d'exécution. Toutefois, si vous supprimez une instance Spot, le parc d'instances Spot la remplacera par une nouvelle instance Spot dans le nouveau groupe présentant les prix les plus bas ou à capacité optimisée selon votre stratégie d'allocation.

Q : Puis-je utiliser les options d'arrêt ou de mise en hibernation avec les flottes d'instances Spot ?

Oui, les cycles arrêt-démarrage et mise en veille prolongée-relancement sont pris en charge par les parcs d'instances Spot pour lesquels l'option « maintenir » est activée. 

Plateforme

Amazon Time Sync Service

Q : Comment utiliser ce service ?

Ce service offre un point de terminaison NTP sur une adresse IP lien-local (169.254.169.123) accessible depuis n'importe quelle instance exécutée dans un VPC. Des instructions pour la configuration de clients NTP sont disponibles pour les systèmes d'exploitation Linux et Windows.

Q : Q : Quels sont les principaux avantages de ce service ?

Un grand nombre d'applications et de services dépendent d'une source temporelle constante et précise. Amazon Time Sync Service offre une référence temporelle accessible de façon sécurisée depuis une instance, sans nécessiter de modifier ou de mettre à jour la configuration du VPC. Ce service est basé sur l'infrastructure réseau éprouvée d'Amazon et utilise des sources temporelles de référence redondantes pour garantir une disponibilité et une précision élevées.

Q : Q : Quels sont les types d'instances pris en charge pour ce service ?

Toutes les instances exécutées dans un VPC peuvent accéder à ce service.

Zones de disponibilité

Q : Les zones de disponibilité sont-elles très isolées les unes des autres ?

Chaque zone de disponibilité exécute sa propre infrastructure indépendante et physiquement distincte et est conçue pour être hautement fiable. Les points de défaillance uniques, tels que les générateurs et les équipements de refroidissement, ne sont pas partagés entre les zones de disponibilité. En outre, ils sont physiquement séparés, ainsi même un désastre rare, comme un incendie, une tempête ou une inondation, n'affecterait qu'une seule zone de disponibilité.

Q : Le service Amazon EC2 fonctionne-t-il dans plusieurs régions AWS ?

Oui. Pour plus d'informations sur la disponibilité de nos produits et services par région, reportez-vous à la section relative aux produits et services régionaux.

Q : Comment puis-je être sûr d'être dans la même zone de disponibilité qu'un autre développeur ?

A l'heure actuelle, nous ne prenons pas en charge la possibilité de coordonner les lancements dans une même zone de disponibilité pour plusieurs comptes de développeurs AWS. Un même nom de zone de disponibilité (us-east-1a, par exemple) dans deux comptes client AWS peut désigner deux zones de disponibilité physiques différentes.

Q : Si je transfère des données entre zones de disponibilité en utilisant des adresses IP publiques, dois-je payer deux fois pour le transfert de données régional (une fois, pour le transfert d'une zone à l'autre, et une seconde fois parce que j'utilise des adresses IP publiques) ?

Non. Le tarif de transfert de données régional s'applique si au moins une des conditions suivantes est vraie, mais n'est facturé qu'une seule fois pour une instance donnée même si les deux conditions sont vraies :

  • L'autre instance est dans une zone de disponibilité (AZ) différente, quel que soit le type d'adresse utilisée.
  • Des adresses IP publiques ou Elastic IP sont utilisées, sans que la zone de disponibilité de l'autre instance soit prise en compte.

Instances en cluster

Q : Qu'est-ce que c'est qu'une instance Cluster Compute ?

Les instances Cluster Compute combinent de hautes ressources de calcul avec une mise en réseau haute performance pour les applications à haute performance de calcul et les autres applications exigeantes liées au réseau. Les instances Cluster Compute offrent une fonctionnalité similaire aux autres instances Amazon EC2, mais elles ont été spécialement conçues pour fournir une mise en réseau haute performance.

La fonctionnalité de groupe de placement du cluster d'Amazon EC2 permet aux utilisateurs de regrouper les instances Cluster Compute dans des clusters. De cette manière, les applications obtiennent les performances réseau à faible latence nécessaires pour une communication étroite nœud à nœud typique dans de nombreuses applications HPC. Les instances Cluster Compute fournissent également un débit de réseau beaucoup plus important, à la fois dans l'environnement Amazon EC2 et pour Internet. Ainsi, ces instances sont également adaptées aux applications clientes qui ont besoin d'effectuer des opérations intensives sur le réseau.

En savoir plus sur l'utilisation ce type d'instance pour les applications HPC.

Q : À quel type de performances réseau puis-je m'attendre lors du lancement d'instances dans un groupe de placement de clusters ?

La bande passante utilisable par une instance EC2 dans un groupe de placement du cluster dépend du type d'instance et de ses spécifications de performances en termes de mise en réseau. Le trafic entre instances au sein d'une même région peut utiliser 5 Go/s pour un seul flux et jusqu'à 25 Go/s pour un trafic multi-flux. Lorsqu'elles sont lancées dans un groupe de placement, les instances EC2 sélectionnées peuvent utiliser jusqu'à 10 Gbit/s pour un trafic à un seul flux.

Q : Qu'est-ce que c'est qu'une instance cluster GPU ?

Les instances cluster GPU proposent des unités de traitement graphiques (GPU) à usage général avec une CPU proportionnellement élevée et des performances réseau accrues pour les applications bénéficiant d'un traitement hautement parallélisé que des modèles de programmation CUDA et OpenCL peuvent accélérer. Les applications courantes incluent la modélisation et la simulation, le rendu et le traitement média.

Les instances GPU en cluster proposent aux clients avec des charges de travail de calcul haute performance (HPC) une option allant au-delà des instances Cluster Compute afin de personnaliser davantage leurs clusters haute performance dans le cloud pour les applications qui peuvent bénéficier de la puissance des GPU en matière de calcul parallèle.

Les instances GPU en cluster utilisent la même fonctionnalité de groupe de placement du cluster que les instances Cluster Compute pour regrouper les instances dans des clusters, permettant ainsi aux applications d'obtenir les performances réseau de bande passante élevées et à faible latence nécessaires pour une communication étroite nœud à nœud typique, dans de nombreuses applications HPC.

En savoir plus sur les applications HPC sur AWS.

Q : Qu'est-ce qu'une instance en cluster à mémoire élevée ?

Les instances en cluster à mémoire élevée fournissent aux clients d'importantes capacités de mémoire et de CPU par instance, en plus de fonctionnalités réseau de premier ordre. Ce type d'instance est idéal pour les charges de travail gourmandes en mémoire et, notamment, pour les systèmes d'analyse en mémoire, les analyses graphiques et de nombreuses applications scientifiques ou d'ingénierie.

Les instances en cluster à mémoire élevée utilisent la même fonctionnalité de groupe de placement du cluster que les instances Cluster Compute pour regrouper les instances dans des clusters. De cette manière, les applications obtiennent les performances réseau de bande passante élevées et à faible latence nécessaires pour une communication étroite nœud à nœud typique dans de nombreuses applications HPC et autres applications intensives sur le réseau.

Q. L'utilisation des instances cluster compute et des instances cluster GPU est-elle différente des autres types d'instances Amazon EC2 ?

L'utilisation des instances cluster compute et des instances cluster GPU est différente de celle des autres types d'instances Amazon EC2, et ce à deux niveaux.

Pour commencer, les instances cluster compute et cluster GPU utilisent la virtualisation basée sur une machine virtuelle matérielle (HVM) et exécutent uniquement les Amazon Machine Images (AMI) basées sur la virtualisation HVM. Les AMI basées sur une machine paravirtuelle (PVM) utilisées avec d'autres types d'instances Amazon EC2 ne peuvent pas être utilisées avec les instances cluster compute et cluster GPU.

Deuxièmement, pour bénéficier pleinement de la faible latence disponible et de la pleine largeur de bande passante de bissection entre les instances, les instances cluster compute et cluster GPU doivent être lancées dans un groupe de placement du cluster via l'API Amazon EC2 ou AWS Management Console.

Q : Qu'est-ce que c'est qu'un groupe de placement du cluster ?

Un groupe de placement de groupement est une entité logique qui permet de créer un groupement d'instances en lançant les instances en tant que parties d'un groupe. Le cluster d'instances offre ensuite une connectivité à faible latence entre les instances du groupe. Les groupes de placement de groupement sont créés par l'API Amazon EC2 ou la AWS Management Console.

Q : Toutes les fonctions d'Amazon EC2 sont-elles disponibles pour les instances cluster compute et cluster GPU ?

Actuellement, Amazon DevPay n'est pas disponible pour les instances cluster compute ou cluster GPU.

Q : Le nombre d'instances cluster compute ou cluster GPU que je peux utiliser et/ou la taille des clusters que je peux créer en lançant des instances cluster compute ou cluster GPU dans un groupe de placement de cluster est-il limité ?

Il n'existe pas de limite spécifique pour les instances cluster compute. Pour les instances Cluster GPU, vous pouvez lancer 2 instances par vous-même. Si vous avez besoin d'une plus grande capacité, veuillez remplir le formulaire de demande d'instance Amazon EC2 (en sélectionnant le type d'instance principal approprié).

Q. Puis-je optimiser les chances de recevoir le nombre total d'instances que je demande pour mon cluster via un groupe de placement du cluster ?

Nous vous recommandons de lancer en une seule fois le nombre minimum d'instances requis pour participer à un cluster. Pour des clusters de grande taille, vous devez lancer plusieurs groupes de placement, par exemple, deux groupes de 128 instances et les associer pour en créer un plus important comportant 256 instances.

Q : Les instances cluster compute et cluster GPU peuvent-elles être lancées en un seul groupe de placement du cluster ?

Bien qu'il soit possible de lancer divers types d'instances en cluster dans un seul groupe de placement, nous ne prenons en charge à l'heure actuelle que les groupes homogènes.

Q : Si une instance dans un groupe de placement du cluster est arrêtée puis redémarrée, maintiendra-t-elle sa présence dans le groupe de placement du cluster ?

Oui. Une instance arrêtée sera démarrée dans le "cluster placement group" dans lequel elle était avant d'être arrêtée. Si le « groupe de placement de cluster » n'offre pas la capacité nécessaire pour son démarrage, le démarrage échoue.

Informations sur le matériel

Quelles sont les options de CPU disponibles sur les instances EC2 ?

Les instances EC2 offrent une variété d'options de CPU pour aider les clients à équilibrer les exigences de performance et de coût.  EC2 propose, selon le type d'instance, un choix de CPU comprenant des processeurs AWS Graviton/Graviton2 (Arm), des processeurs AMD (x86) et des processeurs Intel (x86).

Q : Sur quel type de matériel ma pile d'applications est-elle exécutée ?

Rendez-vous sur la page Amazon EC2 Instance Type (Type d'instance Amazon EC2) pour connaître la liste des instances EC2 disponibles par région.

Q : Comment EC2 exécute-t-il la maintenance ?

AWS effectue régulièrement des tâches courantes de maintenance matérielle, logicielle, d'alimentation et de réseau entraînant une perturbation minime des types d'instances EC2. Ce résultat est obtenu par une combinaison de technologies et de méthodes sur l'ensemble de l'infrastructure AWS Global, telles que la mise à jour et la migration en temps réel, ainsi que des systèmes redondants et à maintenance simultanée. Les technologies de maintenance non intrusives, telles que la mise à jour et la migration en temps réel, ne nécessitent pas l'arrêt ou le redémarrage des instances. Les clients ne sont pas tenus de prendre des mesures avant, pendant ou après la migration ou la mise à jour en temps réel. Ces technologies permettent d'améliorer la disponibilité des applications et de réduire votre effort opérationnel. Amazon EC2 utilise la mise à jour en temps réel pour déployer rapidement les logiciels sur les serveurs avec un impact minimal sur les instances des clients. La mise à jour en temps réel garantit que les charges de travail des clients s'exécutent sur des serveurs dotés de logiciels à jour avec des correctifs de sécurité, de nouvelles fonctionnalités d'instance et des améliorations de performance. Amazon EC2 utilise la migration en temps réel lorsque des instances en cours d'exécution doivent être déplacées d'un serveur à un autre pour des raisons de maintenance matérielle ou pour optimiser le placement des instances ou gérer dynamiquement les ressources du processeur. Au fil des ans, Amazon EC2 a étendu la portée et la couverture des technologies de maintenance non intrusive, de sorte que les événements de maintenance programmée constituent une option de repli plutôt que le principal moyen de permettre la maintenance de routine.

Q : Comment sélectionner le type d'instance approprié ?

Les instances Amazon EC2 sont réparties dans 5 familles : instances polyvalentes, de calcul accéléré, de mémoire optimisée, de stockage optimisé et de traitement accéléré. Les instances polyvalentes ont des ratios mémoire/unité centrale adaptés à la plupart des applications polyvalentes et sont proposées avec des performances fixes ou des performances éclairs. Les instances optimisées pour le calcul ont proportionnellement plus de ressources CPU que de mémoire (RAM) et sont bien adaptées aux applications à forte intensité de calcul et aux charges de travail du calcul haute performance (HPC). Les instances optimisées pour la mémoire offrent des capacités de mémoire plus importantes pour les applications à forte intensité de mémoire, y compris les applications de base de données et de mise en cache de la mémoire. Les instances de calcul accéléré utilisent des accélérateurs matériels ou des coprocesseurs pour exécuter des fonctions telles que les calculs de nombres à virgule flottante, le traitement graphique ou la correspondance de modèles de données, plus efficacement que ne le permet un logiciel fonctionnant sur des CPU. Les instances optimisées pour le stockage offrent une faible latence, une capacité d'I/O utilisant un stockage d'instance local basé sur SSD pour les applications à forte I/O, ainsi que des instances de stockage dense sur disque dur, qui offrent une haute densité de stockage local et des performances d'I/O séquentielles pour l'entreposage de données, Hadoop et d'autres applications à forte intensité de données. Quand vous choisissez des types d'instances, vous devez prendre en compte les caractéristiques de votre application en ce qui concerne l'utilisation des ressources (CPU, mémoire et stockage), et sélectionner la famille et la taille d'instance optimales.

Q : Qu'est-ce qu'une « unité de calcul EC2 » (EC2 Compute Unit) et pourquoi avoir introduit ce nouveau concept ?

La transition vers un modèle de calcul utilitaire change complètement la manière dont les développeurs ont été formés à envisager les ressources CPU. Au lieu d'acheter ou de louer un processeur particulier pour l'utiliser pendant plusieurs mois ou plusieurs années, vous louez la capacité à l'heure. Puisque Amazon EC2 est construit sur du matériel de commodité, il peut y avoir, dans le temps, plusieurs types de matériels physiques sous-jacents aux instances EC2. Notre but est de fournir une quantité constante de capacité CPU quel que soit le matériel sous-jacent.

Amazon EC2 utilise une grande diversité de mesures pour fournir à chaque instance une quantité constante et prévisible de capacité de CPU. Afin d'aider les développeurs à comparer les capacités CPU entre les différents types d'instance, nous avons défini les Unités de calcul Amazon EC2. La quantité de CPU allouée à une instance particulière est exprimée par ces Unités de calcul Amazon EC2. Nous utilisons plusieurs modèles et plusieurs tests pour gérer la constance et prévisibilité des performances d'une Unité de calcul EC2. L'unité de calcul EC2 (ECU) fournit la mesure relative de la puissance de traitement d'un nombre entier d'une instance Amazon EC2. Avec le temps, il se peut que nous ajoutions ou que nous modifiions les mesures faisant partie de la définition d'une unité de calcul EC2, si nous trouvons des métriques qui offrent une meilleure représentation des capacités de calcul.

Q : Comment EC2 assure-t-il des performances cohérentes entre les types d’instance au fil du temps ?

AWS effectue à intervalles réguliers des analyses comparatives des performances de calcul Linux et Windows sur les types d’instances EC2 afin de garantir des performances constantes dans le temps.

Q : Quelle est la disponibilité régionale des types d’instance Amazon EC2 ?

Pour consulter la liste complète des instances et connaître la disponibilité par région, visitez la page Tarification Amazon EC2.

Micro-instances

Q : Quelle puissance de calcul offrent les micro-instances ?

Les Micro Instances fournissent une petite quantité de ressources CPU constantes et vous permettent de détacher de la capacité CPU jusqu'à 2 ECU lorsque des cycles supplémentaires sont disponibles. Elles sont adaptées aux applications de moindre débit et aux sites Web qui consomment d'importants cycles de calcul de temps en temps mais très peu de CPU le reste du temps, pour les applications arrières, daemons, etc. En savoir plus sur l'utilisation de ce type d'instance.

Q : En quoi la puissance de calcul des micro-instances peut-elle être comparée à une instance Small Standard ?

En état stable, les Micro Instances ne reçoivent qu'une fraction des ressources de calcul que reçoivent les instances Small. De ce fait, si votre application nécessite une importante capacité de calcul ou si son état doit être stable, nous vous recommandons d'utiliser une instance Small (ou une instance plus grande, en fonction de vos besoins). Toutefois, les Micro Instances peuvent détacher jusqu'à 2 ECU (pour de courtes périodes). Ce qui double le nombre d'ECU disponibles d'une instance standard Small. Ainsi, si votre application a des besoins en débit réduits ou si votre service Web a occasionnellement besoin de consommer d'importants cycles de calcul, nous vous recommandons d'utiliser les micro-instances.

Q : Comment puis-je savoir si une application a besoin de plus de ressources CPU que qu'une micro-instance ?

La métrique CloudWatch relative à l'utilisation de l'UC indiquera une utilisation de 100 % si l'instance augmente à tel point qu'elle dépasse ses ressources UC disponibles pendant la minute de surveillance CloudWatch. Lorsque CloudWatch indique une utilisation de l'UC de 100 %, cela signifie que vous devez passer, en mode manuel ou à l'aide de l'Auto Scaling (scalabilité automatique), à un type d'instance plus important ou à plusieurs micro-instances.

Q : Toutes les fonctions d'Amazon EC2 sont-elles disponibles pour les micro-instances ?

Amazon DevPay n'est pas disponible pour les micro-instances à l'heure actuelle.

Hyperviseur Nitro

Q : Qu'est-ce que l'hyperviseur Nitro ?

Le lancement des instances C5 introduisent un nouvel hyperviseur pour Amazon EC2 : l'hyperviseur Nitro. En tant que composant du système Nitro, l'hyperviseur Nitro offre principalement une isolation du processeur et de la mémoire pour les instances EC2. La mise en réseau VPC et les ressources de stockage EBS sont mises en place par des cartes Nitro, des composants matériels dédiés faisant partie de toutes les familles d'instances EC2 de génération actuelle. L'hyperviseur Nitro repose sur une technologie de machine virtuelle avec noyau (KVM) Linux, mais il n'inclut pas les composants de système d'exploitation à usage général.

Q : Quels sont les avantages de l'hyperviseur Nitro pour les clients ?

L'hyperviseur Nitro apporte des ressources de calcul et de mémoire améliorées avec des performances fiables pour les instances virtualisées EC2 en supprimant les composants logiciels de système hôte. Il permet à AWS de proposer des tailles d'instance plus importantes (comme c5.18xlarge) qui fournissent pratiquement toutes les ressources du serveur aux clients. Auparavant, les instances C3 et C4 éliminaient chacune les composants logiciels en déplaçant les fonctionnalités VPC et EBS vers du matériel désigné conçu par AWS. Ce matériel permet à l'hyperviseur Nitro d'être léger et non impliqué dans les tâches de traitement de données pour la mise en réseau et le stockage.

Q : Toutes les instances EC2 utiliseront-elles l'hyperviseur Nitro ?

À terme, tous les nouveaux types d'instances utiliseront l'hyperviseur Nitro, mais à court terme, certains types d'instance utiliseront Xen en fonction des exigences de la plateforme.

Q : Le développement de l'hyperviseur basé sur Xen sera-t-il maintenu par AWS ?

Oui. À mesure du développement de l'infrastructure cloud mondiale d'AWS, l'utilisation de l'hyperviseur Xen par EC2 continuera elle aussi d'évoluer. Xen restera un composant essentiel des instances EC2 pour les années à venir. AWS compte parmi les membres fondateurs du projet Xen, un des projets collaboratifs de la Fondation Linux. Nous participons encore activement à son comité consultatif. A mesure du développement de l'infrastructure cloud mondiale d'AWS, l'hyperviseur Xen pour EC2 continuera lui aussi d'évoluer. Loin de diminuer, l'investissement d'EC2 dans Xen est en pleine expansion.

Q : Combien de volumes EBS et d'interfaces réseau Elastic (ENI) peuvent être attachés aux instances s'exécutant sur l'hyperviseur Nitro ?

Les instances s'exécutant sur l'hyperviseur Nitro prennent en charge jusqu'à 27 périphériques PCI supplémentaires pour les volumes EBS et les interfaces ENI VPC. Chaque volume EBS ou ENI VPC utilise un périphérique PCI. Par exemple, si vous attachez 3 interfaces réseau supplémentaires à une instance utilisant l'hyperviseur Nitro, vous pouvez joindre jusqu'à 24 volumes EBS à cette instance.

Q : L'hyperviseur Nitro changera-t-il les API utilisées pour interagir avec les instances EC2 ?

Non. Toutes les API accessibles au public pour l'interaction avec les instances EC2 et s'exécutant avec l'hyperviseur Nitro resteront les mêmes. Par exemple, le champ « hyperviseur » de la réponse DescribeInstances continuera de signaler « xen » pour toutes les instances EC2, même celles s'exécutant sous l'hyperviseur Nitro. Ce champ pourra être supprimé lors d'une prochaine révision de l'API EC2.

Q : Quelles sont les images AMI prises en charge sur les instances utilisant l'hyperviseur Nitro ?

Les images AMI HVM basées sur EBS et prenant en charge les réseaux ENA et le démarrage à partir d'un stockage NVMe peuvent être utilisées avec des instances fonctionnant sous l'hyperviseur Nitro. La dernière image AMI Amazon Linux et les dernières images AMI Windows fournies par Amazon sont prises en charge, tout comme les dernières images AMI Ubuntu, Debian, Red Hat Enterprise Linux, SUSE Enterprise Linux, CentOS et FreeBSD.

Q : Remarquerai-je des différences entre les instances utilisant l'hyperviseur Xen et celles utilisant l'hyperviseur Nitro ?

Oui. Par exemple, les instances exécutées sous l'hyperviseur Nitro démarrent à partir de volumes EBS en utilisant une interface NVMe. Les instances s'exécutant sous Xen démarrent à partir d'un disque dur IDE émulé et basculent vers les pilotes de périphérique de bloc paravirtualisés Xen.

Les systèmes d'exploitation peuvent identifier le moment où ils s'exécutent sous un hyperviseur. Certains logiciels présument que les instances EC2 s'exécuteront sous l'hyperviseur Xen et reposeront sur cette détection. Les systèmes d'exploitation détecteront l'exécution sous KVM lorsqu'une instance utilise l'hyperviseur Nitro. Ainsi, le processus d'identification des instances EC2 doit être utilisé pour identifier les instances EC2 s'exécutant sous les deux hyperviseurs.

Toutes les fonctionnalités d'EC2, comme le service de métadonnées d'instance, fonctionnent de la même manière sur les instances s'exécutant sous Xen et l'hyperviseur Nitro. La majorité des applications fonctionneront de la même manière sous Xen et sous l'hyperviseur Nitro, pour autant que le système d'exploitation prenne en charge les réseaux ENA et le stockage NVMe.

Q : Comment les demandes d'API EC2 de redémarrage et de résiliation d'instance sont-elles implémentées par l'hyperviseur Nitro ?

L'hyperviseur Nitro signale au système d'exploitation s'exécutant dans l'instance qu'il doit s'arrêter correctement, conformément aux méthodes ACPI standard du secteur. Pour les instances Linux, acpid doit être installé et fonctionner correctement. Si acpid ne fonctionne pas dans l'instance, les événements de suppression seront retardés de plusieurs minutes, et seront exécutés en tant que réinitialisation matérielle ou mise hors tension.

Q : Comment les volumes EBS se comportent-ils lorsque l'on y accède via les interfaces NVMe ?

Il existe d'importantes différences dans la façon dont les pilotes NVMe du système d'exploitation se comportent par rapport aux pilotes de bloc paravirtuels (PV) Xen.

Tout d'abord, les noms de périphériques NVMe utilisés par les systèmes d'exploitation Linux seront différents des paramètres pour les demandes d'association de volume EBS et les entrées de mappage de périphérique de bloc comme /dev/xvda et /dev/xvdf. Les périphériques NVMe sont énumérés par le système d'exploitation sous la forme /dev/nvme0n1, /dev/nvme1n1 et ainsi de suite. Les noms de périphériques NVMe ne sont pas des mappages persistants à des volumes, c'est pourquoi d'autres méthodes comme les UUID de systèmes de fichiers ou les étiquettes doivent être utilisées lors de la configuration du montage automatique de systèmes de fichiers ou d'autres activités de démarrage. Lorsque l'on accède aux volumes EBS via l'interface NVMe, l'ID des volumes EBS est disponible par l'intermédiaire du numéro de série du contrôleur, et le nom de périphérique spécifié dans les demandes d'API EC2 est fourni par une extension fournisseur NVMe à la commande Identifier le contrôleur. Cela permet la création de liens symboliques rétrocompatibles par un script d'utilitaire. Pour en savoir, consultez la documentation EC2 sur la nomenclature de périphériques et les volumes EBS NVMe.

Ensuite et par défaut, les pilotes NVMe inclus dans la plupart des systèmes d'exploitation mettent en place un délai d'expiration E/S. Si une E/S ne se termine pas dans un délai propre à l'implémentation, généralement quelques dizaines de secondes, le pilote tentera d'annuler l'E/S, la relancera ou retournera une erreur au composant qui a utilisé l'E/S. L'interface du périphérique de stockage en mode bloc PV de Xen ne déclenche pas l'expiration de l'E/S, ce qui peut empêcher l'arrêt de processus en attente de l'E/S. Le comportement du pilote NVMe Linux peut être modifié en spécifiant une valeur supérieure pour le paramètre d'expiration du module de noyau nvme.io.

Après cela, l'interface NVMe peut transférer de plus grandes quantités de données par E/S et dans certains cas, elle peut être en mesure de prendre en charge davantage de demandes d'E/S en suspens par rapport à l'interface de bloc PV de Xen. Cela provoque une latence E/S supérieure si des E/S très larges ou si un nombre plus important de demandes d'E/S sont émises vers des volumes désignés pour prendre en charge les charges de travail de débit comme les volumes EBS Throughput Optimized HDD (st1) et Cold HDD (sc1). Cette latence des E/S est normale pour les volumes à débit optimisé dans ces scénarios, mais elle peut provoquer des délais d'expiration d'E/S dans les pilotes NVMe. Le délai d'expiration d'E/S peut être ajusté dans le pilote Linux en spécifiant une valeur supérieure pour le paramètre de module de noyau nvme.io_timeout.

Optimize CPUs

Q : Qu'est-ce que l'optimisation des UC ?

Optimize CPUs vous donne davantage le contrôle sur vos instances EC2 sur deux fronts. Tout d'abord, vous pouvez spécifier un nombre personnalisé de vCPU au lancement de nouvelles instances pour économiser sur les coûts de licence de vCPU. Ensuite, vous pouvez désactiver Intel Hyper-Threading Technology (Intel HT Technology) pour les charges de travail affichant de bonnes performances avec des CPU à thread unique, comme certaines applications de calcul haute performance.

Q : Pourquoi utiliser la fonctionnalité d'optimisation des processeurs ?

Utilisez Optimize CPUs si :

  • vous exécutez des charges de travail EC2 non liées au calcul et entrainant des coûts de licence vCPU (en lançant des instances comportant un nombre personnalisé de vCPU, vous pouvez optimiser vos coûts en matière de licences) ;
  • vous exécutez des charges de travail profitant de la désactivation de l'hyper-threading sur des instances EC2.

Q : Comment seront tarifées les instances à CPU optimisé ?

Les instances CPU optimisées seront facturées au même titre que les instances équivalentes complètes.

Q : Comment évolueront les performances de mon application en utilisant la fonctionnalité d'optimisation des UC sur EC2 ?

La modification des performances de votre application avec Optimize CPUs vont énormément dépendre des charges de travail que vous exécutez sur EC2. Nous vous encourageons à tester les performances de votre application avec Optimize CPUs pour définir le bon nombre de vCPU et le comportement d'hyper-threading optimal pour votre application.

Q : Puis-je utiliser la fonctionnalité d'optimisation des UC sur des types d'instances EC2 bare metal (comme i3.metal) ?

Non. Vous ne pouvez utiliser la fonctionnalité d'optimisation des processeurs qu'avec des instances EC2 virtualisées.

Q : Comment bien démarrer en utilisant l'optimisation des CPU pour les instances EC2 ?

Pour en savoir plus sur la prise en main de la fonctionnalité d'optimisation des CPU et les types d'instances pris en charge, consultez la page de documentation correspondante ici.

Charges de travail

Amazon EC2 exécutant IBM

Q : Comment mon utilisation d'Amazon EC2 exécutant IBM m'est-elle facturée ?

Vous payez uniquement ce que vous utilisez et il n'y a pas de frais minimum. Le prix est calculé par heure d'instance consommée pour chaque type d'instance. Les heures d'instance partielles consommées sont facturées en tant qu'heures entières. Le transfert de données pour Amazon EC2 exécutant IBM est facturé et traité séparément d'Amazon EC2. Il n'y a pas de frais de transfert de données entre deux services Amazon Web Services de la même région (par exemple, entre Amazon EC2 dans la région USA Ouest et un autre service AWS de la région USA Ouest). Les données transférées entre services AWS de différentes régions seront facturées en tant que transfert de données Internet de chaque côté du transfert.

Pour en savoir plus sur les tarifs d'Amazon EC2 exécutant IBM, consultez la section relative à la tarification sur la page d'informations d'Amazon EC2 exécutant IBM.

Q : Puis-je utiliser Amazon DevPay avec Amazon EC2 exécutant IBM ?

Non, vous ne pouvez pas utiliser DevPay pour grouper les produits au-dessus d'Amazon EC2 exécutant IBM pour le moment.

Amazon EC2 exécutant Microsoft Windows et d'autres logiciels tiers

Q : Puis-je utiliser ma licence Windows Server existante avec EC2 ?

Oui, vous pouvez. Après avoir importé vos propres images machine Windows Server à l'aide de l'outil ImportImage, vous pourrez lancer des instances à partir de ces images machine sur des hôtes dédiés EC2 et gérer efficacement les instances et signaler leur utilisation. Microsoft vous demande généralement d'effectuer un suivi de l'utilisation de vos licences sur des ressources physiques telles que des interfaces de connexion et des cœurs, qui est réalisable via l'utilisation d'hôtes dédiés. Pour plus d'informations sur l'utilisation de vos propres licences Windows Server sur les hôtes dédiés Amazon EC2, consultez la page de présentation des hôtes dédiés.

Q : Quelles licences logicielles puis-je transférer vers l'environnement Windows ?

Les conditions des licences de logiciels spécifiques varient d'un fournisseur à l'autre. Par conséquent, nous vous recommandons de vérifier les conditions de licence de votre fournisseur de logiciels pour déterminer si vos licences existantes sont autorisées à être utilisées dans Amazon EC2.

Charges de travail macOS

Q : Que sont les instances Amazon EC2 Mac ?

Les instances Amazon EC2 Mac permettent aux clients d’exécuter pour la première fois des charges de travail macOS à la demande dans le cloud. Cela permet d’étendre la flexibilité, la capacité de mise à l’échelle et les avantages en matière de coûts d’AWS à tous les développeurs Apple. Avec les instances EC2 Mac, les développeurs qui créent des applications pour iPhone, iPad, Mac, Apple Watch, Apple TV et Safari peuvent allouer des environnements macOS et y accéder en quelques minutes, mettre à l'échelle dynamiquement la capacité selon les besoins et profiter de la tarification à l'usage d'AWS.

Q : Quelles charges de travail devez-vous exécuter sur les instances EC2 Mac ?

Les instances Amazon EC2 Mac sont conçues pour créer, tester, signer et publier des applications pour les plateformes Apple telles que iOS, iPadOS, watchOS, tvOS, macOS et Safari. Des clients tels que Pinterest, Intuit, FlipBoard, Twitch et Goldman Sachs ont constaté des performances de création jusqu'à 75 % supérieures, des taux d'échec de création jusqu'à 80 % inférieurs et jusqu'à cinq fois le nombre de créations parallèles par rapport à l'exécution de macOS sur site.

Q : Que sont les instances EC2 x86 Mac ?

Les instances EC2 Mac basées sur x86 reposent sur des ordinateurs Apple Mac mini dotés de processeurs Intel Core i7, et sont optimisées par AWS Nitro System. Elles offrent aux clients un choix de macOS Mojave (10.14), macOS Catalina (10.15), macOS Big Sur (11) et macOS Monterey (12) sous forme d'Amazon Machine Image (AMI). Les instances EC2 x86 sont disponibles dans 12 régions : USA Est (Ohio, Virginie du Nord), USA Ouest (Oregon), Europe (Stockholm, Francfort, Irlande, Londres) et Asie-Pacifique (Mumbai, Séoul, Singapour, Sydney, Tokyo). Pour en savoir plus et démarrer avec les instances EC2 Mac basées sur x86, cliquez ici.

Q : Que sont les instances EC2 M1 Mac ?

Les instances EC2 M1 Mac reposent sur des ordinateurs Apple M1 Mac mini et sont optimisées par AWS Nitro System. Elles offrent jusqu'à 60 % de ratio prix/performances en plus par rapport aux instances EC2 Mac basées sur x86 pour les charges de travail de création d'applications iOS et macOS. Les instances EC2 M1 Mac permettent pour la première fois l'utilisation des environnements ARM64 macOS dans AWS, et prennent en charge macOS Big Sur (11) et macOS Monterey (12) en tant qu'Amazon Machine Image (AMI). Les instances EC2 M1 Mac sont disponibles dans quatre régions : USA Est (Virginie du Nord), USA Ouest (Oregon), EU (Irlande) et Asie-Pacifique (Singapour). Pour en savoir plus et démarrer avec les instances EC2 M1 Mac, cliquez ici.

Q : Que sont les instances EC2 M1 Ultra Mac ?

Les instances EC2 M1 Ultra Mac reposent sur des ordinateurs Apple M1 Ultra Mac et sont optimisées par AWS Nitro System. Les instances EC2 M1 Ultra Mac activent les environnements macOS ARM64 et prennent en charge macOS Ventura (13) en tant qu’Amazon Machine Images (AMI). Les instances EC2 M1 Ultra Mac sont disponibles dans 2 régions : USA Est (Virginie du Nord) et USA Ouest (Oregon). Pour en savoir plus et démarrer avec les instances EC2 M1 Ultra Mac, cliquez ici.

Q : Que sont les instances EC2 M2 Mac ?

Les instances EC2 M2 Mac reposent sur des ordinateurs Apple M2 Mac mini et sont optimisées par AWS Nitro System. Elles sont jusqu’à 10 % plus performantes que les instances EC2 M1 Mac pour les charges de travail de création d’applications iOS et macOS. Les instances EC2 M2 Mac activent les environnements macOS ARM64 sur AWS et prennent en charge macOS Ventura (version 13.2 et versions ultérieures) en tant qu’Amazon Machine Images (AMI). Les instances EC2 M2 Mac sont disponibles dans 6 régions : USA Est (Virginie du Nord, Ohio), USA Ouest (Oregon), Canada (Centre), Europe (Francfort) et Asie-Pacifique (Sydney). Pour en savoir plus et démarrer avec les instances EC2 M2 Mac, cliquez ici.

Q : Que sont les instances EC2 M2 Pro Mac ?

Les instances EC2 M2 Pro Mac sont construites sur des ordinateurs Apple M2 Pro Mac mini et alimentées par AWS Nitro System. Elles sont jusqu’à 35 % plus performantes que les instances EC2 M1 Mac pour iOS et les charges de travail de création d’applications macOS. Les instances EC2 M2 Pro Mac activent les environnements macOS ARM64 sur AWS et prennent en charge macOS Ventura (version 13.2 et versions ultérieures) en tant qu’Amazon Machine Images (AMI). Les instances EC2 M2 Pro Mac sont disponibles dans 4 régions : USA Est (Virginie du Nord, Ohio), USA Ouest (Oregon) et Asie-Pacifique (Sydney). Pour en savoir plus et démarrer avec les instances EC2 M2 Pro Mac, cliquez ici.

Q : Quels modèles de tarification sont disponibles pour les instances EC2 Mac ?

Les instances Amazon EC2 Mac sont disponibles en tant qu'hôtes dédiés par le biais des modèles de tarification à la demande et des Savings Plans. L'hôte dédié est l'unité de facturation des instances EC2 Mac. La facturation se fait à la seconde, avec une période d'allocation minimale de 24 heures pour l'hôte dédié afin de respecter le contrat de licence de logiciel Apple macOS. Au terme de votre période d'allocation minimale de 24 heures, l'hôte peut être libéré à tout moment sans aucun engagement supplémentaire. Les Savings Plans Compute et Instance sont disponibles pour les instances EC2 Mac et offrent jusqu'à 44 % de réduction sur la tarification à la demande. Pour plus d'informations, consultez la page de tarification des hôtes dédiés. (Remarque : veuillez sélectionner le mode de location « hôte dédié » et le système d'exploitation « Linux » pour afficher les détails). Vous pouvez aussi accéder à la tarification des instances EC2 Mac sur le Calculateur de prix AWS pour les hôtes dédiés.

Q : Comment libérer un hôte dédié ?

La période d'allocation minimale pour un hôte dédié à une instance EC2 Mac est de 24 heures. Une fois que la période d'allocation a dépassé 24 heures, arrêtez ou résiliez d'abord l'instance qui s'exécute sur l'hôte, puis libérez l'hôte à l'aide de la commande CLI aws ec2 release-hosts ou de la console de gestion AWS.

Q : Est-il possible de partager des hôtes dédiés EC2 Mac avec d'autres comptes AWS dans votre organisation ?

Oui. Vous pouvez partager des hôtes dédiés EC2 Mac avec des comptes AWS dans votre organisation AWS, une unité organisationnelle dans votre organisation AWS ou l'ensemble de votre organisation AWS via AWS Resource Access Manager. Pour plus d'informations, veuillez vous référer à la documentation d'AWS Resource Access Manager.

Q : Combien d'instances EC2 Mac est-il possible d'exécuter sur un hôte dédié EC2 Mac ?

Les instances EC2 Mac exploitent toute la puissance du matériel Mac mini sous-jacent. Vous pouvez exécuter une instance EC2 Mac sur chaque hôte dédié EC2 Mac.

Q : Est-il possible de mettre à jour les variables EFI NVRAM sur une instance EC2 Mac ?

Oui, vous pouvez mettre à jour certaines variables EFI NVRAM sur une instance EC2 Mac qui persisteront lors des redémarrages. Toutefois, les variables EFI NVRAM seront réinitialisées si l'instance est arrêtée ou résiliée. Veuillez consulter la documentation sur les instances EC2 Mac pour plus d'informations.

Q : Est-il possible d'utiliser FileVault pour chiffrer le volume de démarrage Amazon Elastic Block Store (Amazon EBS) sur les instances EC2 Mac ?

FileVault nécessite une connexion avant le démarrage dans macOS et avant que l'accès à distance puisse être activé. Si FileVault est activé, vous perdrez l'accès à vos données sur le volume de démarrage au redémarrage, à l'arrêt ou à la résiliation de l'instance. Nous vous recommandons fortement de ne pas activer FileVault. Nous vous recommandons plutôt d'utiliser le chiffrement Amazon EBS pour les volumes EBS de démarrage et de données sur les instances EC2 Mac.

Q : Est-il possible d'accéder à l'entrée du microphone ou à la sortie audio sur une instance EC2 Mac ?

Il n'y a pas d'accès à l'entrée du microphone sur une instance EC2 Mac. Le serveur VNC intégré Apple Remote Desktop ne prend pas en charge la sortie audio. Un logiciel de bureau à distance tiers, tel que Teradici CAS, prend en charge l'audio à distance sur macOS.

Q : Quelles Amazon Machine Image (AMI) basées sur macOS sont disponibles pour les instances EC2 Mac ?

Les instances EC2 Mac utilisent du matériel physique Mac mini pour exécuter macOS. Le matériel Apple ne prend en charge que la version de macOS livrée avec le matériel (ou une version ultérieure). Les instances EC2 Mac basées sur x86 utilisent le Mac mini équipé d'un Intel Core i7 de 2018, ce qui signifie que macOS Mojave (10.14.x) est la version la plus ancienne possible, puisque le Mac mini de 2018 est livré avec Mojave. Les instances EC2 M1 Mac utilisent des Mac mini M1 de 2020, qui sont livrés avec macOS Big Sur (11.x). Les instances EC2 M2 et M2 Pro Mac utilisent respectivement des Mac Mini M2 et M2 Pro 2023, fournis avec macOS Ventura (13.2). Pour voir quelles sont les dernières versions de macOS disponibles en tant qu’AMI EC2 Mac, veuillez consulter la documentation.

Q : Comment exécuter d’anciennes versions de macOS sur des instances EC2 Mac ?

Les instances EC2 Mac sont des instances de matériel nu et n'utilisent pas l'hyperviseur Nitro. Vous pouvez installer et exécuter une couche de virtualisation de type 2 sur des instances EC2 Mac basées sur x86 pour avoir accès à macOS High Sierra, Sierra ou à des versions plus anciennes de macOS. Sur les instances EC2 M1 Mac, macOS Big Sur est la première version de macOS à prendre en charge Apple Silicon, les versions plus anciennes de macOS ne fonctionneront pas, même sous virtualisation.

Q : Comment puis-je exécuter les versions bêta ou préliminaires de macOS sur les instances EC2 Mac ?

L’installation des versions bêta ou préliminaires de macOS est uniquement disponible sur les instances EC2 Mac basées sur Apple Silicon. Amazon EC2 ne qualifie pas les versions bêta ou préliminaires de macOS et ne garantit pas que les instances resteront fonctionnelles après une mise à jour vers une version de préproduction de macOS.

Q : Comment utiliser les données des utilisateurs EC2 avec les instances EC2 Mac ?

Comme pour les instances EC2 Linux et Windows, vous pouvez transmettre des données utilisateur personnalisées aux instances EC2 Mac. Au lieu d'utiliser cloud-init, les instances EC2 Mac utilisent un démon de lancement open source : ec2-macos-init. Vous pouvez transmettre ces données dans l’assistant de lancement EC2 sous forme de texte brut, de fichier ou de texte codé en base64.

Q : Comment installer Xcode sur une instance EC2 Mac ?

AWS fournit des AMI macOS de base sans installation préalable de Xcode IDE. Vous pouvez installer Xcode (et accepter le CLUF) comme vous le feriez sur tout autre système macOS. Vous pouvez installer la dernière version de Xcode IDE depuis l'App Store, ou des versions antérieures de Xcode depuis le site Web Apple Developer. Une fois Xcode installé, nous vous recommandons de créer un instantané de votre AMI pour une utilisation ultérieure.

Q : Quelle est la cadence de publication des AMI macOS ?

Nous mettons à disposition les nouvelles AMI macOS au fur et à mesure. Vous pouvez vous abonner aux notifications SNS pour les mises à jour. Nous visons 30 à 60 jours après une mise à jour mineure de macOS et 90 à 120 jours après une mise à jour majeure de macOS pour publier les AMI officielles de macOS.

Q : Quels agents et packages sont inclus dans les AMI EC2 macOS ?

Les agents et packages suivants sont inclus par défaut dans les AMI EC2 macOS :

  • Pilote ENA pour macOS
  • AWS CLI
  • EC2-macos-init
  • Agent Amazon CloudWatch
  • Chrony
  • Homebrew
  • Agent AWS Systems Manger

Q : Est-il possible de mettre à jour les agents et les packages inclus dans les AMI macOS ?

Il y a un référentiel GitHub public du tap Homebrew pour tous les agents et packages ajoutés à l'image macOS de base. Vous pouvez utiliser Homebrew pour installer les dernières versions des agents et des packages sur les instances macOS.

Q : Est-il possible d'appliquer les mises à jour du système d'exploitation et des logiciels aux instances macOS directement à partir des serveurs de mise à jour Apple ?

Les mises à jour logicielles automatiques de macOS sont désactivées sur les instances EC2 Mac. Nous vous recommandons d’utiliser nos AMI macOS officiellement distribuées pour lancer la version de macOS dont vous avez besoin. Sur les instances EC2 Mac basées sur x86 et toutes les instances Apple Silicon EC2 Mac, vous pouvez mettre à jour la version de macOS via le panneau de préférences Mise à jour du logiciel ou via la commande CLI de mise à jour du logiciel. Sur les deux instances EC2 Mac, vous pouvez installer et mettre à jour les applications et tout autre logiciel de l’espace utilisateur.

Q : Comment se connecter à une instance EC2 Mac via SSH ?

Après avoir lancé votre instance et reçu un ID d'instance, vous pouvez utiliser la commande suivante pour interroger l'instance et déterminer quand elle est prête pour un accès SSH. La connexion via SSH aux instances EC2 Mac suit le même processus que la connexion à d'autres instances EC2, telles que celles exécutant Linux ou Windows. Pour prendre en charge la connexion à votre instance via SSH, lancez l'instance en utilisant une paire de clés et un groupe de sécurité qui autorise l'accès SSH. Fournissez le fichier .pem pour la paire de clés lorsque vous vous connectez à l'instance. Pour plus d'informations, consultez la documentation.

Q : Comment se connecter à une instance EC2 Mac via VNC ?

macOS possède une fonctionnalité intégrée de partage d'écran qui est désactivée par défaut, mais qui peut être activée et utilisée pour se connecter à une session graphique (bureau) de votre instance EC2 Mac. Pour plus d'informations sur la manière d'activer le partage d'écran intégré, veuillez consulter la documentation.

Q : Comment se connecter à une instance EC2 Mac à l'aide du gestionnaire de session AWS Systems Manager ?

Vous pouvez vous connecter à vos instances EC2 Mac à l'aide du gestionnaire de sessions AWS Systems Manager (SSM). Session Manager est une fonction d'AWS Systems Manager entièrement gérée qui permet une gestion sécurisée et vérifiable des instances. Il supprime la nécessité de maintenir ouverts les ports entrants, de maintenir les hôtes de bastion ou de gérer les clés SSH. L'agent SSM est préinstallé par défaut sur toutes les AMI EC2 macOS. Pour plus d'informations, veuillez consulter ce blog.

Q : Combien de volumes Amazon EBS et d'interfaces réseau Elastic (ENI) sont pris en charge par les instances EC2 Mac ?

Les instances EC2 Mac basées sur x86 prennent en charge 16 volumes EBS et 8 pièces jointes ENI. Les instances EC2 Mac M1 prennent en charge jusqu'à 10 volumes EBS et 8 pièces jointes ENI.

Q : Les instances EC2 Mac prennent-elles en charge EBS ?

Les instances EC2 Mac sont optimisées pour EBS par défaut et offrent jusqu'à 8 Gbits/s de bande passante EBS dédiée aux volumes EBS chiffrés et non chiffrés.

Q : Les instances EC2 Mac prennent-elles en charge le démarrage à partir du stockage local ?

Les instances EC2 Mac ne peuvent démarrer qu'à partir d'AMI macOS sauvegardées dans EBS. Le SSD interne du Mac mini est présent dans Disk Utility, mais n'est pas démarrable.

Q : Les instances EC2 Mac prennent-elles en charge Amazon FSx ?

Oui. Les instances EC2 Mac prennent en charge FSx en utilisant le protocole SMB. Vous devrez inscrire l'instance EC2 Mac dans un service d'annuaire pris en charge (tel que Active Directory ou AWS Directory Service) pour activer FSx sur les instances EC2 Mac. Pour plus d'informations sur FSx, visitez la page du produit.

Q : Les instances EC2 Mac prennent-elles en charge Amazon Elastic File System (Amazon EFS) ?

Oui, les instances EC2 Mac prennent en charge l'EFS via le protocole NFSv4. Pour en savoir plus sur EFS, référez-vous à la page du produit.

Prise en charge de Nitro System pour la génération précédente

Q : Qu'est-ce que la prise en charge Nitro System pour les instances d'ancienne génération ?

AWS Nitro System fournira désormais ses composants matériels et logiciels modernes aux instances EC2 de génération précédente afin de prolonger la durée de service au-delà de la durée de vie typique du matériel sous-jacent. Grâce à la prise en charge Nitro System, les clients peuvent continuer à exécuter leurs charges de travail et leurs applications sur les familles d'instances sur lesquelles elles ont été construites.

Q : Quelles instances de la génération précédente bénéficieront de la prise en charge Nitro System et dans quel délai ?

Nous avons activé la prise en charge du système Nitro pour les instances Amazon EC2 C1, H1, M1, T1, D2, M2, T2, C3, I3, M3, R3, C4, M4 et R4. Les clients de ces instances recevront une notification de maintenance pour la migration vers Nitro System. Nous ajouterons la prise en charge de types d’instances supplémentaires en 2024.  

Q : Quelles mesures dois-je prendre pour migrer mes instances existantes de la génération précédente ?

Les clients ne doivent prendre aucune mesure pour migrer les instances actives de la génération précédente fonctionnant sur du matériel d'ancienne génération. Pour les instances utilisant du matériel d'ancienne génération, chaque ID de compte client associé à une ou plusieurs instances recevra une notification par courriel deux semaines avant la maintenance prévue.

Comme pour nos opérations de maintenance habituelles, les clients auront la possibilité de reprogrammer leur maintenance autant de fois que nécessaire dans un délai de deux semaines supplémentaires à compter de la date de maintenance initialement prévue.

Q : Que se passera-t-il si l'instance est arrêtée et démarrée avant ou pendant la période de maintenance planifiée ?

L'arrêt/le démarrage d'une instance pendant la période de maintenance planifiée migrera l'instance vers un nouvel hôte et l'instance n'aura pas à subir la maintenance planifiée. L'arrêt/démarrage peut entraîner la migration de l'instance client qui sera prise en charge par AWS Nitro System. Veuillez noter que les données des volumes locaux de l'instance ne seront pas conservées lorsque vous arrêtez et démarrez votre instance. Cliquez ici pour plus d'informations sur stop/start.

Q : Qu'arrivera-t-il à mon instance pendant cet événement de maintenance ?

Nous travaillerons en collaboration avec le client dans le cadre de notre processus de maintenance standard AWS. Plusieurs équipes AWS ont déjà migré et exécutent des instances de la génération précédente sur du matériel Nitro. Pendant la maintenance, l'instance sera redémarrée, ce qui peut prendre jusqu'à 30 minutes selon la taille et les attributs de l'instance. Par exemple : les instances avec un disque local prennent plus de temps à migrer que les instances sans disque local. Après le redémarrage, votre instance conserve son adresse IP, son nom DNS et toutes les données sur les volumes locaux du magasin d'instance.

Q : Dois-je reconstruire/recertifier les charges de travail pour qu'elles s'exécutent sur des instances de génération précédente migrées vers AWS Nitro System ?

Non, les clients n'ont pas besoin de reconstruire/recertifier les charges de travail sur les instances de génération précédente migrées vers AWS Nitro System.

Q : Les spécifications de mon instance seront-elles modifiées après la migration vers AWS Nitro System ?

Il n'y aura aucun changement dans les spécifications des instances de la génération précédente lorsque les instances seront migrées vers AWS Nitro System.

Q : Toutes les fonctionnalités et les AMI de mes instances de la génération précédente seront-elles prises en charge dans le cadre de cette migration ?

Oui, toutes les fonctionnalités et AMI existantes prises en charge sur les instances de la génération précédente seront prises en charge lors de la migration de ces instances vers AWS Nitro System. 

Q : Y aura-t-il des changements dans la tarification et la facturation lorsque les instances de la génération précédente seront migrées vers AWS Nitro System ?

Il n'y aura aucun changement dans la facturation et la tarification. Nous continuerons à prendre en charge les mêmes modèles de tarification que ceux que nous prenons en charge aujourd'hui pour les instances de la génération précédente (à la demande, Instance réservée 1 an/3 ans, Savings Plan, Spot).

 

Consultez d'autres ressources liées aux produits

Il existe de nombreuses ressources pouvant vous aider à apprendre comment créer avec Amazon EC2.

En savoir plus 
Créer gratuitement un compte

Obtenez un accès instantané à l'offre gratuite d'AWS. 

S'inscrire 
Commencer à créer sur la console

Commencez à créer avec Amazon EC2 dans la console de gestion AWS.

Mise en route