Questions fréquentes (FAQ) d'ordre général sur S3

Question : Qu'est-ce qu'Amazon S3 ?

Amazon S3 est une solution de stockage d'objets conçue pour stocker et récupérer n'importe quelle quantité de données, n'importe où. S3 est un service de stockage simple qui offre une durabilité, une disponibilité, des performances, une sécurité, et une capacité de mise à l'échelle de pointe pratiquement illimitée à un tarif très bas.

Q : Que puis-je faire avec Amazon S3 ?

Amazon S3 offre une interface simple de services Web à utiliser pour stocker et récupérer n'importe quelle quantité de données, à tout moment, depuis n'importe où. Grâce à ce service, vous pouvez facilement créer des applications utilisant le stockage cloud natif. Étant donné qu'Amazon S3 est hautement scalable et que vous payez uniquement pour ce que vous utilisez, vous pouvez démarrer modestement et développer votre application comme vous le souhaitez, sans compromettre ses performance ou sa fiabilité.

Amazon S3 est également conçu pour être extrêmement flexible. Stockez tous les types et quantités de données ; lisez les mêmes données un million de fois ou uniquement pour une reprise après sinistre d'urgence ; créez une application FTP simple ou une application web sophistiquée, comme le site Web marchand d'Amazon.com. Amazon S3 vous permet de vous concentrer sur l'innovation au lieu de passer du temps à chercher comment stocker vos données.

Q : Comment démarrer avec Amazon S3 ?

Pour vous inscrire à Amazon S3, accédez à la console S3. Vous devez posséder un compte Amazon Web Services pour accéder à ce service. Si vous n'avez pas encore de compte, vous serez invité à en créer un au début de la procédure d'inscription à Amazon S3. Après vous être inscrit, référez-vous à la documentation d'Amazon S3, aux guides de démarrage S3 et aux ressources supplémentaires dans le centre de ressources pour commencer à utiliser Amazon S3.

Q : Que puis-je faire avec Amazon S3 que je ne pourrais pas faire avec une solution sur site ?

Amazon S3 vous permet de profiter des avantages de la grande échelle d'Amazon sans recourir à des investissements massifs, ni compromettre les performances. Utilisez Amazon S3, une solution simple et peu coûteuse, pour garantir l'accès rapide, la disponibilité permanente et la sécurité de vos données.

Q : Quel genre de données puis-je stocker dans Amazon S3 ?

Vous pouvez stocker pratiquement n'importe quel type de données sous n'importe quel format. Référez-vous au Contrat de licence Amazon Web Services pour en savoir plus.

Q : Quelle quantité de données puis-je stocker dans Amazon S3 ?

Le volume total de données et le nombre d'objets que vous pouvez stocker dans Amazon S3 sont illimités. La taille des objets Amazon S3 individuels est comprise entre 0 octet (minimum) et 5 téraoctets (maximum). L'objet le plus grand que vous pouvez charger avec une seule commande PUT est de 5 Go. Pour les objets dont la taille est supérieure à 100 Mo, les clients doivent envisager d’utiliser la fonctionnalité de chargement partitionné.

Q : Qu’est-ce qu’un compartiment à usage général S3 ?

Un compartiment est un conteneur pour les objets stockés dans Amazon S3. Vous pouvez stocker autant d’objets que vous le souhaitez dans un compartiment. Les compartiments à usage général sont le type de compartiment S3 d'origine, et un seul compartiment à usage général peut contenir des objets stockés dans toutes les classes de stockage, à l'exception de S3 Express One Zone. Ils sont recommandés pour la plupart des cas d’utilisation et des modèles d’accès.

Q : Qu’est-ce qu’un compartiment de répertoires S3 ?

Un compartiment est un conteneur pour les objets stockés dans Amazon S3. Vous pouvez stocker autant d’objets que vous le souhaitez dans un compartiment. Les compartiments de répertoires S3 autorisent uniquement les objets stockés dans la classe de stockage S3 Express One Zone, ce qui permet un traitement plus rapide des données au sein d’une seule zone de disponibilité. Ils sont recommandés pour les cas d’utilisation à faible latence. Chaque compartiment de répertoires S3 peut prendre en charge des centaines de milliers de transactions par seconde (TPS), quel que soit le nombre de répertoires qu’il contient.

Q : Quelle est la différence entre un compartiment à usage général et un compartiment de répertoires ?

Un compartiment est un conteneur pour les objets stockés dans Amazon S3, et vous pouvez stocker autant d'objets que vous le souhaitez dans un compartiment. Les compartiments à usage général sont le type de compartiment S3 d'origine, et un seul compartiment à usage général peut contenir des objets stockés dans toutes les classes de stockage, à l'exception de S3 Express One Zone. Ils sont recommandés pour la plupart des cas d'utilisation et des modèles d'accès. Les compartiments de répertoires S3 autorisent uniquement les objets stockés dans la classe de stockage S3 Express One Zone, ce qui permet un traitement plus rapide des données au sein d'une seule zone de disponibilité. Ils sont recommandés pour les cas d’utilisation à faible latence. Chaque compartiment de répertoires S3 peut prendre en charge des centaines de milliers de transactions par seconde (TPS), quel que soit le nombre de répertoires qu’il contient.

Q : Que fait Amazon de mes données dans Amazon S3 ?

Amazon stocke vos données et vérifie l'utilisation qui en est faite à des fins de facturation. Amazon n'accédera pas à vos données à des fins autres que celles de l'offre Amazon S3, sauf si la loi l'exige. Référez-vous au Contrat de licence Amazon Web Services pour en savoir plus.

Q : Amazon stocke-t-il ses propres données dans Amazon S3 ?

Oui. Les organisations d'Amazon utilisent Amazon S3 pour divers types de projets. Un grand nombre de ces projets utilisent Amazon S3 en tant que magasin de données faisant autorité et s'y fient pour les opérations critiques.

Question : Comment sont organisées les données Amazon S3 ?

Amazon S3 est un magasin d'objets sur clé simple. Lorsque vous stockez des données, vous leur attribuez une clé d'objet unique qui peut ensuite être utilisée pour les récupérer. Les clés peuvent être une chaîne quelconque et structurées pour imiter les attributs hiérarchiques. Vous pouvez également utiliser S3 Object Tagging pour organiser vos données sur l'ensemble de vos compartiments et préfixes S3.

Question : Comment interagir avec Amazon S3 ?

Amazon S3 fournit une interface de services web simple de type REST reposant sur des normes, conçue pour fonctionner avec n'importe quelle boîte à outils de développement Internet. Les opérations sont volontairement simplifiées pour faciliter l'ajout de nouveaux protocoles de distribution et de couches fonctionnelles.

Q : Quel est le niveau de fiabilité d'Amazon S3 ?

Amazon S3 vous permet d'accéder à la même infrastructure de stockage de données hautement évolutive, hautement disponible, rapide, peu coûteuse qu'Amazon utilise pour faire fonctionner son propre réseau mondial de sites Web. La classe de stockage S3 Standard est conçue pour offrir 99,99 % de disponibilité, les classes de stockage S3 Standard-IA, S3 Intelligent-Tiering et S3 Glacier Instant Retrieval 99,9 % de disponibilité, la classe S3 Unizone-IA 99,5 % de disponibilité et les classes S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive sont conçues pour une disponibilité de 99,99 % et un SLA de 99,9 %. Toutes ces classes de stockage sont accompagnées du contrat de niveau de service (SLA) Amazon S3.

Q : Quelles sont les performances d'Amazon S3 si le trafic venant de mon application augmente soudainement ?

Amazon S3 est conçu à partir de zéro pour traiter le trafic de toute application Internet. Grâce à la tarification à l'usage et à une capacité illimitée, vos coûts progressifs ne changent pas et votre service n'est pas interrompu. La grande échelle d'Amazon S3 vous permet de répartir la charge uniformément, de sorte qu'aucune application individuelle ne soit affectée par les pics de trafic.

Question : Un contrat de niveau de service (SLA) est-il proposé par Amazon S3 ?

Oui. Le contrat de niveau de service Amazon S3 donne droit à un crédit de service si le pourcentage de disponibilité mensuelle d'un client est inférieur à notre engagement de service au cours de n'importe quel cycle de facturation.

Question : Quel est le modèle de cohérence pour Amazon S3 ?

Amazon S3 offre automatiquement une forte cohérence lecture après écriture, sans modification des performances ou de la disponibilité, sans sacrifier l'isolation régionale pour les applications et sans frais supplémentaires.

Après l'écriture réussie d'un nouvel objet ou le remplacement réussi d'un objet existant, toute demande de lecture ultérieure reçoit immédiatement la dernière version de l'objet. S3 fournit également une forte cohérence pour les opérations de liste. Par conséquent, après une écriture, vous pouvez immédiatement effectuer une liste des objets dans un compartiment avec toutes les modifications prises en compte.

Q : En quoi une forte cohérence lecture après écriture peut-elle m'être utile ?

Une forte cohérence lecture après écriture est utile lorsque vous devez immédiatement lire un objet après une écriture ; par exemple, lorsque vous effectuez souvent la lecture et le listage immédiatement après avoir écrit des objets. Les charges de travail de calcul haute performance bénéficient également du fait que lorsqu'un objet est écrasé, puis lu plusieurs fois simultanément, une forte cohérence lecture après écriture garantit que l'écriture la plus récente est lue sur toutes les lectures. Ces applications bénéficient automatiquement et immédiatement d'une forte cohérence lecture après écriture. La forte cohérence de S3 réduit également les coûts en éliminant le besoin d'une infrastructure supplémentaire pour fournir une cohérence forte.  

Régions AWS

Question : Où mes données sont-elles stockées ?

Lorsque vous créez votre compartiment Amazon S3, vous spécifiez une région AWS. Concernant les classes de stockage S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive, vos objets sont automatiquement stockés sur plusieurs appareils répartis sur un minimum de trois zones de disponibilité (AZ). Les zones de disponibilité sont physiquement séparées par une distance significative, c'est-à-dire plusieurs kilomètres, de toute autre zone de disponibilité, bien qu'elles se trouvent toutes à moins de 100 km les unes des autres. Les objets stockés dans une classe de stockage S3 Unizone-IA sont stockés de façon redondante dans une seule zone de disponibilité dans la région AWS de votre choix. Pour S3 sur Outposts, vos données sont stockées dans votre environnement Outpost sur site, à moins que vous ne choisissiez manuellement de les transférer vers une région AWS. Pour en savoir plus sur la disponibilité du service Amazon S3 par région AWS, référez-vous à la liste des services régionaux AWS.

Q : Qu'est-ce qu'une région AWS ?

Une région AWS est un emplacement physique dans le monde où sont regroupés les centres de données AWS.  Chaque groupe de centres de données logiques au sein d'une région est appelé zone de disponibilité (AZ). Chaque région AWS se compose d'au moins trois zones de disponibilité, isolées et physiquement séparées au sein d'une zone géographique. D'autres fournisseurs de services cloud définissent souvent une région comme un centre de données unique. Chez AWS, la multiplicité des zones de disponibilité des régions AWS est avantageuse pour les clients. Chaque zone de disponibilité dispose d'une alimentation, d'un refroidissement et d'une sécurité physique indépendants et est connectée au moyen des réseaux redondants à très faible latence.

Q : Qu'est-ce qu'une zone de disponibilité (AZ) AWS ?

Une zone de disponibilité (AZ) comprend un ou plusieurs centres de données à part entière dotés d'une alimentation redondante, d'une solution de mise en réseau et d'une connectivité au sein d'une région AWS. Les zones de disponibilité donnent aux clients la possibilité d'utiliser des applications de production et des bases de données plus disponibles, plus tolérantes aux pannes et plus évolutives que ce qui serait possible à partir d'un centre de données unique. Toutes les zones de disponibilité d'une même région AWS sont interconnectées avec un réseau à bande passante élevée et à faible temps de latence, sur une fibre métropolitaine dédiée entièrement redondante, fournissant un réseau à haut débit et à faible temps de latence entre les zones de disponibilité.

Les classes de stockage Amazon S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive répliquent les données sur un minimum de trois zones de disponibilité afin de les protéger en cas de perte de la totalité d'une zone de disponibilité. Cela est également valable pour les Régions où moins de trois zones de disponibilité sont publiquement disponibles. Il est possible d'accéder aux objets stockés dans ces classes de stockage depuis toutes les zones de disponibilité dans une région AWS.

La classe de stockage Amazon S3 Unizone-IA réplique les données dans une seule zone de disponibilité. Les données stockées dans S3 Unizone-IA ne résistent pas à la perte physique d'une zone de disponibilité liée à des catastrophes comme des tremblements de terre, des incendies et des inondations.

Q : Comment décider dans quelle région AWS stocker mes données ?

Plusieurs facteurs axés sur votre application particulière sont à prendre en compte. Vous pouvez vouloir stocker vos données dans une région qui est proche de vos clients, de vos centres de données ou de vos autres ressources AWS, afin de réduire les latences d'accès aux données. Vous pourriez également souhaiter stocker vos données dans une région éloignée de vos autres opérations à des fins de redondance géographique et de reprise après sinistre. Vous devez aussi prendre en compte les régions qui vous permettent de satisfaire à des exigences juridiques et règlementaires et/ou de réduire vos coûts de stockage. Vous pourriez par exemple choisir une région avec un tarif réduit afin de faire des économies. Pour plus d'informations sur la tarification S3, reportez-vous à la page de la tarification d'Amazon S3.

Q : Dans quelles parties du monde Amazon S3 est-il disponible ?

Amazon S3 est disponible dans les régions AWS sur l'ensemble du globe, et vous pouvez utiliser Amazon S3 où que vous vous trouviez. Tout ce que vous avez à faire, c'est choisir dans quelle(s) régions AWS vous souhaitez stocker vos données Amazon S3. Vous trouverez dans la liste des services régionaux AWS les régions AWS dans lesquelles S3 est actuellement disponible.

Facturation

Question : Combien coûte Amazon S3 ?

Avec Amazon S3, vous ne payez que les services que vous utilisez. Il n'y a aucun frais minimum. Vous pouvez estimer votre facture mensuelle à l'aide du Calculateur de prix AWS.

AWS facture moins lorsque nos coûts sont moindres. Certains prix peuvent varier en fonction des régions Amazon S3. Les montants facturés sont basés sur l'emplacement de votre compartiment S3. Il n'y a pas de frais de transfert de données à l'intérieur d'une région Amazon S3 au moyen d'une requête COPY. Les données transférées entre les régions AWS au moyen d'une requête COPY sont facturées aux tarifs indiqués sur la page de tarification Amazon S3. Il n'y a pas de frais pour les données transférées entre Amazon EC2 (ou tout autre service AWS) et Amazon S3 au sein de la même région, par exemple : des données transférées dans la région USA Est (Virginie du Nord). Cependant, les données transférées entre Amazon EC2 (ou tout autre service AWS) et Amazon S3 dans toutes les autres régions sont facturées conformément aux tarifs indiqués sur la page de tarification Amazon S3. Exemple : données transférées entre les régions Amazon EC2 USA Est (Virginie du Nord) et Amazon S3 USA Ouest (Californie du Nord). Les coûts de transfert de données sont facturés au propriétaire du compartiment source.

Pour connaître la tarification S3 sur Outposts, consultez la page de tarification Outposts.

Q : Comment mon utilisation d'Amazon S3 m'est-elle facturée ?

Aucuns frais d'installation ou engagement ne sont nécessaires pour commencer à utiliser Amazon S3. À la fin du mois, vous êtes automatiquement facturé en fonction de votre utilisation au cours du mois. Vous pouvez accéder à vos frais pour la période de facturation en cours à tout moment en vous connectant à votre compte Amazon Web Services et en sélectionnant le « Tableau de bord de facturation » associé à votre profil de console.

Avec l'offre gratuite AWS*, vous pouvez démarrer gratuitement avec Amazon S3 dans toutes les régions, à l'exception des régions AWS GovCloud. Après leur inscription, les nouveaux clients AWS bénéficient chaque mois pendant un an de 5 Go de stockage Amazon S3 Standard, de 20 000 requêtes Get, de 2 000 requêtes Put et de 100 Go de transfert de données sortantes (vers Internet, d'autres régions AWS ou Amazon CloudFront). L'utilisation mensuelle inutilisée n'est pas reportée sur le mois suivant.

Amazon S3 vous facture les types d'utilisation suivants. Notez que les calculs ci-dessous partent du principe qu'aucune offre gratuite d'AWS n'est en place.

Stockage utilisé :

La tarification de stockage Amazon S3 figure sur la page de tarification Amazon S3.

Le volume de stockage facturé en un mois est basé sur le stockage moyen utilisé pendant le mois. Ceci inclut toutes les données et métadonnées d'objet stockées dans des compartiments que vous avez créés dans votre compte AWS. Nous mesurons votre utilisation en « TimedStorage-ByteHrs », qui sont additionnées à la fin du mois pour générer vos factures mensuelles.

Exemple de stockage :

Supposons que vous stockiez 100 Go (107 374 182 400 octets) de données dans Amazon S3 Standard dans votre compartiment pendant les 15 premiers jours de mars, et 100 To (109 951 162 777 600 octets) de données dans Amazon S3 Standard pendant les 16 derniers jours du mois.

À la fin du mois de mars, vous obtiendriez l'utilisation suivante en octet-heure : utilisation octet-heure totale =[107 374 182 400 octets x 15 jours x (24 heures/jour)] +[109 951 162 777 600 octets x 16 jours x (24 heures/jour)] = 42 259 901 212 262 400 octets-heures. Calculez les heures sur la base du nombre réel de jours dans un mois donné. Dans notre exemple, nous utilisons le mois de mars qui compte 31 jours, soit 744 heures.

Convertissons ce résultat en Go/mois : 42 259 901 212 262 400 octet-heures / 1 073 741 824 octets par Go / 744 heures par mois = 52 900 Go/mois

Ce volume d'utilisation traverse deux niveaux de volume différents. En supposant que les données sont stockées dans la Région USA Est (Virginie du Nord), le coût de stockage mensuel est calculé comme suit : niveau 50 To : 51 200 Go x 0,023 USD = 1 177,60 USD ; niveau de 50 à 450 To : 1 700 Go x 0,022 USD = 37,40 USD

Total des coûts de stockage = 1 177,60 USD + 37,40 USD = 1 215,00 USD

Données réseau en transfert entrant :

La tarification des transferts de données entrants Amazon S3 figurent sur la page de tarification Amazon S3. Il s'agit de la quantité de données envoyées vers vos compartiments Amazon S3. 

Données réseau en transfert sortant :

La tarification des transferts de données sortantes Amazon S3 figurent sur la page de tarification Amazon S3. Pour Amazon S3, ces frais s'appliquent dès lors que les données figurant dans l'un de vos compartiments sont lues à partir d'un emplacement situé hors de la région Amazon S3 donnée.

Les niveaux de tarification des transferts de données sortantes prennent en compte votre utilisation totale des transferts de données sortantes depuis une région donnée vers Internet, sur Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS et Amazon VPC. Ces niveaux ne s'appliquent pas aux transferts de données sortantes d'Amazon S3 d'une région AWS et une autre.

Exemple de transfert de données sortantes :
Supposons que vous transférez 1 To de données hors d'Amazon S3, depuis la région USA Est (Virginie du Nord) vers Internet, et ce, tous les jours au cours d'un mois de 31 jours. Supposons que vous transférez aussi 1 To de données hors d'une instance Amazon EC2, depuis cette même région vers Internet, et ce, au cours du même mois de 31 jours.

Votre transfert de données cumulé serait de 62 To (31 To depuis Amazon S3 et 31 To depuis Amazon EC2). Ceci équivaut à 63 488 Go (62 To x 1024 Go/To).

Ce volume d'utilisation traverse trois niveaux de volume différents. En supposant que le transfert de données est réalisé dans la Région USA Est (Virginie du Nord), les frais mensuels de transfert sortant de données sont calculés comme suit :
Niveau 10 To : 10 239 Go (10 × 1 024 Go/To – 1 (gratuit)) x 0,09 USD = 921,51 USD
De 10 To à 50 To : 40 960 Go (40 × 1 024) x 0,085 USD = 3 481,60 USD
Niveau de 50 To à 150 To : 12 288 Go (reste) x 0,070 USD = 860,16 USD

Total des frais de transfert sortant de données = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Requêtes de données :

La tarification des requêtes Amazon S3 figure dans la page de tarification Amazon S3.

Exemple de demande :
Supposons que vous transfériez 10 000 fichiers vers Amazon S3 et transfériez 20 000 fichiers hors d'Amazon S3 tous les jours pendant le mois de mars. Ensuite, vous supprimez 5 000 fichiers le 31 mars.
Total de demandes PUT = 10 000 demandes x 31 jours = 310 000 demandes
Total de demandes GET = 20 000 demandes x 31 jours = 620 000 demandes
Total de requêtes DELETE = 5 000 x 1 jour = 5 000 requêtes

En supposant que votre compartiment se trouve dans la Région USA Est (Virginie du Nord), les frais de requêtes sont calculés comme suit :
310 000 requêtes PUT : 310 000 requêtes x 0,005 USD / 1 000 = 1,55 USD
620 000 demandes GET : 620 000 demandes x 0,004 USD /10 000 = 0,25 USD
5 000 demandes DELETE = 5 000 demandes x 0,00 USD (gratuit) = 0,00 USD

Extraction de données :

La tarification de la récupération de données Amazon S3 s’applique à toutes les classes de stockage, à l’exception de S3 Standard et S3 Intelligent-Tiering, et est résumée sur la page de tarification S3.

Exemple d’extraction de données :
En supposant que vous extrayez 300 Go en un mois de S3 Standard-IA, avec 100 Go transférés vers Internet, 100 Go transférés vers EC2 dans la même région AWS, et 100 Go transférés vers Amazon CloudFront dans la même région AWS.

Vos frais d'extraction de données pour le mois sont calculés de la manière suivante : 300 Go x 0,01 USD/Go = 3,00 USD. Notez que vous devez également régler les frais de transfert de données de réseau pour la portion de données qui a été transférée vers Internet.

* * Votre utilisation de l'offre gratuite est calculée chaque mois sur toutes les régions, excepté la région AWS GovCloud, et appliquée automatiquement à votre facture (l'utilisation mensuelle non utilisée n'est pas reportée). Certaines restrictions s'appliquent. Pour en savoir plus, consultez les conditions de l'offre.

Q : Pourquoi les prix varient-ils selon la région Amazon S3 que je choisis ?

AWS facture moins lorsque nos coûts sont moindres. Par exemple, nos coûts sont plus bas dans la région USA Est (Virginie du Nord) que dans la région USA Ouest (Californie du Nord).

Question : Comment mon utilisation de la gestion des versions m'est-elle facturée ?

Les tarifs Amazon S3 standard sont appliqués à chaque version d'un objet stocké ou demandé. Par exemple, examinons le scénario suivant pour illustrer les coûts de stockage lors de l'utilisation du contrôle de version (supposons que le mois en cours fasse 31 jours) :

1) Jour 1 du mois : vous effectuez un PUT de 4 Go (4 294 967 296 octets) sur votre compartiment.
2) Jour 16 du mois : vous effectuez une opération PUT de 5 Go (5 368 709 120 octets) dans le même compartiment en utilisant la même clé que l'opération PUT d'origine du Jour 1.

Lorsque les coûts de stockage des opérations ci-dessus sont analysés, notez que l'objet de 4 Go du Jour 1 n'est pas supprimé du compartiment lorsque l'objet de 5 Go est écrit le Jour 15. L'objet de 4 Go est plutôt préservé en tant qu'ancienne version et l'objet de 5 Go devient la version la plus récemment écrite de l'objet au sein de votre compartiment. A la fin du mois :

Utilisation totale (en octet-heure)
[4 294 967 296 octets x 31 jours x (24 heures / jour)] + [5 368 709 120 octets x 16 jours x (24 heures / jour)] = 5 257 039 970 304 octet-heures.

Conversion en Go total-mois
5 257 039 970 304 octets/heure x (1 Go / 1 073 741 824 octets) x (1 mois / 744 heures) = 6,581 Go/mois

Le coût est calculé sur la base des tarifs en vigueur pour votre région indiqués sur la page de tarification Amazon S3.

Q : Comment suis-je facturé en ce qui concerne l'accès à Amazon S3 au moyen de la Console de gestion AWS ?

La tarification normale d'Amazon S3 s'applique lors de l'accès au service par la console de gestion AWS. Pour une expérience optimisée, la console de gestion AWS peut exécuter les demandes de manière proactive. En outre, certaines opérations interactives génèrent plusieurs demandes vers le service.

Question : Dans le cas où un autre compte AWS accède à mes compartiments Amazon S3, comment suis-je facturé ?

L'accès à votre stockage via un autre compte AWS est facturé en fonction de la tarification normale d'Amazon S3. Vous pouvez également choisir de configurer votre compartiment avec un paiement par le demandeur. Dans ce cas, le demandeur assume le coût des demandes et des téléchargements pour vos données Amazon S3.

Pour en savoir plus sur la configuration de compartiments avec paiement par le demandeur, référez-vous à la documentation d'Amazon S3.

Q : Vos prix incluent-ils les taxes ?

Sauf indication contraire, nos prix n'incluent pas les taxes et redevances applicables, y compris la TVA et les taxes sur les ventes applicables. Pour les clients dont l'adresse de facturation est située au Japon, l'utilisation de services AWS est soumise à la taxe sur la consommation applicable dans ce pays.

En savoir plus sur les taxes sur les services AWS »

Q :  Aurai-je à payer des frais de transfert de données vers Internet lors du transfert de mes données hors d’AWS ?

AWS propose aux clients éligibles un transfert de données gratuit vers Internet lorsqu’ils transfèrent toutes leurs données hors d’AWS, conformément à la procédure ci-dessous.

Q : Je souhaite transférer mes données hors d’AWS. Comment puis-je demander un transfert de données gratuit vers Internet ?

Procédez comme suit :

1) Si vous disposez d’une équipe dédiée à votre compte AWS, contactez-la d’abord et informez-la de vos projets. Dans certains cas, si vous avez un engagement négocié avec AWS, vous souhaiterez discuter des options qui s’offrent à vous avec l’équipe responsable de votre compte AWS.

2) Passez en revue les critères et le processus décrits sur cette page.

3) Contactez le support client AWS et indiquez que votre demande concerne un « transfert de données gratuit pour quitter AWS ». Le support client AWS vous demandera de fournir des informations afin qu’il puisse revoir vos projets de transfert, déterminer si vous êtes éligible au transfert de données gratuit et calculer un montant de crédit approprié.

4) Si le support client AWS approuve votre transfert, vous recevrez un crédit temporaire pour le coût du transfert des données sortantes en fonction du volume de toutes les données que vous avez stockées dans les services AWS au moment du calcul par AWS. Le support client AWS vous informera si votre demande est approuvée, et vous aurez alors 60 jours pour terminer votre départ d’AWS. Le crédit ne sera pris en compte que pour l’utilisation du transfert de données sortantes et ne sera pas appliqué à l’utilisation d’autres services. Après avoir quitté les services AWS, dans le délai de 60 jours, vous devez supprimer toutes les données et charges de travail restantes de votre compte AWS. Sinon, vous pouvez fermer votre compte AWS.

Les transferts de données gratuits pour les prestataires informatiques en déplacement sont également soumis aux critères suivants :

a) Seuls les clients possédant un compte AWS actif et en règle peuvent bénéficier du transfert de données gratuit.

b) Si vous avez moins de 100 Go de données sur votre compte AWS, vous pouvez transférer ces données hors d’AWS gratuitement dans le cadre de l’offre gratuite existante d’AWS de 100 Go par mois pour les transferts de données sortantes. Les clients qui ont moins de 100 Go de données sur leur compte AWS ne sont pas éligibles à des crédits supplémentaires.

c) AWS vous fournira un transfert de données gratuit vers Internet lorsque vous transférerez toutes vos données hors d’AWS. Si vous souhaitez uniquement modifier votre utilisation totale d’un seul service, mais pas tout, contactez le support client AWS.

d) Si vos plans changent ou si vous ne pouvez pas terminer votre transfert hors d’AWS dans les 60 jours, vous devez en informer le support client AWS.

e) Les frais de service standard liés à l’utilisation des services AWS ne sont pas inclus. Seuls les frais de transfert de données liés à votre transfert hors d’AWS peuvent donner droit à des crédits. Toutefois, le transfert de données depuis des services de transfert de données spécialisés, tels qu’Amazon CloudFront, AWS Direct Connect, AWS Snowball et AWS Global Accelerator, n’est pas inclus.

f) AWS peut revoir votre utilisation des services afin de vérifier la conformité à ces exigences. Si nous déterminons que vous avez utilisé le transfert de données sortantes dans un but autre que celui de quitter AWS, nous pouvons vous facturer le transfert de données sortant crédité.

g) AWS peut apporter des modifications en ce qui concerne les transferts de données gratuits vers Internet à tout moment.

Q : Pourquoi dois-je demander l’approbation préalable d’AWS pour le transfert gratuit de données vers Internet avant de transférer mes données hors d’AWS ?

Les clients AWS effectuent des centaines de millions de transferts de données chaque jour, et nous ne connaissons généralement pas la raison de chaque transfert de données. Par exemple, les clients peuvent transférer des données à un utilisateur final de leur application, à un visiteur de leur site Web ou à un autre environnement cloud ou sur site à des fins de sauvegarde. Par conséquent, la seule façon de savoir si votre transfert de données est destiné à faciliter votre départ d’AWS est de nous en informer au préalable.

Amazon S3 et IPv6

Q : Qu'est-ce que l'IPv6 ?

Chaque serveur ou appareil connecté à Internet doit posséder une adresse unique. Internet Protocol version 4 (IPv4) est le nom du schéma d'adressage 32 bits d'origine. Cependant, la croissance ininterrompue de l'Internet signifie que toutes les adresses IPv4 disponibles finiront par être utilisées. Internet Protocol version 6 (IPv6) est un mécanisme d'adressage. Il vise à surmonter les limitations des adresses globales sur IPv4.

Q : Que puis-je faire avec IPv6 ?

Grâce à la prise en charge d'IPv6 pour Amazon S3, les applications peuvent se connecter à Amazon S3 sans passer par un logiciel ou système de traduction d'IPv6 vers IPv4. Vous pouvez répondre aux exigences de conformité et réaliser plus facilement l'intégration d'applications sur site basées sur IPv6 sans avoir à acheter des équipements réseau onéreux pour gérer la traduction des adresses. De plus, vous pouvez désormais utiliser les fonctionnalités actuelles de filtrage des adresses d'origine dans les stratégies IAM et les stratégies de compartiment avec les adresses IPv6. Vous disposez ainsi de nouvelles options pour protéger les applications interagissant avec Amazon S3.

Q : Comment commencer à utiliser IPv6 sur Amazon S3 ?

Pour commencer, pointez votre application sur le point de terminaison « dual-stack » (double pile) d'Amazon S3, qui prend en charge les accès par IPv4 et IPv6. Dans la plupart des cas, aucune configuration ultérieure n'est requise pour un accès par IPv6, car la plupart des clients réseau privilégient les adresses IPv6 par défaut. Si une application est affectée par l'utilisation d'IPv6, il est possible de revenir à tout moment aux points de terminaison standard compatibles IPv4 uniquement. IPv6 avec Amazon S3 est pris en charge dans toutes les régions AWS commerciales, y compris dans les régions AWS GovCloud (US), la région AWS Web Services Chine (Beijing) exploitée par Sinnet, et la région Amazon Web Services Chine (Ningxia) exploitée par NWCD. 

Q : Les performances d'Amazon S3 seront-elles différentes avec IPv6 ? 

Non. Vous obtiendrez les mêmes performances avec Amazon S3, que vous utilisiez IPv4 ou IPv6.

Notifications d'événements S3

Q : Que sont les notifications d'événements Amazon S3 ?

Vous pouvez utiliser la fonction de notification d'événements d'Amazon S3 pour recevoir des notifications lorsque certains événements se produisent dans votre compartiment S3, tels que les événements PUT, POST, COPY et DELETE. Vous pouvez publier des notifications dans Amazon EventBridge, Amazon SNS, Amazon SQS, ou directement dans AWS Lambda.

Q : Quelle est l'utilité d'Amazon S3 Event Notifications ?

Amazon S3 Event Notifications vous permet d'exécuter des flux, d'envoyer des alertes ou de réaliser d'autres actions en réponse aux modifications apportées à vos objets stockés dans S3. Vous pouvez utiliser S3 Event Notifications pour configurer des déclencheurs en vue de réaliser des actions telles que le transcodage de fichiers multimédias lorsqu'ils sont chargés, le traitement des fichiers de données lorsqu'ils sont disponibles, et la synchronisation d'objets S3 avec d'autres magasins de données. Vous pouvez également configurer des notifications d'événements en fonction des préfixes et suffixes de noms d'objet. Par exemple, vous pouvez choisir de recevoir des notifications pour les noms d'objet commençant par « images/ ».

Q : Que comprennent les notifications d'événements Amazon S3 ?

Pour obtenir une description détaillée des informations incluses dans les notifications d'événements Amazon S3, référez-vous à la documentation sur la configuration des notifications d'événements Amazon S3

Q : Comment puis-je configurer les messages de notification d'événements Amazon S3 ?

Pour obtenir une description détaillée de la configuration des notifications d'événements, référez-vous à la documentation sur la configuration des notifications d'événements Amazon S3. Pour en savoir plus sur les services de messagerie AWS, référez-vous à la documentation Amazon SNS et la documentation Amazon SQS.

Q : Combien coûte l'utilisation des notifications d'événements Amazon S3 ?

Les notifications d'événements depuis Amazon S3 n'entraînent pas de frais supplémentaires. Vous payez uniquement l'utilisation d'Amazon SNS ou d'Amazon SQS pour transmettre les notifications d'événements ou les frais d'exécution de la fonction AWS Lambda. Consultez les pages de tarification Amazon SNS, Amazon SQS ou AWS Lambda pour connaître les tarifs de ces services.

Amazon S3 Transfer Acceleration

Q : Qu'est-ce que S3 Transfer Acceleration ?

Amazon S3 Transfer Acceleration crée un transfert rapide, facile et sécurisé de fichiers sur de longues distances entre votre client et votre compartiment Amazon S3. S3 Transfer Acceleration utilise les emplacements périphériques AWS d'Amazon CloudFront distribués au niveau mondial. Lorsque les données arrivent dans un emplacement périphérique AWS, elles sont transférées vers votre compartiment Amazon S3 sur un chemin de réseau optimisé.

Q : Comment démarrer avec S3 Transfer Acceleration ?

Pour démarrer avec S3 Transfer Acceleration, activez S3 Transfer Acceleration sur un compartiment S3 en utilisant la console Amazon S3, les API Amazon S3 ou l'interface de ligne de commande AWS. Une fois S3 Transfer Acceleration activé, vous pouvez orienter vos demandes Amazon S3 PUT et GET vers le nom de domaine du point de terminaison s3-accelerate. Votre application de transfert de données doit utiliser l'un des deux types de points de terminaison suivants pour accéder au compartiment et accélérer le transfert de données : .s3-accelerate.amazonaws.com ou <.s3-accelerate.dualstack.amazonaws.com pour le point de terminaison « dual-stack ». Si vous souhaitez utiliser un transfert de données type, vous pouvez continuer à utiliser les points de terminaison habituels.

Il existe des restrictions quant aux compartiments pouvant prendre en charge S3 Transfer Acceleration. Pour en savoir plus, référez-vous à la documentation d'Amazon S3.

Q : Quelle est la vitesse de S3 Transfer Acceleration ?

S3 Transfer Acceleration vous permet d'utiliser pleinement votre bande passante, de réduire l'effet de la distance sur le débit. Par ailleurs, il a été conçu pour assurer un transfert de données constamment rapide vers Amazon S3, où que se trouve votre client. L'accélération dépend en premier lieu de la bande passante disponible, de la distance entre la source et la destination et des taux de perte de paquets sur le chemin réseau. En règle générale, vous constaterez davantage d'accélération si la source se trouve à une plus grande distance de la destination, s'il ne reste plus de bande passante disponible et/ou si la taille de l'objet est plus importante.

Un client a observé une réduction de 50 % du temps moyen d'ingestion de fichiers de 300 Mo envoyés depuis une base d'utilisateurs internationale s'étendant aux États-Unis, à l'Europe et à certaines parties de l'Asie, vers un compartiment dans la région Asie-Pacifique (Sydney). Un autre client a constaté que dans certains cas, la performance a dépassé 500 % pour les utilisateurs d'Asie du Sud-est et d'Australie, notamment avec la capacité de charger des fichiers de 250 Mo (en parties de 50 Mo) vers un compartiment S3 dans la région USA Est (Virginie du Nord).

Accédez à l'outil de comparaison de la vitesse de S3 Transfer Acceleration pour avoir un aperçu de l'avantage en termes de performance depuis votre emplacement.

Q : Qui doit utiliser S3 Transfer Acceleration ?

S3 Transfer Acceleration a été conçu pour optimiser la vitesse de transfert de données envoyées dans le monde entier vers des compartiments S3. Si vous chargez des données depuis différentes zones géographiques vers un compartiment centralisé. De même, si vous transférez régulièrement des Go ou To de données à travers les continents, vous pouvez économiser des heures, voire des journées de temps de transfert de données avec S3 Transfer Acceleration.

Q : Quel est le niveau de sécurité de S3 Transfer Acceleration ?

S3 Transfer Acceleration est tout aussi sécurisé que les transferts habituels vers Amazon S3. Toutes les fonctions de sécurité de Amazon S3, comme et notamment la restriction de l'accès en fonction de l'adresse IP d'un client, sont également prises en charge. S3 Transfer Acceleration communique avec les clients sur un TCP standard et ne demande pas de modification du pare-feu. Aucune donnée n'est enregistrée sur les emplacements périphériques AWS.

Q : Que se passe-t-il si S3 Transfer Acceleration n'est pas plus rapide qu'un transfert Amazon S3 normal ?

À chaque fois que vous utilisez S3 Transfer Acceleration pour charger un objet, nous vérifions si S3 Transfer Acceleration peut être plus rapide qu'un transfert Amazon S3 ordinaire. Si nous estimons que S3 Transfer Acceleration ne sera pas plus rapide que le transfert Amazon S3 ordinaire du même objet vers la même région de destination AWS, nous ne vous facturerons pas l'utilisation de S3 Transfer Acceleration pour ce transfert et contournerons le système S3 Transfer Acceleration pour ce chargement.

Question : Puis-je utiliser S3 Transfer Acceleration pour des chargements partitionnés ?

S3 Transfer Acceleration prend en charge toutes les fonctions au niveau du compartiment, notamment le chargement partitionné.

Q : Comment choisir entre S3 Transfer Acceleration et les commandes PUT/POST d'Amazon CloudFront ?

S3 Transfer Acceleration optimise le protocole TCP et ajoute davantage d'intelligence entre le client et le compartiment S3, ce qui fait de S3 Transfer Acceleration le choix judicieux si un débit plus élevé est nécessaire. Si vous avez des objets ou des données dont la taille est inférieure à 1 Go, pensez à utiliser les commandes PUT/POST d’Amazon CloudFront pour une performance optimale.

Q : S3 Transfer Acceleration peut-il être un complément d'AWS Direct Connect ?

AWS Direct Connect est un bon choix pour les clients qui ont des exigences de réseaux privés ou qui ont accès aux échanges AWS Direct Connect. S3 Transfer Acceleration convient mieux au transfert de données depuis des emplacements clients distribués par le biais de l'Internet public, ou lorsque des conditions de réseau variables affaiblissent le débit. Certains clients AWS Direct Connect utilisent S3 Transfer Acceleration pour les transferts vers les bureaux distants, et ces clients peuvent expérimenter une mauvaise performance d'Internet.

Q : S3 Transfer Acceleration peut-il être un complément d'AWS Storage Gateway ou d'une passerelle tierce ?

Vous pouvez tirer parti de la configuration de la destination du compartiment dans votre passerelle tierce de manière à utiliser un domaine de point de terminaison S3 Transfer Acceleration.

Pour en savoir plus sur l'implémentation AWS, visitez cette section Fichier des FAQ sur Storage Gateway.

Question : S3 Transfer Acceleration peut-il être un complément d'un logiciel intégré tierce ?

Oui. Les packages logiciels qui se connectent directement à Amazon S3 peuvent tirer profit de S3 Transfer Acceleration lorsqu'ils envoient leurs tâches vers Amazon S3.

En savoir plus sur les solutions des partenaires disposant de la compétence Stockage »

Q : Le service S3 Transfer Acceleration est-il éligible HIPAA ?

Oui. AWS a étendu son programme de conformité HIPAA et fait de S3 Transfer Acceleration un service éligible HIPAA. Si vous disposez d'un accord d'association commerciale (BAA) exécuté avec AWS, vous pouvez utiliser S3 Transfer Acceleration pour effectuer des transferts de fichiers rapides, simples et sécurisés, y compris des informations de santé protégées (PHI), sur de longues distances entre votre client et votre compartiment Amazon S3.

Sécurité

Question : Quelle est le degré de sécurité de mes données dans Amazon S3 ?    

Amazon S3 est sécurisé par défaut. À leur création, vous êtes la seule personne à pouvoir accéder aux compartiments Amazon S3 que vous créez, et vous disposez d'un contrôle total sur les personnes pouvant accéder à vos données. Amazon S3 prend en charge l'authentification des utilisateurs pour contrôler l'accès aux données. Vous pouvez utiliser les mécanismes de contrôle d'accès tels que les politiques de compartiment pour accorder sélectivement des autorisations aux utilisateurs et groupes d'utilisateurs. La console Amazon S3 met en évidence vos compartiments accessibles au public, indique la source d'accès publique et vous avertit si des modifications apportées à vos stratégies ou listes ACL de compartiment rendent votre compartiment accessible au public. Vous pouvez activer le blocage de l'accès public Amazon S3 pour tous les comptes et compartiments que vous ne souhaitez pas rendre accessibles au public. L'option Bloquer l'accès public est activée par défaut pour tous les nouveaux compartiments.

Vous pouvez charger/télécharger vos données en toute sécurité vers Amazon S3 par le biais des points de terminaison SSL utilisant le protocole HTTPS. Amazon S3 chiffrera automatiquement tous les téléchargements d'objets dans votre compartiment (dès le 5 janvier 2023). Vous pouvez également utiliser vos propres bibliothèques de chiffrement pour chiffrer des données avant de les stocker dans Amazon S3.

Pour en savoir plus sur la sécurité dans AWS, reportez-vous à la page de sécurité AWS. Pour des informations sur la sécurité relative à S3, visitez la page de sécurité de S3 et le guide des bonnes pratiques de sécurité de S3.

Question : Comment puis-je contrôler l'accès à mes données stockées sur Amazon S3 ?

Les utilisateurs peuvent utiliser un certain nombre de mécanismes pour contrôler l'accès aux ressources Amazon S3, dont les politiques de gestion des identités et des accès AWS (AWS IAM), les politiques de compartiment, les politiques de point d'accès, les listes de contrôle d'accès (ACL), l'authentification par chaîne d'interrogation, les politiques de point de terminaison Amazon Virtual Private Cloud (Amazon VPC), les politiques de contrôle des services (SCP) dans AWS Organizations et Amazon S3 Block Public Access.

IAM
IAM permet aux organisations comptant plusieurs employés de créer et de gérer plusieurs utilisateurs sous un seul compte AWS. Grâce aux politiques IAM, les clients peuvent accorder aux utilisateurs IAM un niveau précis de contrôle sur leur compartiment Amazon S3 ou sur les objets, tout en gardant un contrôle total sur tout ce que font les utilisateurs.

Politiques relatives aux compartiments et aux points d'accès
Avec les politiques de compartiment et de point d'accès, les clients peuvent définir des règles qui s'appliquent largement à toutes leurs demandes adressées à leurs ressources Amazon S3, par exemple accorder des privilèges d'écriture à un sous-ensemble de ressources Amazon S3. Les clients peuvent également restreindre l'accès sur la base d'un aspect de la demande, comme le référent HTTP et l'adresse IP.

Listes ACL
Amazon S3 prend en charge la méthode de contrôle d'accès originale de S3 et les listes de contrôle d'accès (ACL). Les listes de contrôle d'accès permettent aux clients d'accorder des permissions spécifiques (c'est-à-dire READ, WRITE, FULL_CONTROL) à des utilisateurs spécifiques pour un compartiment ou un objet individuel. Amazon S3 propose aux clients qui préfèrent utiliser exclusivement des politiques pour le contrôle d'accès la fonction S3 Object Ownership qui permet de désactiver les ACL. Vous pouvez utiliser S3 Inventory pour vérifier l'utilisation des ACL dans vos compartiments avant d'activer S3 Object Ownership lors de la migration vers des politiques de compartiments basées sur IAM.

Authentification par chaîne d'interrogation
L'authentification par chaîne d'interrogation permet aux clients de créer une URL vers un objet Amazon S3, qui est uniquement valide pendant une période limitée. Pour en savoir plus sur les diverses politiques de contrôle d'accès disponibles dans Amazon S3, référez-vous à la
documentation sur le contrôle d'accès.

Amazon VPC
Lorsque les clients créent un point de terminaison d'un VPC Amazon, ils peuvent y associer une politique de point de terminaison qui contrôle l'accès aux ressources Amazon S3 auxquelles ils sont connectés. Les clients peuvent également utiliser les politiques de compartiments Amazon S3 pour contrôler l'accès aux compartiments à partir de points de terminaison ou de VPC spécifiques.

Politiques de contrôle des services
Les politiques de contrôle des services (SCP) sont un type de politique AWS Organizations que les clients peuvent utiliser pour gérer les autorisations dans leur organisation. Les SCP offrent un contrôle central sur les autorisations maximales disponibles pour tous les comptes d'une organisation. Avec les SCP, les clients peuvent s'assurer que leurs comptes restent dans le cadre des directives de contrôle d'accès de leur organisation.

S3 Block Public Access
Le blocage de l'accès public Amazon S3 fournit des paramètres pour les points d'accès, les compartiments et les comptes, pour permettre aux clients de gérer l'accès public aux ressources Amazon S3. Avec S3 Block Public Access, les administrateurs de comptes et les propriétaires de compartiments peuvent facilement configurer des contrôles centralisés pour limiter l'accès public à leurs ressources Amazon S3 qui sont appliquées, quelle que soit la manière dont les ressources sont créées. L'option Bloquer l'accès public est activée par défaut pour tous les nouveaux compartiments, conformément aux meilleures pratiques de sécurité.

En savoir plus sur les politiques et les autorisations dans la documentation AWS IAM.

Question : Amazon S3 prend-il en charge l'audit des accès aux données ?

Oui, les clients peuvent configurer les compartiments Amazon S3 pour créer des enregistrements de journal d'accès pour toutes les demandes qui leur sont adressées. Les clients qui ont besoin de récupérer les informations IAM/d'identité utilisateur dans leurs fichiers journaux peuvent configurer les événements de données AWS CloudTrail.

Ces registres de journal d'accès peuvent être utilisés à des fins d'audit et contiennent des détails relatifs à la requête, tels que son type, les ressources qui y sont spécifiées, ainsi que l'heure et la date auxquelles elle a été traitée.

Q : De quelles options est-ce que je dispose pour chiffrer mes données stockées sur Amazon S3 ?

Amazon S3 chiffre tous les nouveaux téléchargements de données vers n'importe quel compartiment. Amazon S3 appliquera le chiffrement côté serveur géré par S3 (SSE-S3) comme niveau de base de chiffrement à tous les téléchargements d'objets (dès le 5 janvier 2023). SSE-S3 vous fournit une solution entièrement intégrée où Amazon prend en charge la gestion et la protection de vos clés à l'aide de multiples couches de sécurité. Nous vous conseillons de continuer à utiliser SSE-S3 si vous préférez qu'Amazon gère vos clés. De plus, Vous pouvez choisir de chiffrer vos données à l'aide de SSE-C, SSE-KMS, DSSE-KMS, ou d'une bibliothèque client telle que le Client de chiffrement Amazon S3 Chaque solution vous permet de stocker des données sensibles chiffrées au repos sur Amazon S3.

SSE-C permet à Amazon S3 d'effectuer le chiffrement et le déchiffrement des objets, tout en vous laissant le contrôle des clés de chiffrement. Avec SSE-C, vous n'avez pas à implémenter ni à utiliser une bibliothèque de chiffrement côté client pour effectuer le chiffrement et le déchiffrement de vos objets stockés dans Amazon S3. Cependant, vous devez gérer les clés que vous avez transmises à Amazon S3 pour chiffrer et déchiffrer les objets. Utilisez SSE-C si vous souhaitez gérer vos propres clés de chiffrement, mais ne souhaitez pas implémenter ou utiliser une bibliothèque de chiffrement côté client.

SSE-KMS permet à AWS Key Management Service (AWS KMS) de gérer vos clés de chiffrement. Utiliser AWS KMS pour la gestion de vos clés présente plusieurs avantages supplémentaires. Avec AWS KMS, il existe plusieurs autorisations distinctes pour l'utilisation de la clé KMS, fournissant ainsi un niveau de contrôle supplémentaire et une protection contre les accès non autorisés à vos objets stockés dans Amazon S3. AWS KMS fournit un journal d'activité d'audit de sorte que vous puissiez voir qui a utilisé votre clé pour accéder à tel objet à tel moment, et consulter les tentatives d'accès non autorisées aux données des utilisateurs en vue de les déchiffrer. AWS KMS offre également des contrôles de sécurité supplémentaires afin de soutenir les efforts des clients pour se conformer aux exigences du secteur PCI-DSS, HIPAA/HITECH et FedRAMP.

Le DSSE-KMS simplifie le processus d'application de deux couches de chiffrement à vos données, sans avoir à investir dans l'infrastructure requise pour le chiffrement côté client. Chaque couche de chiffrement utilise une implémentation différente de l'algorithme AES-GCM (Advanced Encryption Standard with Galois Counter Mode) 256 bits et est approuvée et acceptée pour une utilisation sur des charges de travail top secrètes. DSSE-KMS utilise AWS KMS pour générer des clés de données et permet à AWS KMS de gérer vos clés de chiffrement. Avec AWS KMS, il existe plusieurs autorisations distinctes pour l'utilisation de la clé KMS, fournissant ainsi un niveau de contrôle supplémentaire et une protection contre les accès non autorisés à vos objets stockés dans Amazon S3. AWS KMS fournit un journal d'activité d'audit de sorte que vous puissiez voir qui a utilisé votre clé pour accéder à tel objet à tel moment, et consulter les tentatives d'accès non autorisées aux données des utilisateurs en vue de les déchiffrer. AWS KMS offre également des contrôles de sécurité supplémentaires afin de soutenir les efforts des clients pour se conformer aux exigences du secteur PCI-DSS, HIPAA/HITECH et FedRAMP.

En utilisant une bibliothèque client de chiffrement vous gardez le contrôle des clés et chiffrez/déchiffré les objets côté client à l’aide de la bibliothèque de choix de votre choix. Certains clients préfèrent garder le contrôle total du chiffrement et du déchiffrement de leurs objets. De cette manière, seuls les objets cryptés sont transférés via Internet vers Amazon S3. Utilisez une bibliothèque de chiffrement côté client dans les cas suivants : vous souhaitez garder le contrôle de vos clés de chiffrement, vous êtes en mesure d'implémenter et d'utiliser une bibliothèque de chiffrement côté client et avez besoin de chiffrer vos objets avant qu'ils soient transférés à Amazon S3 pour être stockés.

Pour en savoir plus sur l'utilisation d'Amazon S3 SSE-S3, SSE-C ou SSE-KMS, référez-vous à la documentation sur la protection des données par chiffrement.

Q : Puis-je respecter les règles de confidentialité des données européenne si j'utilise Amazon S3 ?

Les clients peuvent choisir de stocker toutes les données en Europe en utilisant la région Europe (Francfort), Europe (Irlande), Europe (Paris), Europe (Stockholm), Europe (Milan), Europe (Espagne), Europe (Londres) ou Europe (Zurich). Vous pouvez également utiliser Amazon S3 on Outposts afin de conserver toutes vos données sur site dans AWS Outpost. Vous pouvez éventuellement transférer les données entre les AWS Outposts ou vers une région AWS. Toutefois, vous êtes tenu de respecter les lois européennes relatives au respect de la vie privée. Reportez-vous au Centre AWS sur le règlement général sur la protection des données (RGPD) et au Centre AWS sur la confidentialité des données pour en savoir plus. Si vous avez des exigences de localisation plus spécifiques, ou que d'autres réglementations des données à caractère personnel exigent que vous conserviez les données à un emplacement ne comportant pas de région AWS, vous pouvez utiliser S3 sur Outposts.

Q : Qu'est-ce qu'un point de terminaison d'un VPC Amazon pour Amazon S3 ?

Un point de terminaison d'un VPC Amazon pour Amazon S3 est une entité logique dans un VPC qui autorise la connectivité à S3 au moyen du réseau mondial AWS. Il existe deux types de points de terminaison d'un VPC pour S3 : les points de terminaison d'un VPC de passerelle et les points de terminaison d'un VPC d'interface. Les points de terminaison de passerelle sont une passerelle que vous spécifiez dans votre table de routage pour accéder à S3 à partir de votre VPC au moyen du réseau AWS. Les points de terminaison d'interface étendent la fonctionnalité des points de terminaison de passerelle en utilisant des IP privées pour acheminer les demandes vers S3 à partir de votre VPC, sur site ou à partir d'une autre région AWS. Pour en savoir plus, référez-vous à la documentation d'AWS PrivateLink for Amazon S3.

Q : Puis-je autoriser un point de terminaison d'un VPC Amazon spécifique à accéder à mon compartiment Amazon S3 ?

Vous pouvez limiter l'accès à votre compartiment depuis un point de terminaison Amazon VPC spécifique ou un ensemble des points de terminaison à l'aide des stratégies de compartiment Amazon S3. Les stratégies de compartiment S3 prennent désormais en charge une condition, aws:sourceVpce, que vous pouvez utiliser pour restreindre l'accès. Pour en savoir plus et obtenir des exemples de politiques, lisez la documentation sur les points de terminaison de la passerelle pour S3

Q : Qu'est-ce qu'AWS PrivateLink for Amazon S3 ?

AWS PrivateLink for S3 offre une connectivité privée entre Amazon S3 et les instances sur site. Vous pouvez provisionner des points de terminaison d'un VPC d'interface pour S3 dans votre VPC, afin de connecter vos applications sur site directement à S3, avec AWS Direct Connect ou AWS VPN. Plus besoin d'utiliser des IP publiques, de modifier les règles de pare-feu ou de configurer une passerelle Internet pour accéder à S3 à partir d'un environnement sur site. Pour en savoir plus, référez-vous à la documentation relative à AWS PrivateLink for S3.

Q : Comment puis-je démarrer avec les points de terminaison d'un VPC d'interface pour S3 ?

Vous pouvez créer un point de terminaison d'un VPC d'interface à l'aide de la console AWS, de l'interface de la ligne de commande AWS (AWS CLI), du kit SDK AWS ou de l'API. Pour en savoir plus, référez-vous à la documentation.

Q : Quand devrais-je choisir des points de terminaison d'un VPC de passerelle plutôt que des points de terminaison d'un VPC d'interface basés sur AWS PrivateLink ?

AWS recommande d'utiliser des points de terminaison d'un VPC d'interface pour accéder à S3 depuis les environnements sur site ou un VPC dans une autre région AWS. Pour les ressources accédant à S3 depuis un VPC dans la même région AWS que S3, nous recommandons l'utilisation des points de terminaison d'un VPC de passerelle, car ils ne sont pas facturés. Pour en savoir plus, référez-vous à la documentation.

Question : Puis-je utiliser à la fois les points de terminaison d'interface et de passerelle pour S3 dans le même VPC ?

Oui. Si vous disposez d'un point de terminaison d'un VPC de passerelle, créez un point de terminaison d'un VPC d'interface et mettez à jour vos applications clients avec les noms de point de terminaison spécifiques aux points de terminaison d'un VPC. Par exemple, si votre identifiant de point de terminaison d'un VPC de point de terminaison d'interface est vpce-0fe5b17a0707d6abc-29p5708s dans la région us-east-1, alors, votre nom DNS spécifique au point de terminaison sera vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. Dans ce cas, seules les demandes aux noms spécifiques de point de terminaison d'un VPC seront acheminées par les points de terminaison d'un VPC vers S3, tandis que les autres demandes continueront d'être acheminées par le point de terminaison d'un VPC de passerelle. Pour en savoir plus, référez-vous à la documentation.

Q : Qu'est-ce qu'Amazon Macie et comment l'utiliser pour sécuriser mes données ?

Amazon Macie est un service de sécurité basé sur l'IA qui vous permet d'éviter toute perte de données en identifiant, répertoriant et protégeant automatiquement les données sensibles stockées dans Amazon S3. Amazon Macie utilise le machine learning pour reconnaître les données sensibles comme les données d'identification personnelle (PII) ou la propriété intellectuelle. Le service attribue une valeur commerciale à ces données et fournit une visibilité sur leur emplacement de stockage et la façon dont elles sont exploitées dans votre organisation. Amazon Macie contrôle en permanence l'activité liée à l'accès aux données et génère des alertes lorsqu'il détecte un risque d'accès non autorisé ou des fuites accidentelle de données.

Grâce à Amazon Macie, vous pouvez vous protéger contre les menaces de sécurité par le biais d'une surveillance continue de vos données et de vos informations d'identification de compte. Amazon Macie est un outil automatisé requérant peu d'interventions et permettant de rechercher et classer vos données métier. Ce service vous permet de contrôler, par l'intermédiaire de fonctions Lambda modélisées, la révocation d'accès ou le déclenchement de stratégies de réinitialisation de mot de passe en cas de détection de comportement suspect ou d'accès non autorisé aux données à des entités ou des applications tierces. Lorsqu'une alerte est générée, vous pouvez utiliser Amazon Macie pour répondre à l'incident et Amazon CloudWatch Events pour prendre rapidement les mesures de protection de vos données. Pour en savoir plus, référez-vous à la documentation Amazon Macie.

Qu'est-ce qu'IAM Access Analyzer for Amazon S3 et comment fonctionne le service ?

Access Analyzer for S3 est une fonction qui vous permet de simplifier la gestion des autorisations lorsque vous définissez, vérifiez et affinez les politiques de vos compartiments et points d'accès S3. Access Analyzer for S3 contrôle vos politiques d'accès existantes pour vérifier qu'elles fournissent uniquement l'accès requis à vos ressources S3. Access Analyzer for S3 évalue vos politiques d'accès aux compartiments et vous permet de découvrir et d'apporter rapidement des modifications aux compartiments qui ne nécessitent pas d'accès.

Access Analyzer for S3 vous prévient si l'un de vos compartiments est configuré de manière à autoriser l'accès à n'importe quel utilisateur sur Internet, ou s'il est partagé avec d'autres comptes AWS. Vous recevez des découvertes portant sur la source et le niveau des accès public ou partagé. Par exemple, Access Analyzer for S3 vous informe directement si des accès en lecture ou en écriture non requis ont été accordés par accident dans le cadre d'une liste de contrôle d'accès ou d'une stratégie de compartiment. Grâce à ces découvertes, vous pouvez définir ou restaurer immédiatement la stratégie d'accès requis.

Lorsque vous recevez des résultats montrant des accès potentiellement partagés à un compartiment, vous pouvez bloquer les accès publics au compartiment en un seul clic dans la console S3. Vous pouvez également aller plus loin en configurant des niveaux d'accès granulaires dans les paramètres des niveaux d'autorisation des compartiments. À des fins d'audit, vous pouvez télécharger les découvertes d'Access Analyzer for S3 sous forme de rapport CSV. 

De plus, la console S3 signale les avertissements de sécurité, les erreurs et les suggestions de l'analyseur d'accès IAM lors de la création de vos stratégies S3. La console exécute automatiquement plus de 100 contrôles de stratégie pour valider vos stratégies. Ces contrôles vous font gagner du temps, vous guident pour résoudre les erreurs et vous aident à appliquer les meilleures pratiques de sécurité.

Pour en savoir plus, reportez-vous à la documentation IAM Access Analyzer.

S3 Access Grants

Q : Qu’est-ce qu’Amazon S3 Access Grants ?

Amazon S3 Access Grants mappe les identités figurant dans des répertoires, comme Active Directory ou les principaux AWS Identity and Access Management (IAM), à des jeux de données dans S3. Vous pouvez ainsi gérer à grande échelle les autorisations relatives aux données en accordant automatiquement l’accès à S3 aux utilisateurs finaux en fonction de leur identité d’entreprise. De plus, S3 Access Grants enregistre l'identité de l'utilisateur final et l'application utilisée pour accéder aux données S3 dans AWS CloudTrail. Cela permet de fournir un historique d’audit détaillé incluant jusqu’à l’identité de l’utilisateur final pour tous les accès aux données de vos compartiments S3.

Q : Pourquoi utiliser S3 Access Grants ?

S3 Access Grants est particulièrement utile si vos données S3 sont partagées et consultées par de nombreux utilisateurs et applications, dont certaines identités figurent dans votre répertoire d’entreprise (comme Okta ou Entra ID), et que vous avez besoin d’un moyen évolutif, simple et sur lequel vous pouvez effectuez des audits pour autoriser à grande échelle l’accès à ces jeux de données S3.

Q : Comment démarrer avec S3 Access Grants ?

Vous pouvez commencer à utiliser S3 Access Grants en quatre étapes. Tout d'abord, configurez une instance S3 Access Grants. Au cours de cette étape, si vous souhaitez utiliser S3 Access Grants avec des utilisateurs et des groupes de votre répertoire d’entreprise, activez AWS Identity Center et connectez S3 Access Grants à votre instance Identity Center. Ensuite, enregistrez l’emplacement auprès de S3 Access Grants. Au cours de ce processus, vous attribuez à S3 Access Grants un rôle IAM qui est utilisé pour créer des informations d’identification S3 temporaires que les utilisateurs et les applications peuvent utiliser pour accéder à S3. Troisièmement, définissez des autorisations qui spécifient qui peut accéder à telle ou telle ressource. Enfin, au moment de l’accès, faites en sorte que votre application demande des informations d’identification temporaires à S3 Access Grants et utilise des informations d’identification distribuées par Access Grants pour accéder à S3.

Q : Quels types d’identité sont pris en charge pour les autorisations S3 Access Grants ?

S3 Access Grants prend en charge deux types d’identités : les identités d’utilisateur d’entreprise ou de groupe issues d’AWS Identity Center, et les principaux AWS IAM (notamment les utilisateurs et les rôles IAM). Lorsque vous utilisez S3 Access Grants avec AWS Identity Center, vous pouvez définir les autorisations relatives aux données en fonction de l’appartenance à un groupe de répertoires. AWS Identity Center est un service AWS qui se connecte aux fournisseurs d’identité les plus utilisés, notamment Entra ID, Okta et Ping. En plus de prendre en charge les identités de répertoire via AWS Identity Center, S3 Access Grants prend également en charge les règles d’autorisation pour les principaux AWS IAM (notamment les utilisateurs et les rôles IAM). Cela concerne les cas d’utilisation dans lesquels vous gérez une fédération d’identité personnalisée, non pas via AWS Identity Center mais via des assertions IAM et SAML (exemple d’implémentation), ou gérez les identités des applications en fonction des principaux IAM, et que vous souhaitez utiliser S3 Access Grants en raison de sa capacité de mise à l’échelle et de la facilité d’effectuer des audits.

Q : Quels sont les différents niveaux d’accès proposés par S3 Access Grants ?

S3 Access Grants propose trois niveaux d’accès : LECTURE, ÉCRITURE et LECTURE-ÉCRITURE. Le niveau LECTURE vous permet de visualiser et de récupérer des objets depuis S3. Le niveau ÉCRITURE vous permet d'écrire et de supprimer dans S3. Le niveau LECTURE-ÉCRITURE vous permet d'effectuer à la fois des opérations de lecture et d'écriture.

Q : Puis-je personnaliser mes niveaux d'accès ?

Non. Vous ne pouvez utiliser que les trois niveaux d'accès prédéfinis (LECTURE/ÉCRITURE/LECTURE-ÉCRITURE) proposés par S3 Access Grants.

Q : Les autorisations d'accès S3 Access Grants sont-elles limitées ?

Oui. Vous pouvez créer jusqu’à 100 000 autorisations et 1 000 emplacements par instance S3 Access Grants.

Q : Y a-t-il un impact sur les performances de l’accès aux données lorsque j’utilise S3 Access Grants ?

Non. La latence pour obtenir des informations d'identification temporaires auprès de S3 Access Grants est similaire à celle de l'obtention d'informations d'identification temporaires auprès d'AWS STS aujourd'hui. Après avoir obtenu les informations d’identification auprès de S3 Access Grants, vous pouvez réutiliser les informations d’identification qui n’ont pas encore expiré pour les demandes suivantes. Dans ce cas, il n’y a aucune latence supplémentaire pour les demandes authentifiées via les informations d’identification S3 Access Grants par rapport à d’autres méthodes.

Q : Quels sont les autres services AWS nécessaires pour utiliser S3 Access Grants ?

Si vous avez l'intention d'utiliser S3 Access Grants pour les identités d'annuaires, vous devez d'abord configurer AWS IAM Identity Center. AWS IAM Identity Center vous aide à créer ou à connecter les identités de vos collaborateurs, que celles-ci soient créées et stockées dans Identity Center ou auprès d’un fournisseur d’identité tiers externe. Reportez-vous à la documentation d’Identity Center pour en savoir plus sur le processus de configuration. Après avoir configuré l’instance Identity Center, vous pouvez la connecter à S3 Access Grants. Par la suite, S3 Access Grants s'appuie sur Identity Center pour récupérer les attributs des utilisateurs tels que l'appartenance à un groupe afin d'évaluer les demandes et de prendre des décisions d'autorisation.

Q : Est-ce que S3 Access Grants nécessite des modifications côté client ?

Oui. Alors qu’actuellement, vous initialisez votre client S3 avec des informations d’identification IAM associées à votre application (par exemple, des informations d’identification de rôle IAM pour Rôles Anywhere IAM ou EC2, ou en utilisant des informations d’identification d’utilisateur IAM à long terme), votre application devra d’abord obtenir des informations d’identification S3 Access Grants avant d’initialiser le client S3. Ces informations d’identification S3 Access Grants seront spécifiques à l’utilisateur authentifié dans votre application. Une fois que le client S3 est initialisé avec ces informations d’identification S3 Access Grants, il les utilise pour effectuer des demandes de données S3 de manière habituelle.

Q : Étant donné que des modifications côté client sont nécessaires, quels sont les services AWS et les applications tierces intégrés à S3 Access Grants prêts à l’emploi dès aujourd’hui ?

Aujourd'hui, S3 Access Grants s'intègre déjà à EMR et à Spark open source via le connecteur S3A. De plus, S3 Access Grants s’intègre à des logiciels tiers tels qu’Immuta et Informatica afin que vous puissiez centraliser la gestion des autorisations. Enfin, S3 Access Grants prend en charge Terraform et CloudFormation pour que vous puissiez programmer le provisionnement de S3 Access Grants.

Q : S3 Access Grants constitue-t-il une solution de remplacement d’AWS IAM ?

Non, S3 Access Grants ne remplace pas IAM et fonctionne parfaitement avec vos stratégies existantes de protection des données basées sur IAM (chiffrement, réseau, règles de périmètre des données). S3 Access Grants repose sur des primitives IAM et vous permet d’établir des autorisations S3 plus précises à grande échelle.

Q : Est-ce que S3 Access Grants fonctionne avec KMS ?

Oui. Afin d’utiliser S3 Access Grants pour les objets chiffrés avec KMS, les propriétaires de compartiments incluent les autorisations KMS nécessaires dans le rôle IAM qu’ils accordent à S3 Access Grants dans le cadre de l’enregistrement de l’emplacement. S3 Access Grants peut ensuite utiliser ce rôle IAM pour accéder aux objets chiffrés par KMS dans les compartiments.

Q : Comment consulter et gérer mes autorisations S3 Access Grants ?

Pour consulter et gérer vos autorisations S3 Access Grants, vous pouvez utiliser la console S3 Access Grants dans la Console de gestion AWS, ou les API d’interface de ligne de commande et de kit SDK.

Q : Est-il possible d’accorder un accès public aux données avec S3 Access Grants ?

Non, vous ne pouvez pas accorder un accès public aux données avec S3 Access Grants.

Q : Comment puis-je auditer les demandes déjà autorisées via S3 Access Grants ?

La demande d'ouverture de session d'accès aux données avec S3 Access Grants, demande effectuée par l'application, sera enregistrée dans CloudTrail. CloudTrail fera la distinction entre l'identité de l'utilisateur qui fait la demande et l'identité de l'application qui accède aux données pour le compte de l'utilisateur. Cela vous permet de vérifier l'identité de l'utilisateur final pour savoir qui a accédé à telle ou telle donnée et à quel moment.

Q : Quel est le mode de tarification de S3 Access Grants ?

S3 Access Grants est facturé en fonction du nombre de demandes adressées à S3 Access Grants. Pour plus de détails, consultez la page de tarification.

Q : Quelle est la relation entre S3 Access Grants et Lake Formation ?

AWS Lake Formation est destiné aux cas d’utilisation où vous devez gérer l’accès à des données tabulaires (par exemple, les tables Glue) et pouvoir imposer un accès au niveau des lignes et des colonnes. S3 Access Grants permet de gérer l’accès pour les autorisations S3 directes, telles que les données non structurées (vidéos, images, journaux, etc.).

Q : Est-ce que S3 Access Grants est intégré à IAM Access Analyzer ?

Non. S3 Access Grants n'est pas intégré à IAM Access Analyzer pour le moment. Pour le moment, vous ne pouvez pas utiliser IAM Access Analyzer pour analyser les autorisations accordées par S3 Access Grants. Les clients peuvent effectuer des audits de S3 Access Grants directement en accédant à la page S3 Access Grants de la console S3 ou par programmation à l’aide de l’API ListAccessGrants.

Points d’accès S3

Question : Qu'est-ce que les points d'accès Amazon S3 ?

Aujourd'hui, les clients gèrent l'accès à leurs compartiments S3 à l'aide d'une stratégie de compartiment unique qui contrôle l'accès de centaines d'applications avec différents niveaux d'autorisation.

Les points d'accès Amazon S3 simplifient la gestion globale de l'accès aux données pour les applications en utilisant des jeux de données partagés sur S3. Grâce aux points d'accès S3, vous pouvez désormais facilement créer des centaines de points d'accès par compartiment et bénéficier ainsi d'une nouvelle manière de fournir un accès à des jeux de données partagées. Les points d'accès fournissent un chemin d'accès personnalisé à un compartiment, avec un nom d'hôte unique et une stratégie d'accès qui met en œuvre les autorisations spécifiques et les contrôles de réseau pour toute demande effectuée par le point d'accès. Les points d'accès S3 peuvent être associés à des compartiments du même compte ou d'un autre compte de confiance. Pour en savoir plus, consultez la page Points d'accès S3 et le guide de l'utilisateur.

Question : Quel est l'intérêt d'utiliser un point d'accès ?

Les points d'accès S3 simplifient la gestion de l'accès à vos jeux de données partagés sur S3. Vous ne devez plus gérer une stratégie de compartiment unique et complexe avec des centaines de règles d'autorisation différentes qu'il faut écrire, lire, suivre et auditer. Grâce aux points d'accès S3, vous pouvez créer des points d'accès ou déléguer des autorisations à des comptes de confiance pour créer des points d'accès intercompte dans votre compartiment. Cela permet d'accéder à des jeux de données partagés avec des stratégies adaptées à l'application spécifique.

Grâce aux points d'accès, vous pouvez décomposer la stratégie générale d'un compartiment en plusieurs stratégies de point d'accès séparées pour chaque application qui doit accéder au jeu de données partagé. Cela permet de se concentrer sur la définition de la stratégie d'accès correcte pour une application, sans devoir se préoccuper du risque de perturber ce qu'une autre application fait dans l'ensemble de données partagé. Vous pouvez aussi créer une stratégie de contrôle de service (SCP) et exiger que tous les points d'accès soient limités à un VPC (Virtual Private Cloud), créant ainsi un pare-feu pour vos données au sein de vos réseaux privés. 

Question : Comment fonctionnent les points d'accès S3 ?

Chaque point d'accès S3 est configuré avec une stratégie d'accès spécifique à un cas d'utilisation ou à une application, et un compartiment peut compter des milliers de points d'accès. Par exemple, pour votre compartiment S3, vous pouvez créer un point d'accès qui accorde l'accès à des groupes d'utilisateurs ou d'applications pour votre lac de données. Un point d'accès peut prendre en charge un seul utilisateur ou une seule application, ou des groupes d'utilisateurs ou d'applications au sein d'un même compte ou entre plusieurs comptes, ce qui permet une gestion distincte de chaque point d'accès. 

En outre, vous pouvez déléguer des autorisations à des comptes de confiance pour créer des points d'accès intercompte dans votre compartiment. Les points d'accès intercompte n'accordent pas l'accès aux données tant que vous n'avez pas obtenu les autorisations du propriétaire du compartiment.  Le propriétaire du compartiment conserve toujours le contrôle ultime des données et doit mettre à jour la stratégie du compartiment pour autoriser les demandes provenant du point d'accès intercompte. Consultez le guide de l'utilisateur pour voir un exemple de politique de compartiment.

Chaque point d'accès est associé à un seul compartiment et contient un contrôle d'origine réseau et un contrôle de blocage de l'accès public. Vous pouvez créer un point d'accès avec un contrôle de l'origine réseau qui n'autorise l'accès au stockage que depuis votre cloud privé virtuel, qui est une section isolée de manière logique du Cloud AWS. Vous pouvez également créer un point d'accès dont la politique de point d'accès est configurée pour n'autoriser l'accès qu'aux objets ayant des préfixes définis ou aux objets ayant des identifications spécifiques.

Vous pouvez accéder aux données dans les compartiments partagés par le biais d'un point d'accès de l'une des deux manières suivantes. Pour les opérations sur les objets S3, vous pouvez utiliser le point d'accès ARN à la place d'un nom de compartiment. Pour les demandes nécessitant un nom de compartiment au format standard de nom de compartiment S3, vous pouvez utiliser plutôt un alias de point d'accès. Les alias de points d'accès S3 sont automatiquement générés et interchangeables avec les noms de compartiments S3 partout où vous utilisez un nom de compartiment pour l'accès aux données. S3 génère automatiquement un nouvel alias de point d'accès chaque fois que vous créez un point d'accès pour un compartiment. Pour l’ensemble des opérations et services AWS compatibles, référez-vous à la documentation S3.

Q : Existe-t-il un nombre limite de points d’accès S3 qui peuvent être créés ?

Par défaut, vous pouvez créer 10 000 points d’accès S3 par région et par compte dans les compartiments de votre compte et entre les comptes. Il n’y a pas de limite stricte au nombre de points d’accès S3 par compte AWS. Rendez-vous sur Service Quotas pour demander une modification de cette limite.

Q : Quand un point d’accès est utilisé, comment les requêtes sont-elles autorisées ?

Les points d'accès S3 ont leur propre stratégie de point d'accès IAM. Les stratégies de point d'accès sont créées de façon similaire aux stratégies de compartiment, en utilisant l'ARN du point d'accès comme ressource. Les stratégies de point d'accès peuvent accorder ou limiter l'accès aux données S3 demandées à travers le point d'accès. Amazon S3 évalue toutes les stratégies pertinentes, y compris celles qui portent sur l'utilisateur, le compartiment, le point d'accès, le point de terminaison de VPC et les politiques de contrôle des services, ainsi que les listes de contrôle d'accès, pour décider d'autoriser ou non la requête.

Question : Comment écrire une stratégie de point d'accès ?

Vous pouvez écrire une stratégie de point d'accès exactement de la même manière qu'une stratégie de compartiment en utilisant des règles IAM pour le contrôle des autorisations et en spécifiant l'ARN du point d'accès dans le document de stratégie.

Question : Quelle est la différence entre le fait de limiter l'accès à des VPC spécifiques à l'aide de contrôles d'origine réseau sur des points d'accès et la limitation de l'accès à des VPC à l'aide de la stratégie de compartiment ?

Vous pouvez continuer d'utiliser des stratégies de compartiment pour limiter l'accès au compartiment aux VPC spécifiés. Les points d'accès constituent une méthode plus simple et auditable pour limiter un sous-ensemble ou la totalité du contenu d'un ensemble de données partagé au trafic par VPC pour toutes les applications dans votre organisation à l'aide de contrôles API. Vous pouvez utiliser une stratégie de contrôle de service (SCP) AWS Organizations pour exiger que tout point d'accès créé au sein de votre organisation utilise la valeur « vpc » pour le paramètre d'API « contrôle d'origine réseau ». Ainsi, les nouveaux points d'accès créés limitent automatiquement l'accès aux données au trafic par VPC. Aucune stratégie d'accès supplémentaire n'est requise pour garantir que les seules demandes de données traitées sont celles qui proviennent des VPC spécifiés.

Question : Puis-je appliquer une politique « Aucun accès aux données depuis Internet » pour tous les points d'accès de mon organisation ?

Oui. Pour appliquer une politique « Aucun accès aux données depuis Internet » pour les points d'accès de votre organisation, il faut veiller à ce que tous les points d'accès autorisent l'accès uniquement par VPC. Pour ce faire, il faut créer une SCP AWS n'acceptant que la valeur « vpc » pour le paramètre « contrôle d'origine réseau » dans l'API create_access_point(). Si des points d'accès accessibles depuis Internet existent déjà, ils peuvent être supprimés. Il faudra également modifier la politique de chacun de vos compartiments pour restreindre davantage l'accès direct au compartiment par Internet à travers son nom d'hôte. Étant donné que d'autres services AWS peuvent potentiellement accéder directement à votre compartiment, veillez à bien configurer l'accès de façon à autoriser les services AWS désirés. À cet effet, modifiez la politique pour autoriser ces services AWS. Consultez la documentation S3 pour découvrir comment procéder avec quelques exemples.

Question : Est-il possible de désactiver complètement l'accès direct à un compartiment à travers son nom d'hôte ?

Ce n'est actuellement pas possible, mais vous pouvez associer une politique de compartiment qui rejette les requêtes qui ne proviennent pas d'un point d'accès. Pour plus d'informations, consultez S3 documentation.

Question : Puis-je remplacer ou supprimer un point d'accès d'un compartiment ?

Oui. La suppression d'un point d'accès n'a pas d'impact sur l'accès au compartiment associé à travers d'autres points d'accès et à travers le nom d'hôte du compartiment.

Question : Combien coûtent les points d'accès Amazon S3 ?

Les points d'accès et les compartiments qui utilisent des points d'accès ne font pas l'objet de frais supplémentaires. Les tarifs habituels pour les requêtes Amazon S3 sont appliqués.

Question : Comment démarrer avec les points d'accès S3 ?

Vous pouvez commencer à créer des points d'accès S3 dans de nouveaux compartiments ainsi que dans des compartiments existants par le biais de la console de gestion AWS, l'interface de ligne de commande (CLI) AWS, l'interface de programmation d'applications (API) et le client kit de développement logiciel (SDK) AWS. Pour en savoir plus sur les points d'accès S3, consultez le guide de l'utilisateur.

Durabilité et protection des données

Question : Quelle est la durabilité d'Amazon S3 ?

Amazon S3 fournit le stockage le plus durable dans le cloud. Sur la base de son architecture unique, S3 est conçu pour fournir une durabilité des données de 99,999999999 % (11 neuf). De plus, S3 stocke les données de manière redondante dans au moins 3 zones de disponibilité (AZ) par défaut, offrant ainsi une résilience intégrée en cas de catastrophe généralisée. Les clients peuvent stocker les données dans une zone de stockage unique afin de minimiser les coûts de stockage ou la latence, dans plusieurs zones de disponibilité pour résister à la perte permanente d'un centre de données entier, ou dans plusieurs régions AWS pour répondre aux exigences de résilience géographique.

Q : Comment est conçu Amazon S3 pour offrir une durabilité de 99,999999999 % ?

La conception durable d'Amazon S3 est fonction des taux de défaillance des périphériques de stockage et de la vitesse à laquelle S3 peut détecter les défaillances, puis répliquer les données sur ces appareils. S3 vérifie l'intégrité de bout en bout de chaque chargement d'objet et vérifie que toutes les données sont stockées correctement et de manière redondante sur plusieurs périphériques de stockage avant de considérer que votre téléchargement est réussi. Une fois que vos données sont stockées dans S3, S3 surveille en permanence la durabilité des données au fil du temps en vérifiant périodiquement l'intégrité de toutes les données au repos. S3 surveille également activement la redondance de vos données afin de vérifier que vos objets sont capables de tolérer la défaillance simultanée de plusieurs périphériques de stockage.

Q : Les données stockées dans une classe de stockage à zone unique sont-elles protégées contre l'endommagement ou la perte de la zone de disponibilité ?

Dans le cas peu probable de perte ou d'endommagement de tout ou partie d'une zone de disponibilité AWS, les données d'une classe de stockage One Zone peuvent être perdues. Par exemple, des événements tels qu'un incendie et des dégâts d'eau peuvent entraîner une perte de données. Hormis ces types d'événements, les classes de stockage One Zone utilisent des conceptions techniques similaires à celles des classes de stockage régionales pour protéger les objets contre les défaillances indépendantes au niveau du disque, de l'hôte et du rack, et chacune est conçue pour garantir une durabilité des données de 99,999999999 %.

Q : Comment le service Amazon S3 peut-il aller au-delà d'une durabilité de 99,999999999 % ?

Amazon S3 possède une solide culture de durabilité, et les meilleures pratiques en matière de durabilité sont intégrées à nos systèmes et logiciels dès le départ. AWS possède plus d'expérience en matière d'exploitation de stockage à haute durabilité que tout autre fournisseur de cloud, et nous utilisons cette expérience pour atténuer les risques liés à la durabilité et intégrer des garanties de durabilité dans tout ce que nous faisons.

Q : Avec une telle durabilité, dois-je tout de même sauvegarder mes données critiques ?

Oui. Le système de durabilité d'Amazon S3 ne fournit aucune protection contre les suppressions accidentelles ou malveillantes. S3 compte sur les clients pour décider quelles données ils souhaitent conserver, quelles données ils souhaitent supprimer et quels contrôles facultatifs ils ont besoin pour se protéger contre les suppressions incorrectes, que ce soit par accident ou par malveillance. Lorsque vous demandez à Amazon S3 de supprimer des données, celles-ci sont immédiatement supprimées et ne peuvent pas être récupérées par AWS. Ce mode de réponse à une demande de suppression est une caractéristique importante du service.

Q : Quelles sont les fonctionnalités proposées par Amazon S3 pour protéger mes données contre les suppressions accidentelles ou malveillantes ?

Les fonctionnalités de gestion des versions S3 Object Versioning, de réplication S3 Replication et de verrouillage S3 Object Lock sont toutes facultatives et vous pouvez les utiliser pour renforcer la protection des données, au-delà de la durabilité que S3 fournit automatiquement. En outre, vous pouvez utiliser une application de sauvegarde pour sauvegarder tout ou partie des données de vos compartiments S3.

Q : Quels totaux de contrôle le service Simple Storage Service (Amazon S3) prend-il en charge pour la vérification de l'intégrité des données ?

Simple Storage Service (Amazon S3) utilise une combinaison de totaux de contrôle Content-MD5, d'algorithmes de hachage sécurisé et de contrôles de redondance cycliques (CRC) pour vérifier l'intégrité des données. Simple Storage Service (Amazon S3) exécute ces totaux de contrôle sur des données statiques et répare toute disparité en utilisant les données redondantes. De plus, S3 calcule les totaux de contrôle sur tout le trafic du réseau pour détecter d'éventuels compartiments de données altérés lors du stockage ou de la récupération des données. Vous pouvez choisir parmi quatre algorithmes de somme de contrôle pris en charge pour vérifier l'intégrité des données lors de vos demandes de chargement et de téléchargement. Vous pouvez choisir un algorithme de total de contrôle SHA-1, SHA-256, CRC32 ou CRC32C, selon les besoins de votre application. Vous pouvez calculer et vérifier automatiquement les totaux de contrôle lorsque vous stockez ou récupérez des données à partir de S3, et vous pouvez accéder aux informations sur le total de contrôle à tout moment en utilisant une API S3 GetObjectAttributes ou un rapport d'inventaire S3. Le calcul du total de contrôle pendant la diffusion des données dans S3 vous fait gagner du temps, car vous pouvez vérifier et transmettre vos données en une seule fois, au lieu de deux opérations séquentielles. L'utilisation de totaux de contrôle pour la validation des données est une bonne pratique pour la durabilité des données, et ces capacités augmentent les performances et réduisent le coût de cette opération.

Question : Qu'est-ce que la gestion des versions ?

Le contrôle de version permet de préserver, récupérer et restaurer toutes les versions de chacun des objets stockés dans un compartiment Amazon S3. Une fois le contrôle de version pour un compartiment activé, Amazon S3 préserve les objets existants à chaque fois que vous réalisez une opération PUT, POST, COPY ou DELETE sur ces objets. Par défaut, les demandes GET récupèrent la version écrite le plus récemment. Les versions plus anciennes d'un objet écrasé ou supprimé peuvent être récupérées en spécifiant une version dans la demande.

Question : Pourquoi devrais-je utiliser la gestion des versions ?

Amazon S3 fournit aux clients une infrastructure de stockage hautement durable. Le contrôle de version propose un niveau de protection supplémentaire en fournissant un moyen de récupération lorsque les clients écrasent ou suppriment accidentellement des objets. Ceci vous permet de récupérer facilement les objets perdus suite à des actions involontaires d'utilisateurs et des défaillances d'applications. Vous pouvez également utiliser le contrôle de version pour la rétention et l'archivage de données.

Question : Comment démarrer avec la gestion des versions ?

Vous pouvez commencer à assurer la gestion des versions en activant un paramètre sur votre compartiment Amazon S3. Pour en savoir plus sur la manière d'activer la gestion des versions, référez-vous à la documentation d'Amazon S3.

Q : Comment la gestion des versions me protège-t-elle d'une suppression accidentelle de mes objets ?

Lorsqu'un utilisateur effectue une opération DELETE sur un objet, les demandes simples (dont la gestion par version est annulée) ultérieures ne peuvent plus récupérer l'objet. Toutefois, toutes les versions de cet objet continueront d'être préservées dans votre compartiment Amazon S3 et pourront être récupérées ou restaurées. Seul le propriétaire d'un compartiment Amazon S3 peut supprimer une version de manière définitive. Vous pouvez définir des règles de cycle de vie pour gérer la durée de vie et le coût de stockage de plusieurs versions de vos objets.

Question : Puis-je configurer une corbeille ou une fenêtre de restauration sur mes objets Amazon S3 de sorte à récupérer les objets supprimés et remplacés ?

Vous pouvez utiliser les règles de cycle de vie Amazon S3 avec la gestion des versions S3 pour implémenter une fenêtre de restauration pour vos objets S3. Par exemple, avec votre compartiment avec gestion des versions, vous pouvez configurer une règle qui archive toutes vos versions antérieures dans la classe de stockage S3 Glacier Flexible Retrieval économique, et les supprime après 100 jours, ce qui vous laisse un délai de 100 jours pour annuler des modifications apportées à vos données, tout en diminuant vos coûts de stockage. En outre, vous pouvez réduire les coûts en supprimant les anciennes versions (non courantes) d'un objet après cinq jours et lorsqu'il existe au moins deux versions plus récentes de l'objet. Vous pouvez modifier le nombre de jours ou le nombre de nouvelles versions en fonction de vos besoins d'optimisation des coûts. Ainsi, vous disposez de versions supplémentaires de vos objets en fonction de vos besoins, et vous pouvez réduire les coûts en les transférant ou en les supprimant après un certain temps.

Question : Comment puis-je protéger de manière optimale les versions préservées ?

La fonction Authentification multifactorielle (MFA) Delete de la gestion des versions peut permettre de fournir une couche de sécurité supplémentaire. Par défaut, toutes les demandes vers votre compartiment Amazon S3 nécessitent vos identifiants de compte AWS. Si vous activez la gestion des versions avec MFA Delete sur votre compartiment Amazon S3, deux formes d'authentification sont requises pour supprimer de manière permanente une version d'un objet : vos informations d'identification de compte AWS, un code à six chiffres et un numéro de série valides émis par un périphérique d'authentification que vous détenez physiquement. Pour en savoir plus sur l'activation de la gestion des versions avec MFA Delete, et notamment comment acheter et activer un périphérique d'authentification, référez-vous à la documentation d'Amazon S3.

Q : Comment mon utilisation de la gestion des versions m'est-elle facturée ?

Les tarifs Amazon S3 standard sont appliqués à chaque version d'un objet stocké ou demandé. Par exemple, examinons le scénario suivant pour illustrer les coûts de stockage lors de l'utilisation du contrôle de version (supposons que le mois en cours fasse 31 jours) :

1) Jour 1 du mois : vous effectuez un PUT de 4 Go (4 294 967 296 octets) sur votre compartiment.
2) Jour 16 du mois : vous effectuez une opération PUT de 5 Go (5 368 709 120 octets) dans le même compartiment en utilisant la même clé que l'opération PUT d'origine du Jour 1.

Lorsque les coûts de stockage des opérations ci-dessus sont analysés, notez que l'objet de 4 Go du Jour 1 n'est pas supprimé du compartiment lorsque l'objet de 5 Go est écrit le Jour 15. L'objet de 4 Go est plutôt préservé en tant qu'ancienne version et l'objet de 5 Go devient la version la plus récemment écrite de l'objet au sein de votre compartiment. A la fin du mois :

Utilisation totale (en octet-heure)
[4 294 967 296 octets x 31 jours x (24 heures / jour)] + [5 368 709 120 octets x 16 jours x (24 heures / jour)] = 5 257 039 970 304 octet-heures.

Conversion en Go total-mois
5 257 039 970 304 octets/heure x (1 Go / 1 073 741 824 octets) x (1 mois / 744 heures) = 6,581 Go/mois

Le coût est calculé sur la base des tarifs en vigueur pour votre région indiqués sur la page de tarification Amazon S3.

S3 Object Lock

Question : Qu'est-ce qu'Amazon S3 Object Lock ?

Amazon S3 Object Lock est une fonction d'Amazon S3 qui empêche la version d'un objet d'être supprimée ou remplacée pendant une période fixe ou indéfinie. Cette période vous permet d'appliquer des politiques de conservation en tant que couche supplémentaire de protection des données ou à des fins de conformité réglementaire. Vous pouvez migrer des charges de travail depuis des systèmes WORM (Write Once Read Many, une seule écriture et plusieurs lectures) existants vers Amazon S3, et configurer S3 Object Lock aux niveaux de l'objet et du compartiment pour empêcher les suppressions de version d'objet avant les dates de fin de conservation prédéfinies, ou indéfiniment (dates de détention légale). La protection S3 Object Lock est conservée quelle que soit la classe de stockage de la version de l'objet lors des transitions de cycle de vie S3 entre les classes de stockage. 

Vous devez utiliser S3 Object Lock si vous avez des exigences réglementaires qui stipulent que vos données doivent avoir une protection WORM, ou si vous voulez ajouter une autre couche de protection aux données dans Amazon S3. S3 Object Lock peut vous aider à respecter des exigences réglementaires qui stipulent que les données doivent être stockées dans un format immuable, et peut également vous protéger contre la suppression accidentelle ou malveillante de données dans Amazon S3.

Pour en savoir plus, consultez le guide de l'utilisateur de S3 Object Lock.

Question : Comment Amazon S3 Object Lock fonctionne-il ?

Amazon S3 Object Lock empêche la suppression de la version d'un objet pendant la durée d'une période de conservation fixe ou indéfinie jusqu'à ce que la détention légale soit levée. S3 Object Lock vous permet de vous assurer que la version d'un objet reste immuable tant que la protection WORM s'applique. Vous pouvez appliquer la protection WORM en attribuant une date de fin de conservation ou une détention légale à la version d'un objet à l'aide du kit SDK AWS, de l'interface de ligne de commande, de l'API REST ou de la console de gestion S3. Vous pouvez appliquer des paramètres de conservation au sein d'une demande PUT, ou les appliquer à un objet existant après sa création.

La date de fin de conservation définit la durée pendant laquelle la version d'un objet reste immuable. Une fois qu'une date de fin de conservation a été attribuée à la version d'un objet, cet objet ne peut pas être modifié ou supprimé jusqu'à cette date. Si un utilisateur tente de supprimer un objet avant la date de fin de conservation, l'opération est refusée.

Sinon, vous pouvez rendre un objet immuable en appliquant une détention légale. Une détention légale empêche la modification ou la suppression indéfinie de la version d'un objet jusqu'à sa suppression explicite. Pour placer et supprimer des détentions légales, votre compte AWS doit avoir l'autorisation en écriture pour l'action PutObjectLegalHold. Une détention légale peut être appliquée à tout objet dans un compartiment avec S3 Object Lock, que cet objet soit soumis actuellement ou non à une protection WORM par une période de conservation.

S3 Object Lock peut être configuré dans deux modes. Lorsqu'ils sont déployés en mode de gouvernance, les comptes AWS avec des autorisations IAM spécifiques peuvent supprimer la protection WORM de la version d'un objet. Si vous avez besoin d'une immuabilité plus forte pour vous conformer à des réglementations, vous pouvez utiliser le mode de conformité. En mode de conformité, la protection WORM ne peut être supprimée par aucun utilisateur, y compris le compte racine.

Comment activer Amazon S3 Object Lock sur un compartiment ?

Vous pouvez utiliser la console Amazon S3, l'API AWS ou AWS CLI pour activer S3 Object Lock lors de la création d'un nouveau compartiment ou pour configurer S3 Object Lock sur des compartiments existants. Pour activer S3 Object Lock sur des compartiments existants, vous pouvez utiliser la console Amazon S3 pour modifier les paramètres S3 Object Lock dans l'onglet Propriétés du compartiment, dans l'API AWS PutObjectLockConfiguration ou dans l'interface de ligne de commande AWS CLI. Une fois S3 Object Lock activé, vous pouvez définir un mode de conservation par défaut au niveau du compartiment et une durée qui seront applicables à tous les nouveaux objets chargés dans le compartiment. Pour plus d'informations, consultez la documentation sur la configuration de S3 Object Lock à l'aide de la console S3, de l'API AWS et de l'interface de ligne de commande AWS CLI

Q. Quel est l'impact de l'activation de S3 Object Lock sur les compartiments existants sur les nouveaux objets chargés dans les compartiments ?

Après avoir activé S3 Object Lock sur des compartiments existants, vous pouvez définir un mode de conservation S3 Object Lock et une période par défaut pour tous les nouveaux objets chargés dans le compartiment. Sur la console S3, vous pouvez le faire en utilisant l'onglet Propriétés d'un compartiment sélectionné et en activant le mode de conservation par défaut et la période de conservation pour tous les nouveaux objets chargés dans le compartiment. Vous pouvez également choisir de ne configurer aucun paramètre de verrouillage des objets au niveau des compartiments, ce qui permettra de maintenir déverrouillés les nouveaux objets des compartiments. Vous pouvez ensuite verrouiller des objets individuels en modifiant vos paramètres S3 Object Lock dans l'onglet Propriétés de l'objet ou utiliser les opérations par lots S3 pour verrouiller des objets en bloc. Pour plus d'informations, consultez la documentation sur les paramètres de conservation par défaut.

Q : Quel est l'impact de l'activation de S3 Object Lock pour les compartiments existants sur les objets déjà présents dans les compartiments ?

Après l'activation de S3 Object Lock sur les compartiments existants, les paramètres de conservation s'appliquent uniquement aux nouveaux objets chargés dans les compartiments. Pour verrouiller des objets déjà existants dans les compartiments, vous pouvez choisir de modifier les propriétés de rétention individuelles au niveau des objets à l'aide de la console Amazon S3, de l'interface de ligne de commande AWS CLI ou de l'API AWS. Sur la console S3, vous pouvez le faire dans l'onglet Propriétés de l'objet et modifier la conservation légale d'Object Lock ou les paramètres de conservation d'Object Lock. Vous pouvez également utiliser S3 Batch Operations pour gérer la conservation ou activer la conservation légale de plusieurs objets à la fois. Pour plus d'informations, consultez la documentation sur l'activation de S3 Object Lock à l'aide de S3 Batch Operations.

Q : Puis-je désactiver S3 Object Lock après l'avoir activé ?

Non, vous ne pouvez pas désactiver S3 Object Lock ou S3 Versioning pour les compartiments une fois que S3 Object Lock est activé.

Q : Comment puis-je commencer à répliquer des objets à partir de compartiments lorsque S3 Object Lock est activé ?

Pour commencer à répliquer des objets avec S3 Replication à partir de compartiments pour lesquels S3 Object Lock est activé, vous pouvez ajouter une configuration de réplication sur votre compartiment source en spécifiant un compartiment de destination dans la même région AWS ou dans une région AWS différente et dans le même compte AWS ou un compte AWS différent. Vous pouvez choisir de répliquer tous les objets au niveau du compartiment S3, ou de filtrer les objets au niveau d'un préfixe partagé ou au niveau de l'objet à l'aide de balises d'objet S3. Vous devrez également spécifier un rôle AWS Identity and Access Management (IAM) avec les autorisations requises pour effectuer l'opération de réplication. Vous pouvez utiliser la console S3, l'API AWS, l'interface de ligne de commande AWS CLI, les kits SDK AWS ou AWS CloudFormation pour activer la réplication. La gestion des versions S3 doit être activée pour les compartiments source et de destination. En outre, pour répliquer des objets à partir de compartiments compatibles S3 Object Lock, S3 Object Lock doit également être activé dans votre compartiment de destination. Pour plus d'informations, consultez la documentation sur la configuration de la réplication S3 et l'utilisation de S3 Object Lock avec S3 Replication

Q : Ai-je besoin d'autorisations supplémentaires pour répliquer des objets à partir de compartiments lorsque S3 Object Lock est activé ?

Oui, pour répliquer des objets à partir de compartiments compatibles avec S3 Object Lock, vous devez accorder deux nouvelles autorisations, s3:GetObjectRetention et s3:GetObjectLegalHold, sur le compartiment source dans le rôle IAM que vous utilisez pour configurer la réplication. Sinon, si le rôle IAM dispose d'une autorisation s3:Get*, il répond à l'exigence. Pour plus d'informations, consultez la documentation sur l'utilisation de S3 Object Lock avec la réplication S3.

Q : Existe-t-il des limites à l'utilisation de la réplication S3 lors de la réplication à partir de compartiments S3 Object Lock ?

Non, toutes les fonctionnalités de Réplication S3, telles que la Réplication S3 sur une même région (S3 SRR), la Réplication interrégionale S3 (S3 CRR), les métriques de réplication S3 pour suivre la progression, le contrôle du temps de réplication, le Contrôle du temps de réplication S3 (S3 RTC) et la Réplication par lots S3, sont prises en charge lors de la réplication à partir de compartiments S3 Object Lock.

Q : Comment puis-je répliquer des objets existants à partir de compartiments compatibles avec S3 Object Lock ?

Vous pouvez utiliser la Réplication par lots S3 pour répliquer des objets existants à partir de compartiments compatibles avec S3 Object Lock. Pour plus d'informations sur la réplication d'objets existants, consultez la documentation sur la Réplication par lots S3.

Q : Quel est l'état de conservation des répliques d'objets sources protégées par S3 Object Lock ?

Les répliques d'objets protégés par S3 Object Lock suivent la même politique de conservation que les objets sources. Vous pouvez utiliser les commandes GET Object ou HEAD Object pour afficher l'état de verrouillage des objets de réplique. Les deux commandes renvoient le mode de conservation, la date de fin de rétention et le statut de conservation légale pour la version d'objet spécifiée. Vous pouvez également configurer les rapports d'inventaire Amazon S3 sur vos compartiments afin d'inclure la date de fin de rétention le mode de rétention et le statut de conservation légale de tous les objets d'un compartiment. Pour plus d'informations, consultez la documentation sur l'affichage des informations de verrouillage d'objet S3 pour un objet et sur la configuration de l'inventaire Amazon S3.

Classes de stockage

Question : Que sont les classes de stockage Amazon S3 ?

Amazon S3 propose une gamme de classes de stockage que vous pouvez choisir en fonction des exigences de vos charges de travail en matière d'accès aux données, de résilience et de coût. Les classes de stockage S3 sont spécialement conçues pour fournir le stockage le plus économique pour différents types d'accès. Les classes de stockage S3 conviennent à pratiquement tous les cas d'utilisation, y compris ceux qui présentent des besoins en performance importants, des exigences en termes de résidence des données, des modèles d'accès inconnus ou changeants, ou le stockage d'archives. Chaque classe de stockage S3 facture des frais pour stocker les données ainsi que des frais pour accéder aux données. Au moment de choisir la classe de stockage S3 idéale pour votre charge de travail, vous devez prendre en compte les modèles d'accès et le délai de conservation de vos données pour une optimisation des coûts les plus avantageux par rapport à la durée de vie de vos données.

Les classes de stockage S3 peuvent être configurées au niveau de l'objet et un seul compartiment peut contenir des objets stockés dans toutes les classes de stockage. Vous pouvez également utiliser les stratégies de cycle de vie S3 afin de faire passer automatiquement des objets d'une classe de stockage à l'autre sans rien changer aux applications.

Question : Comment déterminer la classe de stockage S3 à utiliser ?

Au moment de choisir la classe de stockage S3 idéale pour votre charge de travail, vous devez prendre en compte les modèles d'accès et le délai de conservation de vos données pour une optimisation des coûts les plus avantageux par rapport à la durée de vie de vos données. De nombreuses charges de travail ont des modèles d'accès changeants (contenus générés par les utilisateurs), imprévisibles (analytique, lacs de données) ou inconnus (nouvelles applications). C'est pourquoi S3 Intelligent-Tiering doit être la classe de stockage par défaut pour économiser automatiquement sur les coûts de stockage. Si vous connaissez les modèles d'accès de vos données, vous pouvez suivre ces recommandations. La classe de stockage S3 Standard est idéale pour les données fréquemment consultées. Il s'agit du meilleur choix si vous accédez à vos données plus d'une fois par mois. La classe de stockage S3 Standard – Accès peu fréquent est idéale pour les données conservées pendant au moins un mois et consultées une fois tous les mois ou tous les deux mois.

Les classes de stockage Amazon S3 Glacier sont spécialement conçues pour l'archivage de données et vous offrent les meilleures performances, la plus grande flexibilité de récupération et le stockage d'archives le plus économique du cloud. Vous pouvez désormais choisir parmi trois classes de stockage d'archives optimisées pour différents modèles d'accès et durées de stockage. Pour les données d'archives nécessitant un accès immédiat, telles que les images médicales, les ressources des médias d'information ou les données génomiques, choisissez la classe de stockage S3 Glacier Instant Retrieval, une classe de stockage d'archives qui offre le stockage le plus économique avec une récupération en quelques millisecondes. Pour les données d'archives qui ne nécessitent pas un accès immédiat, mais qui ont besoin de la flexibilité nécessaire pour récupérer gratuitement de grands ensembles de données, comme dans les cas de sauvegarde ou de reprise après sinistre, choisissez S3 Glacier Flexible Retrieval (anciennement S3 Glacier), avec une récupération en quelques minutes ou des récupérations en bloc gratuites en 5 à 12 heures. Pour économiser encore plus sur le stockage d'archives de longue durée, comme les archives de conformité et la préservation des médias numériques, choisissez S3 Glacier Deep Archive, le stockage le plus économique du cloud avec une récupération des données en 12 heures. Toutes ces classes de stockage fournissent une résilience sur plusieurs zones de disponibilité en stockant de manière redondante vos données sur plusieurs appareils et dans plusieurs zones de disponibilité AWS physiquement séparées dans une région AWS.

Pour les données qui ont des exigences de résilience plus faibles, vous pouvez réduire vos coûts en sélectionnant une classe de stockage mono-AZ, telle que S3 Unizone – Accès peu fréquent. Si vous avez des exigences de résidence ou de latence de données ne pouvant pas être respectées par une région AWS existante, choisissez d'utiliser la classe de stockage S3 sur Outposts pour stocker vos données S3 sur site.

Vous pouvez en savoir plus sur ces classes de stockage en consultant la page Classes de stockage Amazon S3

S3 Intelligent-Tiering

Question : Qu'est-ce que S3 Intelligent-Tiering ?

S3 Intelligent-Tiering est le premier système de stockage dans le cloud qui réduit automatiquement vos coûts de stockage au niveau des objets en déplaçant automatiquement les données vers le niveau d'accès le plus rentable en fonction de la fréquence d'accès, sans impact sur les performances, les frais de récupération ou les coûts opérationnels. S3 Intelligent-Tiering offre une latence de quelques millisecondes et des performances de haut débit pour les données fréquemment, peu ou rarement consultées dans les niveaux d'accès fréquents, peu fréquents et instantanés aux archives. Entraînant de faibles frais mensuels de surveillance et d'automatisation des objets, S3 Intelligent-Tiering contrôle les modèles d'accès et déplace automatiquement les objets d'un niveau d'accès à l'autre. Il n'y a aucun frais d'extraction dans S3 Intelligent-Tiering, vous n'aurez donc pas d'augmentations imprévues dans les factures de stockage quand les modèles d'accès changent.

Vous pouvez utiliser S3 Intelligent-Tiering comme classe de stockage par défaut pour pratiquement toutes les charges de travail, notamment les lacs de données, l'analyse de données, le machine learning, les nouvelles applications et le contenu généré par les utilisateurs.

Question : Comment S3 Intelligent-Tiering fonctionne-t-il ?

La classe de stockage Amazon S3 Intelligent-Tiering est conçue pour optimiser les coûts de stockage en déplaçant automatiquement les données vers le niveau d'accès le plus économique lorsque les modèles d'accès changent. Générant de faibles frais mensuels de surveillance et d'automatisation des objets, S3 Intelligent-Tiering contrôle les modèles d'accès et déplace automatiquement les objets qui n'ont pas été accédés pendant 30 jours consécutifs vers le niveau Accès peu fréquent pour économiser jusqu'à 40 % sur les coûts de stockage. Les objets qui n'ont pas été consultés pendant 90 jours consécutifs sont déplacés vers le niveau Accès instantané aux archives pour économiser jusqu'à 68 % sur les coûts de stockage. Il n'y a aucun impact sur les performances ni aucun frais d'extraction dans S3 Intelligent-Tiering. Si un objet stocké dans le niveau Accès peu fréquent ou Accès instantané aux archives est accédé ultérieurement, il est automatiquement déplacé dans le niveau Accès fréquent.

Pour bénéficier des coûts de stockage les plus économique pour les données accessibles de façon asynchrone, vous pouvez choisir d'activer des fonctionnalités d'archivage supplémentaires. Une fois que vous activez l'un des niveaux d'accès asynchrone aux archives ou les deux, S3 Intelligent-Tiering déplacera automatiquement les objets qui n'ont pas été accédés pendant 90 jours au minimum vers le niveau Accès aux archives pour économiser jusqu'à 71 %, et ceux qui n'ont pas été consultés pendant 180 jours vers le niveau Accès Deep Archive pour économiser jusqu'à 95 % sur les objets rarement consultés. Si un objet se trouvant dans les niveaux d'accès optionnels Archive ou Deep Archive est restauré ultérieurement, il est déplacé dans le niveau Accès fréquent, et avant de pouvoir récupérer l'objet, vous devez d'abord le restaurer en utilisant RestoreObject. Pour plus d'informations sur la restauration des objets archivés, consultez la section Restauration des objets archivés. Il n'y a pas de frais d'extraction dans S3 Intelligent-Tiering. Aucun frais de hiérarchisation ou de cycle de vie supplémentaire ne s'applique lorsque les objets sont déplacés entre les niveaux d'accès au sein de la classe de stockage S3 Intelligent-Tiering.

Il n'existe aucune taille d'objet minimale pour S3 Intelligent-Tiering, mais les objets plus petits que 128 Ko ne sont pas éligibles à la hiérarchisation automatique. Ces objets plus petits peuvent être stockés dans S3 Intelligent-Tiering, mais ils seront toujours facturés aux taux du niveau Accès fréquent, les frais de surveillance et d'automatisation ne seront cependant pas facturés.

Si vous souhaitez normaliser S3 Intelligent-Tiering comme classe de stockage par défaut pour les données nouvellement créées, vous pouvez modifier vos applications en spécifiant INTELLIGENT_TIERING dans l'en-tête de votre demande d'API S3 PUT. S3 Intelligent-Tiering est conçu pour être disponible à 99,9 % et durable à 99,999999999 %. Il offre automatiquement des performances de débit élevé et de faible latence comparables à celles de S3 Standard. Vous pouvez utiliser AWS Cost Explorer pour mesurer les économies supplémentaires réalisées grâce au niveau Accès instantané aux archives.

Question : Pourquoi choisir d'utiliser S3 Intelligent-Tiering ?

Vous pouvez utiliser S3 Intelligent-Tiering comme classe de stockage par défaut pour pratiquement toutes les charges de travail, notamment les lacs de données, l'analyse de données, le machine learning, les nouvelles applications et le contenu généré par les utilisateurs. S3 Intelligent-Tiering est le premier système de stockage dans le cloud qui réduit automatiquement vos coûts de stockage au niveau des objets en déplaçant automatiquement les données vers le niveau d'accès le plus rentable en fonction de la fréquence d'accès, sans impact sur les performances, les frais de récupération ou les coûts opérationnels. Si vous avez des données ayant des modèles d'accès inconnus ou changeants, notamment les lacs de données, l'analyse de données et les nouvelles applications, nous vous recommandons d'utiliser S3 Intelligent-Tiering. Si vous avez des données qui ne nécessitent pas une extraction immédiate, nous vous recommandons d'activer le niveau Deep Archive Access au prix modique de 1 USD par To pour les données qui sont rarement consultées sur de longues périodes. S3 Intelligent-Tiering est conçu pour les données ayant des modèles d'accès inconnus ou changeants. Il n'y a aucun frais d'extraction lors de l'utilisation de la classe de stockage S3 Intelligent-Tiering.

Question : Quelles performances le service S3 Intelligent-Tiering offre-t-il ?

S3 Intelligent-Tiering optimise automatiquement vos coûts de stockage sans impacter vos performances. Les niveaux d'accès S3 Intelligent-Tiering fréquent, peu fréquent et accès instantané aux archives offrent des performances de débit élevé et des latences de quelques millisecondes.

Question : Quelles performances les niveaux d'accès optionnels Archive Access et Deep Archive Access offrent-ils ?

Pour les données accessibles de façon asynchrones, le niveau optionnel Access Archive, offre les mêmes performances que S3 Glacier Flexible Retrieval, et le niveau Deep Archive Access offre les mêmes performances que la classe de stockage S3 Glacier Deep Archive. Vous ne devez activer les fonctionnalités d'archivage asynchrone que si votre application peut attendre de quelques minutes à plusieurs heures. Si l'objet que vous récupérez est stocké dans les niveaux Archive Access ou Deep Archive Access, avant de pouvoir récupérer l'objet, vous devez d'abord restaurer un objet en utilisant RestoreObject. Pour plus d'informations sur la restauration des objets archivés, consultez la section Restauration des objets archivés. Les objets du niveau Archive Access sont déplacés dans le niveau Frequent Access en 3 à 5 heures, et ceux du niveau Deep Archive Access en l'espace de 12 heures. Si vous avez besoin d'un accès plus rapide à un objet stocké dans le niveau Archive Access, vous pouvez payer pour une récupération plus rapide en utilisant la console pour sélectionner l'option de vitesse de récupération accélérée.

Question : Quelles sont les performances de S3 Intelligent-Tiering en matière de durabilité et de disponibilité ?

S3 Intelligent-Tiering est conçu pour la même durabilité à 99,999999999 % que la classe de stockage S3 Standard. S3 Intelligent-Tiering est conçu pour offrir une disponibilité de 99,9 % et dispose d'un contrat de niveau de service (SLA) offrant des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Question : Comment puis-je transférer mes données vers S3 Intelligent-Tiering ?

Vous pouvez transférer vos données vers S3 Intelligent-Tiering de deux manières. Vous pouvez les placer (PUT) directement dans S3 Intelligent-Tiering en spécifiant INTELLIGENT_TIERING dans l'en-tête x-amz-storage-class, ou définir les stratégies de cycle de vie pour transférer des objets depuis S3 Standard ou S3 standard – Accès peu fréquent vers S3 INTELLIGENT_TIERING.

Q : comment le service S3 Intelligent-Tiering est-il facturé ?

Pour S3 Intelligent-Tiering, vous payez des frais mensuels pour le stockage, les requêtes et le transfert de données, ainsi que de faibles frais mensuels pour la surveillance et l'automatisation par objet. La classe de stockage S3 Intelligent-Tiering stocke automatiquement vos objets dans trois niveaux d'accès : un niveau à accès fréquent pour lequel la tarification du stockage S3 Standard est appliquée, un niveau à accès peu fréquent pour lequel la tarification du stockage S3 Standard – Stockage avec accès peu fréquent est appliquée, un niveau d'accès instantané aux archives pour lequel la tarification du stockage S3 Glacier Instant Retrieval est appliquée. S3 Intelligent-Tiering dispose également de deux niveaux d'archivage optionnels conçus pour un accès asynchrone, un niveau Archive Access, facturé aux tarifs de stockage de S3 Glacier Flexible Retrieval, et un niveau Deep Archive Access, facturé aux tarifs de stockage de S3 Glacier Deep Archive.

Moyennant des frais mensuels modiques pour la surveillance et l'automatisation, S3 Intelligent-Tiering surveille les modèles d'accès et déplace automatiquement les objets entre les niveaux d'accès à faible latence et à débit élevé, ainsi qu'entre deux niveaux optionnels d'accès aux archives asynchrones. Ces niveaux offrent aux clients les coûts de stockage les plus économiques dans le cloud pour les données qui peuvent être consultées de façon asynchrone.

Il n'existe aucune taille d'objet facturable minimale dans S3 Intelligent-Tiering, mais les objets plus petits que 128 Ko ne sont pas éligibles pour la hiérarchisation automatique. Ces petits objets ne seront pas surveillés et seront toujours facturés aux tarifs du niveau Accès fréquent, sans frais de surveillance et d'automatisation. Pour chaque objet archivé au niveau Archive Access ou au niveau Deep Archive Access dans S3 Intelligent-Tiering, Amazon S3 utilise 8 Ko de stockage pour le nom de l'objet et d'autres métadonnées (facturés aux tarifs de stockage S3 Standard) et 32 Ko de stockage pour l'index ainsi que les métadonnées connexes (facturés aux tarifs de stockage S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive).

Question : La récupération des données à partir de S3 Intelligent-Tiering est-elle soumise à des frais ?

Non. Il n'y aucun frais de récupération dans S3 Intelligent-Tiering. S3 Intelligent-Tiering contrôle les modèles d'accès de vos données, et si vous accédez à un objet dans les niveaux Accès peu fréquent, Accès instantané aux archives ou Archivage asynchrone, S3 Intelligent-Tiering déplace automatiquement cet objet dans le niveau Accès fréquent.

Question : Comment activer les niveaux d'accès d'archive S3 Intelligent-Tiering ?

Vous pouvez activer les niveaux d'accès Archive et Deep Archive en créant une configuration au niveau d'un compartiment, d'un préfixe ou d'une balise d'objet à l'aide de l'API Amazon S3, de l'interface de ligne de commande (CLI) ou de la console de gestion S3. Vous ne devez activer un ou les deux niveaux d'accès d'archive que si votre application peut accéder de manière asynchrone à vos objets.

Question : Puis-je étendre le délai d'archivage dans une classe de stockage S3 Intelligent-Tiering des objets non consultés ?

Oui. Dans la configuration du compartiment, du préfixe ou de la balise d'objet, vous pouvez étendre les délais d'archivage dans S3 Intelligent-Tiering à partir du dernier accès. Lorsque les niveaux sont activés, par défaut, les objets qui n'ont pas été consultés depuis 90 jours consécutifs au minimum sont automatiquement déplacés vers le niveau Archive Access, sans passer par le niveau Accès instantané aux archives. Les objets qui n'ont pas été consultés depuis 180 jours consécutifs au minimum sont automatiquement déplacés vers le niveau Deep Archive. La configuration par défaut du délai en jours consécutifs depuis le dernier accès avant l'archivage automatique dans S3 Intelligent-Tiering peut être étendue jusqu'à 2 ans.

Question : Comment accéder à un objet stocké au niveau d'archive Archive ou Deep Archive dans la classe de stockage S3 Intelligent-Tiering ?

Pour accéder à un objet stocké au niveau d'archive Archive ou Deep Archive, vous devez émettre une demande de restauration (RESTORE) et le déplacement vers le niveau Frequent Access de l'objet sera initialisé, le tout au sein de la classe de stockage S3 Intelligent-Tiering. Les objets du niveau d'accès Archive sont déplacés dans le niveau Frequent Access en 3 à 5 heures et ceux du niveau Deep Archive en l'espace de 12 heures. Une fois les objets dans le niveau Accès fréquent, vous pouvez émettre une requête GET pour récupérer l'objet.

Question :Comment savoir à quel niveau d'accès S3 Intelligent-Tiering mes objets sont stockés ?

Vous pouvez utiliser Amazon S3 Inventory pour rapporter le niveau d'accès des objets stockés dans la classe de stockage S3 Intelligent-Tiering. Chaque jour ou chaque semaine, Amazon S3 Inventory crée des fichiers de sortie au format CSV, ORC ou Parquet qui listent vos objets et les métadonnées qui leur sont associées pour un compartiment S3 ou un préfixe commun. Vous pouvez également émettre une requête HEAD sur vos objets pour obtenir un rapport sur les niveaux d'accès d'archive S3 Intelligent-Tiering.

Question : Puis-je faire gérer le cycle de vie des objets S3 Intelligent-Tiering dans une autre classe de stockage?

Oui. Vous pouvez gérer le cycle de vie des objets S3 Intelligent-Tiering des niveaux Accès fréquent, Accès peu fréquent et Accès instantané aux archives dans S3 Unizone – Accès peu fréquent, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive. De plus, vous pouvez gérer le cycle de vie des objets S3 Intelligent-Tiering des niveaux d'accès optionnels dans S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive, et le niveau S3 Intelligent-Tiering Deep Archive Access dans S3 Glacier Deep Archive.

Question : Existe-t-il une durée de stockage minimale pour S3 Intelligent-Tiering ?

Non, la classe de stockage S3 Intelligent-Tiering n'a pas de durée de stockage minimale.

Q : existe-t-il une taille d'objet facturable minimale pour S3 Intelligent-Tiering ?

Non, la classe de stockage S3 Intelligent-Tiering n'a pas de taille d'objet facturable minimale, mais les objets inférieurs à 128 Ko ne sont pas éligibles pour la hiérarchisation automatique. Ces objets plus petits seront toujours facturés aux tarifs du niveau Accès fréquent, sans frais de surveillance et d'automatisation. Pour chaque objet archivé au niveau optionnel Archive Access ou Deep Archive Access dans S3 Intelligent-Tiering, Amazon S3 utilise 8 Ko de stockage pour le nom de l'objet et d'autres métadonnées (facturés aux tarifs de stockage S3 Standard) et 32 Ko de stockage pour l'index ainsi que les métadonnées connexes (facturés aux tarifs de stockage S3 Glacier et S3 Glacier Deep Archive). Pour plus de détails, consultez la page Tarification Amazon S3

S3 Standard

Question : Qu'est-ce que S3 Standard ?

Amazon S3 Standard offre un stockage durable avec une latence d'accès de quelques millisecondes et des performances de débit élevé pour les données fréquemment consultées (généralement plusieurs fois par mois). S3 Standard est conçu pour les cas d'utilisation sensibles aux performances, tels que les lacs de données, les applications natives cloud, les sites web dynamiques, la distribution de contenu, les application mobiles et de jeux, l'analytique et les modèles de machine learning. S3 Standard est conçu pour une disponibilité des données de 99,99 % et une durabilité des objets de 99,999999999 % sur plusieurs zones de disponibilité sur une année donnée. Vous pouvez utiliser les stratégies de cycle de vie S3 pour un contrôle total du moment où les données sont transférés entre S3 Standard et des classes de stockage plus économiques sans rien changer aux applications.

Question : Pourquoi choisir d'utiliser S3 Standard ?

S3 Standard est idéal pour les données fréquemment consultées ou modifiées qui nécessitent un accès de quelques millisecondes et des performances de débit élevé. S3 Standard est idéal pour les données qui sont lues ou écrites très souvent, étant donné qu'il n'y a aucuns frais d'extraction. S3 Standard est optimisé pour de nombreux cas d'utilisation, notamment les lacs de données, les applications natives cloud, les sites web dynamiques, la distribution de contenu, les applications mobiles et de jeux et l'analytique.

S3 Express One Zone

Q : Qu'est-ce que la classe de stockage Amazon S3 Express One Zone ?

Amazon S3 Express One Zone est une classe de stockage Amazon S3 hautes performances à disponibilité unique. Elle a été conçue pour fournir un accès homogène, de l'ordre de la milliseconde, aux données pour les applications les plus sensibles aux latences des clients. Amazon S3 Express One Zone est la classe de stockage d’objets dans le cloud à la latence la plus faible disponible actuellement. Elle offre une vitesse d’accès aux données jusqu’à dix fois supérieure et des coûts de demande 50 % inférieurs à ceux d’Amazon S3 Standard. Avec S3 Express One Zone, vous pouvez sélectionner une zone de disponibilité AWS spécifique au sein d’une région AWS pour stocker vos données. Vous pouvez décider de localiser votre stockage et vos ressources de calcul dans la même zone de disponibilité afin d’optimiser davantage les performances.

Q : Pourquoi choisir d’utiliser la classe de stockage Amazon S3 Express One Zone ?

S3 Express One Zone est la classe de stockage idéale pour les applications nécessitant la vitesse d'accès aux données la plus rapide et les meilleures performances pour les applications sensibles à la latence. S3 Express One Zone est la meilleure classe de stockage pour les opérations gourmandes en demandes telles que la formation et l'inférence par machine learning (ML), les analyses interactives et la création de contenu multimédia.

Q : Comment démarrer avec la classe de stockage Amazon S3 Express One Zone ?

Vous pouvez commencer par créer un compartiment de répertoires S3 dans la zone de disponibilité (AZ) AWS de votre choix. Vous pouvez décider de localiser votre stockage et vos ressources de calcul dans la même AZ afin d’optimiser davantage les performances. Le Blocage de l’accès public S3 est activé par défaut dans les compartiments de répertoires. Après avoir créé le compartiment de répertoires, vous pouvez télécharger directement des objets vers la classe de stockage S3 Express One Zone ou copier des objets depuis des classes de stockage S3 existantes dans S3 Express One Zone. Vous pouvez également importer des données d'un simple clic dans la Console de gestion AWS dans S3 Express One Zone ou utiliser S3 Batch Operations pour copier un compartiment entier, un préfixe ou des sous-ensembles de données d'une classe de stockage S3 existante dans S3 Express One Zone.

Q : Comment importer des données dans la classe de stockage Amazon S3 Express One Zone ?

Vous pouvez importer des données provenant de la même région AWS dans la classe de stockage S3 Express One Zone via la console S3 en utilisant l'option Importer après avoir créé un compartiment de répertoires. L'importation simplifie la copie des données dans des compartiments de répertoires S3 en vous permettant de choisir un préfixe ou un compartiment à partir duquel importer les données sans avoir à spécifier tous les objets à copier individuellement. S3 Batch Operations copie les objets dans le préfixe ou le compartiment à usage général sélectionné et vous pouvez suivre la progression de la tâche d'importation et de copie via la page de détails de la tâche S3 Batch Operations.

Q : Dans combien de zones de disponibilité les objets Amazon S3 Express One Zone sont-ils stockés ?

Les objets S3 Express One Zone sont stockés dans une seule zone de disponibilité (AZ) AWS de votre choix. Le stockage d'objets dans une zone vous permet de stocker vos données localement sur votre ordinateur afin de minimiser la latence. Vous pouvez accéder aux données depuis toutes les zones de disponibilité, même si la latence augmente.

Q : Quelles sont les performances de la classe de stockage Amazon S3 Express One Zone ?

S3 Express One Zone offre une élasticité de performance similaire à celle des autres classes de stockage S3, mais avec des latences de requêtes de lecture et d'écriture constantes de quelques millisecondes au premier octet, jusqu'à 10 fois plus rapides que les classes de stockage S3 existantes. Avec S3 Express One Zone, les clients n'ont pas besoin de planifier ou de provisionner à l'avance leurs exigences en matière de capacité ou de débit, et bénéficient immédiatement de demandes traitées plus rapidement. S3 Express One Zone convient parfaitement aux tâches d'analyse où la latence de stockage accélère les délais d'exécution des tâches et réduit le coût total de possession global. Ce système est également idéal pour les charges de travail interactives, comme le montage vidéo, où les professionnels de la création ont besoin de l'accès le plus réactif possible à leurs données S3.

Q : Comment la classe de stockage Amazon S3 Express One Zone atteint-elle des performances élevées ?

S3 Express One Zone utilise une architecture unique pour optimiser les performances et fournir une faible latence des requêtes en permanence. S3 Express One Zone stocke les données sur du matériel hautes performances et son protocole objet a été amélioré pour rationaliser les frais généraux d'authentification et de métadonnées. En outre, afin d'améliorer encore la vitesse d'accès et de prendre en charge des centaines de milliers de demandes par seconde, les données sont stockées dans un nouveau type de compartiment : un compartiment de répertoires Amazon S3. Avec S3 Express One Zone, vous pouvez sélectionner une zone de disponibilité AWS spécifique au sein d’une région AWS pour stocker vos données. Vous pouvez décider de localiser votre stockage et vos ressources de calcul dans la même zone de disponibilité afin d’optimiser davantage les performances.

Q : Quelles sont les performances en matière de taux de requêtes prises en charge par un compartiment de répertoires S3 ?

Chaque compartiment de répertoires S3 peut prendre en charge des centaines de milliers de transactions par seconde (TPS), quel que soit le nombre de répertoires qu’il contient.

Q : Qu’arrive-t-il à un compartiment de répertoires S3 n’enregistrant aucune activité de demande pendant une longue période ?

Les compartiments de répertoires S3 n’ayant enregistré aucune activité de demande pendant une période de trois mois ou plus deviennent inactifs. Lorsqu’il est inactif, un compartiment de répertoires est temporairement inaccessible pour les opérations de lecture et d’écriture. Les compartiments inactifs conservent l’intégralité du stockage, ainsi que les métadonnées d’objets et de compartiments. Les frais de stockage existants s’appliquent aux compartiments inactifs. Suite à une demande d’accès à un compartiment inactif, celui-ci passe à l’état actif généralement en quelques minutes. Pendant cette période de transition, les opérations de lecture et d’écriture renverront un code d’erreur 503 SlowDown.

Q : Comment planifier les besoins de débit de mon application avec la classe de stockage S3 Express One Zone ?

S3 Express One Zone fournit un débit élevé et élastique similaire à celui des autres classes de stockage Amazon S3. S3 Express One Zone est conçu dès le départ pour permettre aux clients individuels d'augmenter leur débit à des niveaux agrégés très élevés. Par exemple, les applications de formation de modèles de machine learning peuvent s'entraîner sur des millions d'objets et des pétaoctets de données. Vous pouvez obtenir les meilleures performances en répartissant ces demandes sur des connexions distinctes afin de maximiser la bande passante accessible.

Q : En quoi l'autorisation de demande est-elle différente avec Amazon S3 Express One Zone par rapport aux autres classes de stockage S3 ?

Avec S3 Express One Zone, vous authentifiez et autorisez les demandes par le biais d'un nouveau mécanisme basé sur les sessions, S3 CreateSession, optimisé pour fournir la latence la plus faible possible. Vous pouvez utiliser CreateSession pour demander des informations d'identification temporaires qui fournissent un accès à faible latence à votre compartiment. Ces informations d'identification temporaires sont limitées à un compartiment de répertoires S3 spécifique. Pour plus d'informations sur ce modèle basé sur les sessions, reportez-vous à S3 Create Session dans le guide du développeur.

Q : Quelle est la fiabilité de la classe de stockage Amazon S3 Express One Zone ?

S3 Express One Zone est conçu pour fournir une disponibilité de 99,95 % au sein d'une seule zone de disponibilité, avec un contrat de niveau de service (SLA) de disponibilité de 99,9 %.

Q : Comment la classe de stockage Amazon S3 Express One Zones est-elle conçue pour fournir une disponibilité de 99,95 % ?

Avec S3 Express One Zone, vos données sont stockées de manière redondante sur plusieurs appareils au sein d'une même zone de disponibilité. Le service S3 Express One Zone est conçu pour prendre en charge des défaillances simultanées de périphériques en détectant et en réparant rapidement toute redondance perdue. Ainsi, en cas de défaillance de l’appareil existant, S3 Express One Zone transfère automatiquement les demandes vers de nouveaux appareils au sein d’une AZ. Cette redondance permet un accès ininterrompu à vos données au sein d’une AZ.

Q. Puis-je ajouter des données à un objet dans Amazon S3 Express One Zone ?

Oui. Vous pouvez ajouter des données à un objet dans S3 Express One Zone en utilisant la requête PutObject et en définissant l'en-tête x-amz-write-offset-bytes à la taille de l'objet auquel vous ajoutez. Lorsque vous utilisez le kit de développement logiciel AWS et l'interface de ligne de commande AWS, vous pouvez utiliser l'option write-offset-bytes pour l'ajouter à un objet. S3 Express One Zone prend uniquement en charge l'ajout de données à la fin de l'objet. Pour ce faire, le décalage d'écriture doit être réglé en fonction de la taille de l'objet.

Q : De quelle manière l’utilisation d’Amazon S3 Express One Zone m’est-elle facturée ?

Il n'y a pas de frais d'installation ou d'engagement pour commencer à utiliser S3 Express One Zone. S3 Express One Zone vous facture le stockage et les demandes. Le volume de stockage facturé par mois s'accumule sur la base du stockage total utilisé par heure, mesuré en gigaoctets par mois (Go-mois). Des frais d'accès par demande vous sont également facturés en fonction du type de demande, tel que les types PUT et GET. Vous devrez payer des frais supplémentaires par Go pour la partie de la taille de la demande dépassant 512 Ko.

Exemple 1 :
Supposons que vous stockiez 10 Go de données dans S3 Express One Zone pendant 30 jours, soit un total de 1 000 000 écritures et 9 000 000 lectures, et que vous y accédiez avec Athena avec une taille de requête de 10 Ko. Ensuite, vous supprimez 1 000 000 fichiers au bout de 30 jours. En supposant que votre compartiment se trouve dans la Région USA Est (Virginie du Nord), les frais de stockage et inhérents aux demandes sont calculés comme suit :

Frais de stockage
Utilisation totale (en octet-heure) = 10 Go/mois
Coût de stockage total = 10 Go/mois × 0,16 USD = 1,6 USD

Frais inhérents aux demandes
1 000 000 demandes PUT : 1 000 000 demandes x 0,0025 USD/1 000 = 2,5 USD
9 000 000 demandes GET : 9 000 000 demandes x 0,0002 USD/1 000 = 1,8 USD
1 000 000 demandes DELETE = 1 000 000 de demandes x 0,00 USD (gratuit) = 0 USD

Total des frais : 1,6 USD + 2,5 USD + 1,8 USD = 5,9 USD

Exemple 2 :
Supposons que vous stockiez 10 To de données pour la formation au machine learning pour une charge de travail de 8 heures par jour, puis que vous les supprimiez. Au cours de cette charge de travail de 8 heures, vous effectuez 5 242 880 écritures et 10 485 760 lectures pour une taille de requête de 2 Mo. Supposons que vous le fassiez pendant 30 jours (soit un mois).

Frais de stockage
Utilisation totale en octets/heures = [10 995 116 277 760 octets x 30 jours x (8 heures/jour)] = 2 638 827 906 662 400 octets-heures = 3303,77 Go/mois
Coût total du stockage = 3303,77 Go x 0,16 USD = 528,51 USD

Frais inhérents aux demandes
5 242 880 de demandes PUT par jour : 5 242 880 de demandes x 30 x 0,0025 USD/1 000 = 393,22 USD
10 485 760 de demandes GET par jour : 10 485 760 de demandes x 30 x 0,0002 USD/1 000 = 62,91 USD
5 242 880 de demandes DELETE/jour : 5 242 880 de demandes x 0,00 USD (gratuit) = 0 USD

Par demande, des frais de bande passante supplémentaire seront appliqués sur : 1,5 Mo (2-0,5 Mo) = 0,001465 Go
Frais de bande passante PUT : 0,001465 Go x 5 242 880 x 30 x 0,008 USD = 1843,2 USD
Frais de bande passante GET : 0,001465 Go x 10 485 760 x 30 x 0,015 USD = 691,2 USD

Total des frais = 528,51 USD + 393,22 USD + 62,91 USD + 1843,2 USD + 691,2 USD = 3 519,05 USD

Q : Des frais de transfert de données supplémentaires sont-ils facturés pour l'utilisation de la classe de stockage Amazon S3 Express One Zone au sein de la même région ?

Les frais de demande pour accéder aux données dans la zone S3 Express One incluent les coûts de transfert de données au sein du réseau AWS d'une région, et il n'y a pas de frais de transfert de données supplémentaires pour les données transférées entre Amazon EC2 (ou tout service AWS) et S3 Express One Zone au sein de la même région, par exemple, les données transférées dans la région USA Est (Virginie du Nord).

Q : L'utilisation de points de terminaison d'un VPC Passerelle avec la classe de stockage Amazon S3 Express One Zone entraîne-t-elle des frais de mise en réseau supplémentaires ?

Les frais de demande pour accéder aux données dans S3 Express One Zone incluent les coûts d'utilisation des points de terminaison d'un VPC Passerelle, et il n'y a pas de frais supplémentaires pour l'utilisation des points de terminaison Gateway avec S3 Express One Zone.

S3 Standard-Infrequent Access (S3 Standard-IA)

Q : Qu'est-ce que S3 Standard – Infrequent Access ?

S3 Standard-Infrequent Access (S3 Standard-IA) est une classe de stockage d'Amazon S3 pour les données consultées moins fréquemment, mais nécessitant un accès rapide. S3 Standard – Accès peu fréquent offre la haute durabilité, le débit élevé et la faible latence d'une classe de stockage Amazon S3 Standard avec un prix de stockage au Go et des frais d'extraction par Go faibles. Ces performances élevées alliées à un faible coût font de S3 Standard – Accès peu fréquent l'outil idéal pour le stockage et les sauvegardes à long terme, ainsi qu'en tant que dépôt de données pour la reprise après sinistre. La classe de stockage de S3 Standard – Accès peu fréquent est définie au niveau de l'objet et peut occuper le même compartiment que les classes de stockage S3 Standard ou S3 unizone – Accès peu fréquent, ce qui vous permet d'utiliser des stratégies de gestion du cycle de vie S3 pour assurer le passage automatique des objets d'une classe de stockage à une autre sans changement pour les applications.

Q : Pourquoi choisir d'utiliser S3 Standard – IA ?

S3 Standard – Accès peu fréquent est idéal pour les données consultées peu fréquemment, mais nécessitant un accès rapide le cas échéant. S3 standard – Accès peu fréquent est particulièrement adapté au stockage de fichiers à long terme, au stockage d'anciennes données de synchronisation et de partage et d'autres données anciennes.

Question : Quelles performances S3 standard – Accès peu fréquent offre-t-il ?

S3 standard – Accès peu fréquent fournit la même latence de quelques millisecondes et les mêmes performances de débit élevé que la classe de stockage S3 standard. 

Question : Comment puis-je transférer mes données vers S3 standard – Accès peu fréquent ?

Vous pouvez transférer vos données vers S3 Standard – Accès peu fréquent de deux manières différentes. Vous pouvez exécuter directement une opération PUT sur vos données dans S3 Standard – Accès peu fréquent en indiquant STANDARD_IA dans l'en-tête x-amz-storage-class. Vous pouvez également définir des politiques de cycle de vie pour faire passer des objets de S3 standard à la classe de stockage S3 standard – Accès peu fréquent.

Q : Quels frais devrai-je payer si je fais passer un objet de la classe de stockage S3 standard – Accès peu fréquent à la classe S3 standard au moyen d'une demande COPY ?

Vous serez facturé pour une demande COPY S3 Standard (classe de stockage de destination) et pour une récupération de données S3 Standard–Accès peu fréquent (classe de stockage source). Pour plus d'informations, reportez-vous à la page de tarification Amazon S3.

Q : Existe-t-il des frais de durée de stockage minimum pour S3 Standard – Accès peu fréquent ?

S3 Standard – Accès peu fréquent est conçu pour les données à longue durée de vie consultées peu fréquemment et conservées pendant des mois ou des années. Les données supprimées de S3 Standard-IA dans les 30 jours seront facturées 30 jours complets. Référez-vous à la page de tarification Amazon S3 pour obtenir des informations sur la tarification de la classe S3 Standard-IA.

Q : Existe-t-il des frais minimums de stockage d'objets pour S3 Standard-IA ?

S3 Standard – Accès peu fréquent est conçu pour des objets plus importants et génère des frais de stockage d'objet minimum de 128 Ko. Les objets de taille inférieure à 128 Ko donneront lieu à des frais de stockage équivalents à ceux d'un objet de 128 Ko. Par exemple, un objet de 6 Ko dans S3 Standard-IA entraîne les frais de stockage de S3 Standard-IA pour 6 Ko, et des frais supplémentaires correspondant à la taille minimale de l'objet équivalant à 122 Ko au coût de stockage de S3 Standard-IA. Référez-vous à la page de tarification Amazon S3 pour obtenir des informations sur la tarification de la classe S3 Standard-IA.

Q : Puis-je faire passer des objets de S3 Standard-IA vers les classes de stockage S3 Unizone-IA ou S3 Glacier Flexible Retrieval ?

Oui. En plus d'utiliser des stratégies de cycle de vie pour faire migrer des objets depuis S3 Standard vers S3 Standard-IA, vous pouvez définir des stratégies de cycle de vie pour faire passer des objets depuis S3 Standard-IA vers les classes de stockage S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

Question : Qu'est-ce que la classe de stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent est une classe de stockage Amazon S3 que les clients peuvent utiliser pour stocker des objets dans une seule zone de disponibilité. La classe de stockage S3 unizone – Accès peu fréquent stocke les données de façon redondante dans cette seule zone de disponibilité afin d'offrir une option de stockage à un prix 20 % inférieur à celui du stockage S3 Standard – Accès peu fréquent géographiquement redondant qui stocke des données de façon redondante sur plusieurs zones de disponibilité géographiquement distinctes.

S3 unizone – Accès peu fréquent offre un accord de niveau de service (SLA) disponible à 99 % et est également conçu pour une durabilité à onze 9 dans la zone de disponibilité. Cependant, les données dans la classe de stockage S3 unizone – Accès peu fréquent ne résistent pas aux pertes physiques d'une zone de disponibilité entière.

Le stockage S3 unizone – Accès peu fréquent offre les mêmes fonctions Amazon S3 que S3 standard et S3 standard – Accès peu fréquent et est utilisé par les API Amazon S3, par la console Amazon S3 et par l'interface de ligne de commande Amazon S3. La classe de stockage S3 unizone – Accès peu fréquent est définie au niveau de l'objet et peut occuper le même compartiment que les classes de stockage S3 Standard et S3 Standard – Accès peu fréquent. Vous pouvez occuper les stratégies de cycle de vie S3 afin de faire passer automatiquement des objets d'une classe de stockage à l'autre sans rien changer aux applications.

Question : Quels sont les cas d'utilisation les mieux adaptés à la classe de stockage S3 unizone – Accès peu fréquent ?

Les clients peuvent utiliser la classe S3 unizone – Accès peu fréquent pour un stockage peu consulté, comme les copies de sauvegarde, les copies de reprise après sinistre ou d'autres données faciles à récréer.

Question : Quelles sont les performances du stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent offre les mêmes performances en termes de latence et de débit que les classes S3 standard et S3 Standard - Stockage avec accès peu fréquent.

Question : Quelle est la durabilité de la classe de stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent est conçue pour offrir une durabilité de 99,999999999 % au sein d'une zone de disponibilité. Cependant, les données dans la classe de stockage S3 unizone – Accès peu fréquent ne résistent pas à la perte de disponibilité ou à la perte physique d'une zone de disponibilité. Au contraire, les classes de stockage S3 standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access et S3 Glacier sont conçues pour éviter la perte de disponibilité ou résister à la destruction d'une zone de disponibilité. S3 unizone – Accès peu fréquent offre une durabilité et une disponibilité égales ou supérieures à celles de la plupart des centres de données physiques modernes tout en fournissant en plus l'avantage de l'élasticité du stockage et l'ensemble des fonctions d'Amazon S3.

Q : Est-ce qu'une « zone » S3 unizone – Accès peu fréquent est la même chose qu'une zone de disponibilité AWS ?

Oui. Chaque région AWS désigne une zone géographique séparée. Chaque région se compose de plusieurs emplacements isolés appelés zones de disponibilité. La classe de stockage Amazon S3 unizone – Accès peu fréquent utilise une seule zone de disponibilité AWS dans la région.

Question : En utilisant S3 unizone – Accès peu fréquent, à quelle protection de reprise après sinistre est-ce que je renonce ?

Chaque zone de disponibilité utilise une mise en réseau et une alimentation redondante. Au sein d'une région AWS, les zones de disponibilité se trouvent sur différentes plaines inondables et lignes d'activités sismiques et sont géographiquement séparées pour éviter les incendies. Les classes de stockage S3 standard et S3 standard – Accès peu fréquent offrent une protection contre ce genre de catastrophes en stockant vos données de façon redondante dans différentes zones de disponibilité. S3 unizone – Accès peu fréquent offre une protection contre les pannes d'équipement dans une zone de disponibilité, mais les données ne résistent pas à la perte physique de la zone de disponibilité liée à des catastrophes, comme des tremblements de terre et des inondations. Grâce aux options S3 unizone – Accès peu fréquent, S3 standard et S3 standard – Accès peu fréquent, vous pouvez choisir la classe de stockage qui répond au mieux aux besoins en durabilité et en disponibilité de votre stockage.

Classe de stockage Amazon S3 Glacier Instant Retrieval

Question : Qu'est-ce que la classe de stockage S3 Glacier Instant Retrieval ?

La classe de stockage S3 Glacier Instant Retrieval offre le stockage le plus économique pour les données à longue durée de vie, rarement consultées et nécessitant une récupération en quelques millisecondes. S3 Glacier Instant Retrieval offre l'accès le plus rapide au stockage d'archives, avec le même débit et le même accès en millisecondes que les classes de stockage S3 Standard et S3 standard – Accès peu fréquent. S3 Glacier Instant Retrieval est conçu pour une durabilité des données de 99,999999999 % (11 9s) et une disponibilité de 99,9 % en stockant de manière redondante les données dans au moins trois zones de disponibilité AWS physiquement séparées.

Question : Pourquoi choisir d'utiliser S3 Glacier Instant Retrieval ?

S3 Glacier Instant Retrieval est idéal si vous avez des données rarement consultées (une fois par trimestre) et qui nécessitent un délai de récupération de quelques millisecondes. Cette classe de stockage est idéale si vous souhaitez la même faible latence et les mêmes performances de débit élevé que S3 Standard – Accès peu fréquent, tout en stockant les données moins fréquemment consultées que S3 Standard – Accès peu fréquent avec un prix de stockage inférieur et des coûts d'accès aux données légèrement supérieurs.

Question : Quelles sont les performances de S3 Glacier Instant Retrieval en matière de durabilité et de disponibilité ?

S3 Glacier Instant Retrieval est conçu pour une durabilité de 99,999999999 % (11 9s) et une disponibilité de 99,9%, tout comme S3 Standard – Accès peu fréquent, et dispose d'un contrat de niveau de service offrant des crédits de service en cas de disponibilité inférieure à 99 % au cours de n'importe quel cycle de facturation.

Question : Quelles performances S3 Glacier Instant Retrieval offre-t-il ?

S3 Glacier Instant Retrieval fournit la même latence de quelques millisecondes et les mêmes performances de débit élevé que les classes de stockage S3 Standard et S3 Standard – Accès peu fréquent. À la différence des classes de stockage S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive, qui sont conçues pour un accès asynchrone, vous n'avez pas besoin d'émettre une demande de restauration (RESTORE) avant d'accéder à un objet stocké dans S3 Glacier Instant Retrieval.

Question : Comment puis-je transférer mes données vers S3 Glacier Instant Retrieval ?

Vous pouvez transférer vos données vers S3 Glacier Instant Retrieval de deux manières différentes. Vous pouvez les placer (PUT) directement dans S3 Glacier Instant Retrieval en spécifiant GLACIER_IR dans l'en-tête x-amz-storage-class, ou définir les stratégies de cycle de vie S3 pour transférer des objets depuis S3 Standard ou S3 standard – Accès peu fréquent vers S3 Glacier Instant Retrieval.

Question : Existe-t-il des frais de durée de stockage minimum pour Amazon S3 Glacier Instant Retrieval ?

S3 Glacier Instant Retrieval est conçu pour les données à longue durée de vie consultées peu fréquemment et conservées pendant des mois ou des années. Les objets archivés dans S3 Glacier Instant Retrieval sont stockés pendant 90 jours au minimum, et les objets supprimés avant le délai de 90 jours font l'objet de frais appliqués au prorata équivalents aux frais de stockage pour les jours restants. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification d'Amazon S3 Glacier Instant Retrieval.

Question : Existe-t-il des frais de durée de taille d'objet minimum pour Amazon S3 Glacier Instant Retrieval ?

S3 Glacier Instant Retrieval est conçu pour des objets plus importants et génère des frais de stockage d'objet minimum de 128 Ko. Les objets de taille inférieure à 128 Ko donneront lieu à des frais de stockage équivalents à ceux d'un objet de 128 Ko. Par exemple, un objet de 6 Ko dans S3 Glacier Instant Retrieval entraîne les frais de stockage de S3 Glacier Instant Retrieval pour 6 Ko, plus des frais supplémentaires correspondant à la taille minimale de l'objet équivalant à 122 Ko au coût de stockage de S3 Glacier Instant Retrieval. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification d'Amazon S3 Glacier Instant Retrieval.

Question : Comment est facturée l'utilisation de S3 Glacier Instant Retrieval ?

Pour S3 Glacier Instant Retrieval, vous payez des frais mensuels pour le stockage, les requêtes en fonction de leur type et les extractions de données. Le volume de stockage facturé pour un mois dépend du volume de stockage moyen utilisé pendant le mois concerné. Il se mesure en gigaoctets par mois (Go-mois). Vous êtes facturé en fonction du type des requêtes (par ex., PUT, COPY et GET). Vous payez également des frais par Go pour chaque gigaoctet de données renvoyé vers vous. 

Classe de stockage Amazon S3 Glacier Flexible Retrieval

Question : Qu'est-ce que la classe de stockage S3 Glacier Flexible Retrieval ?

La classe de stockage S3 Glacier Flexible Retrieval offre un stockage à faible coût, jusqu'à 10 % moins cher (que S3 Glacier Instant Retrieval), pour les données d'archives consultées une à deux fois par an et récupérées de manière asynchrone, avec extractions en bloc gratuites. Pour les données d'archive qui ne nécessitent pas un accès immédiat mais qui ont besoin de la flexibilité nécessaire pour récupérer gratuitement de grands ensembles de données, tels que les cas d'utilisation liés à la sauvegarde ou à la reprise après sinistre, S3 Glacier Flexible Retrieval est la classe de stockage idéale. S3 Glacier Flexible Retrieval offre des options de récupération extrêmement souples, qui assurent le juste équilibre entre le coût, des temps d'accès allant de quelques minutes à quelques heures, et des extractions en bloc gratuites. Il s'agit d'une solution idéale pour la sauvegarde, la reprise après sinistre, les besoins de stockage de données hors site, et pour les cas où des données doivent être extraites en quelques minutes et que vous ne voulez pas vous soucier des coûts. S3 Glacier Flexible Retrieval est conçu pour une durabilité des données de 99,999999999 % (11 9s) et une disponibilité de 99,99 % en stockant de manière redondante les données dans plusieurs zones de disponibilité AWS physiquement séparées au cours d'une année donnée.

Question : Pourquoi choisir d'utiliser la classe de stockage S3 Glacier Flexible Retrieval ?

Pour les données d'archive qui ne nécessitent pas un accès immédiat mais qui ont besoin de la flexibilité nécessaire pour récupérer gratuitement de grands ensembles de données, tels que les cas d'utilisation liés à la sauvegarde ou à la reprise après sinistre, S3 Glacier Flexible Retrieval est la classe de stockage idéale. S3 Glacier Flexible Retrieval offre des options de récupération extrêmement souples, qui assurent le juste équilibre entre le coût, des temps d'accès allant de quelques minutes à quelques heures, et des extractions en bloc gratuites. Il s'agit d'une solution idéale pour la sauvegarde, la reprise après sinistre, les besoins de stockage de données hors site, et pour les cas où des données doivent être extraites en quelques minutes et que vous ne voulez pas vous soucier des coûts de récupération des données.

Question : Comment puis-je transférer mes données vers S3 Glacier Flexible Retrieval ?

Vous pouvez transférer vos données vers S3 Glacier Flexible Retrieval de deux manières différentes. Vous pouvez exécuter directement une opération PUT sur vos données dans S3 Glacier Flexible Retrieval en indiquant GLACIER dans l'en-tête x-amz-storage-class. Vous pouvez également utiliser les stratégies de cycle de vie S3 pour transférer des données entre toute Classe de stockage S3 pour les données actives (S3 Standard, S3 Intelligent-Tiering, S3 Standard – Accès peu fréquent et S3 unizone – Accès peu fréquent et S3 Glacier Instant Retrieval) vers Amazon S3 Glacier Flexible Retrieval en fonction de l'âge de l'objet. Utilisez la console de gestion d'Amazon S3, les kits de développement logiciel (SDK) AWS ou les API d'Amazon S3 pour exécuter directement une opération PUT sur vos données vers Amazon S3 Glacier définir des règles d'archivage.

Remarque : S3 Glacier Flexible Retrieval est également disponible via les API Glacier directes d'origine et via la console de gestion Amazon S3 Glacier. Pour une expérience amélioré complète avec un accès à toutes les fonctions S3 définies, y compris la gestion du cycle de vie, la réplication S3, les lentilles de stockage S3, etc., nous vous recommandons d'utiliser les API S3 et la console de gestion S3 pour l'utilisation des fonctions S3 Glacier.

Question : Comment puis-je récupérer mes objets archivés dans S3 Glacier Flexible Retrieval et serai-je averti lorsque l'objet sera restauré ?

Les objets archivés dans S3 Glacier Flexible Retrieval sont accessibles de manière asynchrone. Pour extraire les données stockées dans la catégorie de stockage S3 Glacier Flexible Retrieval, lancez une demande d'extraction à l'aide des API d'Amazon S3 ou de la console Amazon S3. La demande d'extraction crée une copie temporaire de vos données dans la classe de stockage S3 Standard tout en laissant les données archivées intactes dans S3 Glacier Flexible Retrieval. Vous pouvez définir la période (en jours), durant laquelle la copie temporaire est conservée dans Amazon S3. Vous pouvez ensuite accéder à votre copie temporaire dans S3, via une requête Amazon S3 GET sur l'objet archivé. Dans les régions AWS où le coût du stockage à redondance réduite est inférieur à celui de S3 Standard, les données temporairement disponibles sont facturées en tant que stockage à redondance réduite. Cependant, la classe de stockage de facturation à redondance réduite ne reflète pas la façon dont les données sont stockées.

Avec les notifications de restauration, vous pouvez désormais recevoir une Notification d'événement S3 lorsqu'un objet a été restauré avec succès à partir de S3 Glacier Flexible Retrieval et que la copie temporaire est mise à votre disposition. Le propriétaire du compartiment (ou d'autres personnes, comme le permet une politique IAM) peut faire en sorte que les notifications soient envoyées à Amazon Simple Queue Service (SQS) ou à Amazon Simple Notification Service (SNS). Les notifications peuvent également être envoyées à AWS Lambda pour être traitées par une fonction Lambda.

Question : Combien de temps faut-il pour restaurer mes objets archivés dans Amazon S3 Glacier Flexible Retrieval ?

Lorsqu'il traite une tâche d'extraction, Amazon S3 extrait d'abord les données demandées de S3 Glacier Flexible Retrieval, puis crée une copie temporaire des données demandées dans Amazon S3. Cela prend généralement quelques minutes. Le temps d'accès de votre demande dépend de l'option d'extraction que vous avez choisie : extraction rapide, standard ou en bloc. Les données consultées à l'aide des extractions rapides sont habituellement disponibles après 1 à 5 minutes, sauf pour les objets plus importants (plus de 250 Mo). L'extraction standard des objets prend généralement entre 3 et 5 heures. Les récupérations standard commencent généralement en quelques minutes lorsqu'elles sont lancées à l'aide de S3 Batch Operations. Les récupérations en bloc prennent généralement entre 5 et 12 heures, et sont gratuites. Pour en savoir plus sur les options d'extraction de S3 Glacier Flexible Retrieval, référez-vous à la section de restauration d'un objet archivé dans le guide de l'utilisateur S3.

Avec les unités de capacité allouées de la classe de stockage S3 Glacier, vous pouvez payer des frais initiaux fixes pour un mois donné afin de garantir la disponibilité de la capacité de récupération pour les récupérations accélérées à partir de S3 Glacier Flexible Retrieval. Vous pouvez acheter deux unités de capacité allouées par mois pour augmenter la quantité de données que vous pouvez récupérer. Chaque unité de capacité garantit qu'au moins trois extractions rapides soient exécutées toutes les cinq minutes, et offre jusqu'à 150 Mo/s de débit d'extraction. Si votre application nécessite un accès hautement fiable et prévisible à un sous-ensemble de vos données en quelques minutes, vous devriez acheter une capacité d'extraction allouée. Sans capacité allouée, des extractions expéditives pourraient ne pas être acceptées pendant les périodes de grande demande. Si vous avez besoin d'extractions expéditives à tout moment, nous vous recommandons d'acheter une capacité d'extraction allouée.

Vous pouvez acheter une capacité allouée à l'aide de la console Amazon S3, l'API REST d'achat de capacité allouée, les kits de développement (SDK) AWS ou AWS CLI. Une unité de capacité allouée a une période d'expiration d'un mois dès la date et l'heure de l'achat. Il s'agit de la date d'entrée en vigueur. L'unité expire à la date d'expiration, exactement un mois après la date d'entrée en vigueur à la seconde près. Pour des renseignements sur la tarification des capacités allouées, consultez la section de Tarification Amazon S3.

Question : Comment les frais de stockage pour les objets Amazon S3 archivés dans S3 Glacier Flexible Retrieval sont-ils calculés ?

Le volume de stockage facturé pour un mois dépend du volume de stockage moyen utilisé pendant le mois concerné. Il se mesure en gigaoctets par mois (Go-mois). Amazon S3 calcule la taille de l'objet correspondant à la quantité de données que vous avez stockée, à laquelle s'ajoutent 32 Ko de données S3 Glacier et 8 Ko de classe stockage S3 Standard supplémentaires. S3 Glacier Flexible Retrieval a besoin de 32 Ko de données supplémentaires par objet pour l'index et les métadonnées de S3 Glacier, afin que vous puissiez identifier et récupérer vos données. Amazon S3 requiert 8 Ko pour stocker et tenir à jour le nom défini par l'utilisateur et les métadonnées correspondant aux objets archivés dans S3 Glacier Flexible Retrieval. Vous pouvez ainsi obtenir la liste en temps réel de tous vos objets Amazon S3, y compris ceux qui sont stockés à l'aide de la classe de stockage S3 Glacier Flexible Retrieval, en utilisant l'API LIST d'Amazon S3 ou le rapport d'inventaire S3.

Par exemple, si vous avez archivé 100 000 objets de 1 Go chacun, les frais applicables au stockage seront les suivants :
1,000032 gigaoctets par objet x 100 000 objets = 100 003,2 gigaoctets de stockage dans S3 Glacier.
0,000008 gigaoctet par objet x 100 000 objets = 0,8 gigaoctet de stockage dans S3 Standard.

Le tarif est calculé sur la base des tarifs en vigueur pour votre région AWS, qui sont indiqués sur la page de tarification Amazon S3. Pour des exemples de facturation S3 supplémentaires, consultez nos FAQ sur la facturation S3 ou utilisez le calculateur de tarification AWS.

Q : Existe-t-il une durée minimale de stockage et des frais de stockage d'objets minimum pour Amazon S3 Glacier Flexible Retrieval ?

Les objets qui sont archivés dans S3 Glacier Flexible Retrieval ont une durée de stockage minimale de 90 jours. Les objets supprimés, écrasés ou transférés avant 90 jours seront facturés au prorata pour les frais de stockage des jours restants.

S3 Glacier Flexible Retrieval exige également 40 Ko de métadonnées supplémentaires pour chaque objet archivé. Cela comprend 32 Ko de métadonnées facturées au tarif S3 Glacier Flexible Retrieval nécessaire pour identifier et récupérer vos données. Et un supplément de 8 Ko de données facturé au tarif S3 Standard qui est nécessaire pour maintenir le nom et les métadonnées définis par l'utilisateur pour les objets archivés sur S3 Glacier Flexible Retrieval. Vous pouvez ainsi obtenir la liste en temps réel de tous vos objets S3 à l'aide de l'API S3 LIST ou du rapport d'inventaire S3. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de Amazon S3 Glacier Flexible Retrieval. 

Q : Combien coûte l'extraction de données à partir d'Amazon S3 Glacier Flexible Retrieval ?

Il existe trois moyens de récupérer les données à partir de S3 Glacier Flexible Retrieval : récupération accélérée, récupération standard et récupération en bloc. Les modes accéléré et standard offrent des frais de récupération par Go et des frais par requête (en d'autres termes, vous payez les requêtes effectuées sur vos objets Amazon S3). La récupération en bloc depuis S3 Glacier Flexible Retrieval est gratuite. Pour une tarification détaillée de S3 Glacier selon la région AWS, veuillez consulter la page de tarification Amazon S3 Glacier.

Question : Amazon S3 comporte-t-il des fonctions permettant d'archiver des objets afin de réduire le coût des classes de stockage ?

Les classes de stockage Amazon S3 Glacier sont spécialement conçues pour l'archivage de données et vous offrent les meilleures performances, la plus grande flexibilité de récupération et le stockage d'archives le plus économique du cloud. Vous pouvez désormais choisir parmi trois classes de stockage d'archives optimisées pour différents modèles d'accès et durées de stockage. Pour les données d'archives nécessitant un accès immédiat, telles que les images médicales, les ressources des médias d'information ou les données génomiques, choisissez la classe de stockage S3 Glacier Instant Retrieval, une classe de stockage d'archives qui offre le stockage le plus économique avec une récupération en quelques millisecondes. Pour les données d'archives qui ne nécessitent pas un accès immédiat, mais qui ont besoin de la flexibilité nécessaire pour récupérer gratuitement de grands ensembles de données, comme dans les cas de sauvegarde ou de reprise après sinistre, choisissez S3 Glacier Flexible Retrieval (anciennement S3 Glacier), avec une récupération en quelques minutes ou des récupérations en bloc gratuites en 5 à 12 heures. Pour économiser encore plus sur le stockage d'archives de longue durée, comme les archives de conformité et la préservation des médias numériques, choisissez S3 Glacier Deep Archive, le stockage le plus économique du cloud avec une récupération des données en 12 heures.

Question : Comment l'infrastructure backend prend-elle en charge les classes de stockage S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive ?

Nous préférons nous concentrer sur les résultats pour le client en termes de performance, de durabilité, de disponibilité et de sécurité. Toutefois, cette question est souvent posée par nos clients. Nous utilisons un certain nombre de technologies différentes qui nous permettent de proposer les tarifs que nous pratiquons actuellement avec les clients. Nos services ont été élaborés à l'aide de technologies de stockage de données couramment utilisées : ces dernières sont spécifiquement regroupées dans des systèmes dédiés et optimisés en matière de coûts grâce aux logiciels développés par AWS. Les classes de stockage S3 Glacier optimisent la séquence d'entrées et de sorties afin d'accroître l'efficacité de l'accès au stockage sous-jacent.

Amazon S3 Glacier Deep Archive

Question : Qu'est-ce que la classe de stockage Amazon S3 Glacier Deep Archive ?

S3 Glacier Deep Archive est une classe de stockage Amazon S3 qui offre un stockage d'objets durable et sécurisé pour la conservation des données sur le long terme et un accès à ces dernières une ou deux fois par an. Avec un tarif de départ de 0,00099 USD par Go-mois seulement (moins d'un centième de centime, soit un peu moins de 1 USD par To-mois), S3 Glacier Deep Archive propose le stockage dans le cloud le moins cher, à des prix bien moins élevés que si vous stockiez et entreteniez vos données dans des bibliothèques de bandes magnétiques sur site ou que si vous archiviez vos données hors site.

Question : Quels sont les cas d'utilisation les mieux adaptés à la classe de stockage S3 Glacier Deep Archive ?

S3 Glacier Deep Archive est la classe de stockage idéale pour offrir une protection hors ligne aux ressources de données de votre entreprise les plus importantes. Elle permet également de conserver les données à long terme lorsque la politique de l'entreprise, des exigences contractuelles ou des règlements l'imposent. Les clients considèrent que S3 Glacier Deep Archive est un excellent choix pour protéger les principaux droits de propriété intellectuelle, les dossiers financiers et médicaux, les résultats de la recherche, les documents juridiques, les études d'exploration sismique, les sauvegardes à long terme, principalement dans les industries hautement règlementées comme les services financiers, la santé, le pétrole et le gaz, et le secteur public. De plus, certaines organisations, comme les sociétés multimédia et de divertissement, veulent conserver une copie de sauvegarde des principaux droits de propriété intellectuelle. Bien souvent, les clients S3 Glacier Deep Archive peuvent réduire ou supprimer l'utilisation des bibliothèques de bandes magnétiques sur site et des services d'archives sur bandes hors site.

En quoi la classe de stockage S3 Glacier Deep Archive est-elle différente des classes de stockage S3 Glacier Instant Retrieval et S3 Glacier Flexible Retrieval ?

Grâce à S3 Glacier Deep Archive, nos offres d'archivage de données sont étendues : vous pouvez sélectionner la classe de stockage optimale en fonction des coûts de stockage et d'extraction, ainsi que des délais d'extraction. Choisissez la classe de stockage S3 Glacier Instant Retrieval lorsque vous avez besoin d'accéder en quelques millisecondes aux archives de données à un prix réduit. Pour les données d'archives qui ne nécessitent pas un accès immédiat, mais qui ont besoin de la flexibilité nécessaire pour récupérer gratuitement de grands ensembles de données, comme dans les cas de sauvegarde ou de reprise après sinistre, choisissez S3 Glacier Flexible Retrieval (anciennement S3 Glacier), avec une récupération en quelques minutes ou des récupérations en bloc gratuites en 5 à 12 heures. La technologie S3 Glacier Deep Archive, quant à elle, a été conçue pour les données froides auxquelles vous accéderez peu ou pas du tout, mais qui ont quand même besoin d'un stockage durable sur le long terme. S3 Glacier Deep Archive est jusqu’à 75 % moins cher que S3 Glacier Flexible Retrieval et permet une extraction en 12 heures en utilisant le niveau de récupération standard. Les récupérations standard commencent généralement dans les 9 heures lorsqu’elles sont lancées à l’aide de S3 Batch Operations. Pour réduire les coûts d’extraction, vous pouvez sélectionner l’extraction en bloc qui renvoie les données dans un délai de 48 heures.

Question : Comment puis-je commencer à utiliser S3 Glacier Deep Archive ?

Pour stocker des données dans S3 Glacier Deep Archive, le moyen le plus simple est de charger directement des données à l'aide de l'API S3. Il vous suffit de spécifier « S3 Glacier Deep Archive » en tant que classe de stockage. Pour ce faire, vous pouvez vous servir de la console de gestion AWS, l'API REST S3, les kits SDK AWS ou l'interface de ligne de commande AWS.

Vous pouvez également commencer à utiliser S3 Glacier Deep Archive en créant des politiques de migration des données à l'aide du cycle de vie S3. Grâce à ce dernier, vous pouvez définir le cycle de vie de votre objet et réduire le coût de stockage. Ces politiques peuvent être configurées de manière à migrer les objets dans S3 Glacier Deep Archive en fonction de l'âge de l'objet. Vous pouvez définir la politique pour un compartiment S3 ou pour des préfixes spécifiques. Les transitions du cycle de vie sont facturées au prix du chargement S3 Glacier Deep Archive.

La passerelle de bande, une fonctionnalité de bibliothèque de bandes virtuelles basée sur le cloud au sein de AWS Storage Gateway, s'intègre désormais à S3 Glacier Deep Archive. Grâce à cette intégration, vous pouvez stocker à long terme vos sauvegardes et archives basées sur des bandes virtuelles dans S3 Glacier Deep Archive. Il s'agit de la solution de stockage dans le cloud la moins coûteuse pour ces données. Pour commencer, créez une nouvelle bande virtuelle à l'aide de la console ou de l'API AWS Storage Gateway, puis définissez la cible de stockage d'archivage sur S3 Glacier Flexible Retrieval ou S3 Glacier Deep Archive. Lorsque votre application de sauvegarde éjecte la bande, celle-ci est archivée dans la cible de stockage sélectionnée.

Question : Quelles sont les recommandations pour migrer des données depuis des archives sur bandes existantes vers S3 Glacier Deep Archive ?

Il existe différentes façons de migrer des données depuis des archives sur bandes existantes vers S3 Glacier Deep Archive. Pour l'intégration avec des applications de sauvegarde existantes, vous pouvez utiliser la passerelle de bandes AWS à l'aide de l'interface de la bibliothèque de bandes virtuelles (VTL). Cette interface présente des bandes virtuelles à l'application de sauvegarde. Celles-ci peuvent être immédiatement utilisées pour stocker des données dans Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive.

Pour migrer les données, vous pouvez également utiliser AWS Snowball. Snowball accélère le transfert de téraoctets et de pétaoctets de données vers et depuis AWS à l’aide d’appareils de stockage sécurisés pour le transport. Grâce à Snowball, vous pouvez surmonter les difficultés rencontrées lors d’importants transferts de données, en particulier les coûts de réseau élevés, la durée des transferts et les problèmes de sécurité.

Pour finir, vous pouvez utiliser AWS Direct Connect pour établir des connexions réseau dédiées depuis votre environnement sur site vers AWS. Généralement, AWS Direct Connect peut réduire les coûts de réseau, augmenter le débit de bande passante et fournir une expérience réseau plus cohérente que les connexions basées sur Internet.

Question : Comment puis-je récupérer mes objets stockés dans S3 Glacier Deep Archive ?

Pour extraire les données stockées dans S3 Glacier Deep Archive, vous pouvez lancer une demande de restauration à l'aide des API Simple Storage Service (Amazon S3) ou de la console de gestion Simple Storage Service (Amazon S3). La restauration crée une copie temporaire de vos données dans la classe de stockage S3 Standard tout en laissant les données archivées intactes dans S3 Glacier Deep Archive. Vous pouvez définir la période (en jours), durant laquelle la copie temporaire est conservée dans S3. Vous pouvez ensuite accéder à votre copie temporaire dans S3, via une requête Amazon S3 GET sur l'objet archivé.

Lorsque vous restaurez un objet archivé, vous pouvez spécifier l'une des options suivantes dans l'élément Tier du corps de la demande : le niveau Standard est le niveau par défaut et vous permet d'accéder à tous vos objets archivés dans les 12 heures, les extractions commençant généralement dans les 9 heures lorsqu'elles sont lancées à l'aide de S3 Batch Operations. Le traitement en masse vous permet de récupérer de grandes quantités de données, même des pétaoctets de données, à peu de frais et généralement en 48 heures.

Question : Comment l'utilisation de S3 Glacier Deep Archive est-elle facturée ?

Le stockage S3 Glacier Deep Archive est facturé en fonction de la quantité de données stockées en Go, du nombre de demandes de transition PUT ou de cycle de vie, des extractions en Go, et du nombre de demandes de restauration. Le modèle tarifaire est similaire à celui de S3 Glacier Flexible Retrieval. Référez-vous à la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

Q : Comment mon utilisation de S3 Glacier Deep Archive sera-t-elle présentée sur ma facture AWS et dans l'outil Gestion des coûts AWS ?

L'utilisation de S3 Glacier Deep Archive et le coût qui en résulte s'affichent sur une ligne de service indépendante dans votre facture mensuelle AWS. Cet élément tarifaire est donc séparé de l'utilisation et des coûts liés à Amazon S3. En revanche, dans les rapports détaillés sur les dépenses mensuelles générés par l'outil Gestion des coûts AWS, l'utilisation et les coûts de S3 Glacier Deep Archive sont inclus dans l'utilisation et les coûts généraux d'Amazon S3. Ils ne font donc pas l'objet d'une ligne de service séparée.

Q : Existe-t-il une durée minimale de stockage et des frais minimums de stockage d'objets pour S3 Glacier Deep Archive ?

Les objets qui sont archivés dans S3 Glacier Deep Archive ont une durée de stockage minimale de 180 jours. Les objets supprimés, écrasés ou transférés avant 180 jours seront facturés au prorata pour les frais de stockage des jours restants.

S3 Glacier Deep Archive exige également 40 Ko de métadonnées supplémentaires pour chaque objet archivé. Cela comprend 32 Ko de métadonnées facturées au tarif S3 Glacier Deep Archive nécessaire pour identifier et récupérer vos données. Et un supplément de 8 Ko de données facturé au tarif S3 Standard qui est nécessaire pour maintenir le nom et les métadonnées définis par l'utilisateur pour les objets archivés sur S3 Glacier Deep Archive. Vous pouvez ainsi obtenir la liste en temps réel de tous vos objets S3 à l'aide de l'API S3 LIST ou du rapport d'inventaire S3. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

Q : Comment S3 Glacier Deep Archive s'intègre-t-il aux autres services AWS ?

S3 Glacier Deep Archive s'intègre aux fonctions Amazon S3, dont S3 Object Tagging, les politiques de cycle de vie S3, S3 Object Lock et S3 Replication. Grâce aux fonctions de gestion du stockage S3, vous pouvez utiliser un seul compartiment Amazon S3 pour stocker une combinaison des données S3 Glacier Deep Archive, S3 Standard, S3 Standard – Accès peu fréquent, S3 unizone – Accès peu fréquent et S3 Glacier Flexible Retrieval. Les administrateurs du stockage peuvent ainsi prendre des décisions en fonction de la nature des données et des tendances d'accès à ces dernières. Les clients peuvent utiliser les politiques de cycle de vie d'Amazon S3 pour migrer automatiquement les données vers des classes de stockage plus économiques à mesure que les données prennent de l'âge, ou les politiques de réplication entre régions S3 ou à l'intérieur d'une même région pour répliquer les données dans une autre région ou dans la même région.

Le service AWS Storage Gateway intègre désormais la passerelle de bande avec la classe de stockage Amazon S3 Glacier Deep Archive. Vous pouvez donc stocker des bandes virtuelles dans la classe de stockage Amazon S3 au coût le plus bas, réduisant ainsi jusqu'à 75 % le coût mensuel de stockage de vos données à long terme dans le cloud. Avec cette fonctionnalité, la passerelle de bande prend en charge l'archivage de vos nouvelles bandes virtuelles directement dans S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive, ce qui vous permet de répondre à vos exigences en matière de sauvegarde, d'archivage et de restauration. La passerelle de bande vous aide à déplacer des sauvegardes sur bande vers AWS sans apporter de modification à vos flux de travail de sauvegarde existants. Elle est compatible avec la plupart des applications de sauvegarde comme Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (sur le système d'exploitation Windows) et Microsoft Data Protection Manager.

S3 sur Outposts

Question : Qu'est-ce qu'Amazon S3 sur Outposts ?

Amazon S3 sur Outposts fournit un stockage d'objets dans votre environnement sur site, à l'aide des fonctionnalités et API S3 que vous utilisez aujourd'hui sur AWS. AWS Outposts est un service entièrement géré qui permet d'étendre l'infrastructure, les services, les API et les outils API AWS à pratiquement n'importe quels centres de données, espaces en colocalisation ou installations sur site. Grâce à S3 sur Outposts, vous pouvez traiter et stocker de manière sécurisée les données client générées sur site avant de les déplacer vers une région AWS. Vous pouvez également accéder aux données localement pour les applications qui s'exécutent sur site, ou stocker les données sur votre Outpost pour les entreprises situées dans des zones avec des exigences de résidence de données ou les entreprises appartenant à des secteurs règlementés. Pour en savoir plus sur S3 sur Outposts, consultez la page de présentation.
 

Gestion du stockage

Balises d'objet S3

Question : Que sont les balises d'objet S3 ?

Les identifications d'objet S3 sont des paires clé-valeur appliquées aux objets S3, qui peuvent être créées, téléchargées ou supprimées à tout moment de la durée de vie de l'objet. Elles vous donnent la possibilité de créer des politiques Identity and Access Management (IAM), de configurer des politiques de gestion du cycle de vie S3 et de personnaliser les métriques de stockage. Ces identifications au niveau de l'objet peuvent ensuite gérer les transitions entre les classes de stockage et faire expirer des objets en arrière-plan. Vous pouvez ajouter des balises à de nouveaux objets lorsque vous les chargez ou les ajoutez à des objets existants. Jusqu'à dix balises peuvent être ajoutées à chaque objet S3. De plus, vous pouvez utiliser la console de gestion AWS, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS pour ajouter des balises d'objet. 

Pour en savoir plus, consultez le guide de l'utilisateur de balises d'objet S3.

Question : Pourquoi utiliser les balises d'objet ?

Les balises d'objet sont un outil qui vous permet de profiter d'une gestion simplifiée de votre stockage S3. Vous avez la possibilité de créer, de mettre à jour et de supprimer les balises à tout moment pendant la durée de vie de l'objet. Ainsi, votre stockage peut s'adapter aux besoins de votre entreprise. Ces balises vous permettent de contrôler l'accès aux objets étiquetés avec des paires clé-valeur spécifiques, et de protéger ainsi les données confidentielles d'un groupe ou d'un utilisateur particulier. Des balises d'objet peuvent également être utilisées pour étiqueter des objets qui appartiennent à un projet ou à une unité opérationnelle spécifique. Ces balises peuvent être associées à des stratégies de cycle de vie S3 pour gérer les transitions vers d'autres classes de stockage (S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive) ou avec la réplication S3 pour répliquer des données de manière sélective entre des régions AWS.

Q : Comment mettre à jour les balises d'objet appliquées à mes objets ?

Les balises d'objet peuvent être modifiées à tout moment pendant la durée de vie de votre objet S3. Pour ce faire, utilisez la console de gestion AWS, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS. Notez que toutes les modifications apportées aux balises en dehors de la console de gestion AWS sont appliquées à l'ensemble complet de balises. Si cinq balises sont associées à un objet particulier et si vous souhaitez en ajouter une sixième, vous devez inclure les cinq balises d'origine dans votre demande.

Question : Combien coûtent les balises d'objet ?

Le prix des balises d'objet est basé sur la quantité de balises à laquelle s'ajoute le coût de la demande d'ajout de balises. Les demandes associées à l'ajout et à la mise à jour de balises d'objet sont facturées de la même manière que les demandes existantes. Pour en savoir plus, référez-vous à la page de tarification Amazon S3.

Q : Comment démarrer avec la fonction d'analyse de la classe de stockage ?

Vous pouvez utiliser la console de gestion AWS ou l'API PUT Bucket Analytics S3 pour configurer une stratégie d'analyse de classe de stockage afin qu'elle identifie les stockages auxquels l'accès est rare et qui peuvent être transférés vers une classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent, ou archivés dans les classes de stockage S3 Glacier. Vous pouvez accéder à l'onglet « Management » dans la console S3 pour gérer les fonctions d'analyse de classe de stockage, S3 Inventory, ainsi que les métriques CloudWatch relatives à S3.

S3 Inventory

Question : Qu'est-ce que la fonction S3 Inventory ?

La fonction S3 Inventory constitue une alternative planifiée à l'API List synchrone d'Amazon S3. Vous pouvez configurer la fonction d'inventaire S3 pour fournir, chaque jour ou chaque semaine, un fichier de sortie au format CSV, ORC ou Parquet à partir de vos objets, et des métadonnées qui sont associées à ceux-ci, pour un compartiment S3 ou un préfixe. Vous pouvez simplifier et accélérer les flux de travail d'entreprise et les tâches de Big Data à l'aide de la fonction S3 Inventory. Vous pouvez utiliser la fonction S3 Inventory pour vérifier le chiffrement et l'état de la réplication de vos objets, afin de répondre aux besoins commerciaux, de conformité et de réglementation. Pour en savoir plus, consultez le guide de l'utilisateur d'Amazon S3 Inventory.

Question : Comment démarrer avec la fonction S3 Inventory ?

Vous pouvez utiliser la console de gestion AWS ou l'API PUT Bucket Inventory Configuration pour configurer un rapport d'inventaire quotidien ou hebdomadaire pour tous les objets de votre compartiment S3 ou un sous-ensemble des objets sous un préfixe partagé. Dans le cadre de la configuration, vous pouvez préciser un compartiment S3 de destination pour votre rapport d'inventaire S3, le format du fichier de sortie (CSV, ORC ou Parquet) et les métadonnées objet spécifiques nécessaires à votre application d'entreprise (par ex. : nom d'objet, taille, date de la dernière modification, classe de stockage, ID de version, marqueur de suppression, balise d'ancienne version, indicateur de chargement partitionné, état de la réplication ou état du chiffrement). Vous pouvez utiliser la fonction S3 Inventory comme saisie directe dans vos flux de travail d'application ou vos tâches Big Data. Vous pouvez également interroger la fonction S3 Inventory en utilisant le langage SQL standard avec Amazon Athena, Amazon Redshift Spectrum et d'autres outils comme Presto, Hive et Spark.

Pour en savoir plus, consultez le guide de l'utilisateur d'Amazon S3 Inventory.

Q : Comment l'utilisation de la fonction S3 Inventory m'est-elle facturée ?

Référez-vous à la page de tarification Amazon S3 pour connaître la tarification de la fonction Inventory S3. Une fois que vous avez configuré le chiffrement à l'aide de SSE-KMS, vous encourez des frais KMS pour le chiffrement. Pour en savoir plus, référez-vous à la page de tarification de KMS.

S3 Batch Operations

Question : Qu'est-ce que S3 Batch Operations ?

S3 Batch Operations (Opérations par lots) est une fonctionnalité que vous pouvez utiliser pour automatiser l'exécution d'une seule opération (comme copier un objet ou exécuter une fonction AWS Lambda) entre plusieurs objets. Avec S3 Batch Operations, vous pouvez, en seulement quelques clics, dans la console S3 ou dans une demande d'API unique, apporter des modifications à des milliards d'objets sans devoir écrire du code d'application personnalisé ou exécuter des clusters de calcul pour les applications de gestion du stockage. S3 Batch Operations n'administre pas seulement les opérations de stockage pour de nombreux objets ; il gère aussi les nouvelles tentatives, affiche la progression, envoie des notifications, fournit un rapport d'achèvement et il envoie des événements à AWS CloudTrail pour toutes les opérations effectuées sur vos objets cibles. S3 Batch Operations peut être utilisé depuis la console S3 ou via l'interface de ligne de commande et le kit SDK AWS. 

Pour en savoir plus, visitez la page de S3 Batch Operations ou le guide de l'utilisateur.

Question : Comment démarrer avec S3 Batch Operations ?

Vous pouvez démarrer avec S3 Batch Operations en accédant à la console Amazon S3, ou à l'aide de l'interface de ligne de commande ou du kit SDK AWS pour créer votre première tâche S3 Batch Operations. Une tâche S3 Batch Operations est constituée de la liste des objets sur lesquels agir et du type d'opération à effectuer (voir la liste complète d'opérations disponibles). Commencez par sélectionner un rapport S3 Inventory ou par fournir votre propre liste personnalisée d'objets sur lesquels S3 Batch Operations doit agir. Un rapport d'inventaire S3 Batch Operations est un fichier qui répertorie tous les objets stockés dans un compartiment ou un préfixe S3. Ensuite, vous choisissez parmi un ensemble d'opérations S3 prises en charge par S3 Batch Operations, par exemple, le remplacement d'ensembles de balises, la modification de listes ACL, la copie du stockage d'un compartiment vers un autre ou l'initiation d'une restauration depuis S3 Glacier Flexible Retrieval vers la classe de stockage S3 Standard. Vous pouvez personnaliser vos tâches S3 Batch Operations avec des paramètres spécifiques comme des valeurs de balise, des octrois de liste ACL et une durée de restauration. Pour personnaliser encore davantage vos actions de stockage, vous pouvez écrire votre propre fonction Lambda et appeler ce code à l'aide de S3 Batch Operations.

Une fois que vous avez créé votre tâche S3 Batch Operations, S3 Batch Operations traitera votre liste d'objets et enverra la tâche vers l'état « en attente de conformation », le cas échéant. Une fois que vous avez confirmé les détails de la tâche, S3 Batch Operations lance l'exécution de l'opération que vous avez spécifiée. Vous pouvez consulter la progression de votre tâche par programme ou via la console S3, et, une fois les opérations terminées, recevoir des notifications d'achèvement et consulter le rapport de fin qui détaille les modifications apportées à votre stockage.

Si vous souhaitez en savoir plus sur S3 Batch Operations, regardez les didacticielset consultez la documentation.

Question : Quels services de stockage électronique AWS ont été évalués selon la réglementation sur les services financiers ?

Pour les clients du secteur des services financiers, S3 Object Lock offre un support supplémentaire aux courtiers-négociants qui doivent conserver les enregistrements dans un format non effaçable et non réinscriptible pour satisfaire aux exigences des réglementations SEC 17a-4(f), FINRA 4511 ou CFTC 1.31. Vous pouvez facilement définir le délai de conservation des enregistrements pour conserver les archives réglementaires sous leur forme originale pendant la durée requise, et placer des suspensions juridiques pour conserver indéfiniment les données tant que la suspension n'est pas supprimée.

Question : Quelle documentation AWS soutient les exigences SEC 17a-4(f)(2)(i) et CFTC 1.31(c) pour notifier mon organisme de réglementation ?

Notifiez l'organisme de réglementation de votre choix sur l'utilisation d'Amazon S3 pour le stockage électronique, avec une copie de l'évaluation Cohasset. Aux fins de ces exigences, AWS n'est pas un tiers désigné (D3P). Veillez à sélectionner un D3P et à inclure ces informations dans votre notification à l'organisme de réglementation.

Métriques CloudWatch relatives à S3

Question : Comment démarrer avec les métriques CloudWatch relatives à S3 ?

Vous pouvez utiliser la console de gestion AWS pour activer la génération de métriques de demandes CloudWatch d'une minute pour votre compartiment S3, ou configurer des filtres pour les métriques à l'aide d'un préfixe, d'une identification d'objet ou d'un point d'accès. Vous pouvez également appeler l'API S3 PUT Bucket Metrics pour activer et configurer la publication de métriques de stockage S3. Les métriques de demande CloudWatch sont disponibles dans CloudWatch dans les 15 minutes suivant leur activation. Les métriques de stockage CloudWatch sont activées par défaut pour tous les compartiments et rapportés une fois par jour. En savoir plus sur les métriques Amazon CloudWatch pour Amazon S3.

Q : Quelles alarmes puis-je définir pour mes métriques de stockage ?

Vous pouvez utiliser CloudWatch pour définir des seuils pour n'importe quel décompte, minuteur ou taux de métriques de stockage, et déclencher une action en cas de dépassement de seuils. Par exemple, vous pouvez définir un seuil pour le pourcentage de réponses d'erreur 4xx et, lorsqu'au moins trois points de données dépassent le seuil, une alarme CloudWatch peut se déclencher pour avertir un ingénieur DevOps.

Q : Comment l'utilisation des métriques CloudWatch relatives à S3 m'est-elle facturée ?

Les métriques de stockage CloudWatch sont fournies gratuitement. Les métriques CloudWatch relatives à des demandes sont facturées comme les métriques personnalisées pour Amazon CloudWatch. Référez-vous à la page de tarification d'Amazon CloudWatch pour obtenir des informations générales sur la tarification des métriques CloudWatch relatives à S3.

Gestion du cycle de vie S3

Question : Qu'est-ce que la gestion du cycle de vie S3 ?

La gestion du cycle de vie S3 permet de définir le cycle de vie de votre objet avec une stratégie prédéfinie et de réduire vos frais de stockage. Vous pouvez définir une stratégie de transition de cycle de vie afin de faire automatiquement migrer des objets présents dans la classe de stockage S3 Standard vers les classes de stockage S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent et/ou S3 Glacier en fonction de l'ancienneté des données. Vous pouvez également définir des stratégies d'expiration du cycle de vie pour supprimer automatiquement les objets en fonction de leur ancienneté. Vous pouvez définir une stratégie d'expiration des chargements partitionnés afin de définir une date d'expiration pour les chargements partitionnés incomplets en fonction de leur ancienneté.

Pour en savoir plus, consultez le guide de l'utilisateur du cycle de vie S3.

Question : Comment définir une stratégie de gestion du cycle de vie S3 ?

Vous pouvez définir et administrer des stratégies de gestion du cycle de vie dans la console de gestion AWS, l'API REST S3, les kits SDK AWS ou la CLI (interface de ligne de commande) AWS. Vous pouvez spécifier la politique au niveau du préfixe ou du compartiment.

Q : comment puis-je utiliser la politique d'Amazon S3 relative au cycle de vie pour réduire mes coûts de stockage Amazon S3 ?

Avec les politiques de cycle de vie Amazon S3, vous pouvez configurer vos objets de sorte qu'ils soient migrés depuis la classe de stockage S3 Standard vers la classe de stockage S3 Standard – Accès peu fréquent ou S3 unizone – Accès peu fréquent, et/ou qu'ils soient archivés dans les classes de stockage S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval ou S3 Glacier Deep Archive.

Vous pouvez également définir une stratégie de cycle de vie S3 visant à supprimer des objets après un délai bien précis. Vous pouvez utiliser les options d'automatisation basées sur ces stratégies afin de réduire rapidement et facilement vos coûts de stockage, mais également pour gagner du temps. Dans chaque règle, vous pouvez définir un préfixe, une période, une transition vers S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive, et/ou un délai d'expiration. Par exemple, vous pouvez créer une règle afin que tous les objets dotés du préfixe commun « logs/ » soient archivés dans S3 Glacier Flexible Retrieval 30 jours après leur création et expirent après 365 jours.

Vous pouvez également créer une règle distincte spécifiant que seuls les objets dotés du préfixe « backups/ » expirent 90 jours après leur création. Les stratégies de cycle de vie S3 s'appliquent aux objets S3 nouveaux et existants. Ainsi, vous pouvez optimiser le stockage et réaliser des économies maximales en termes de coûts pour toutes les données existantes et les nouvelles données placées dans S3, sans avoir besoin d'effectuer manuellement la vérification et la migration des données.

Au sein d'une règle de cycle de vie, le champ de préfixe identifie l'objet auquel la règle s'applique. Pour appliquer la règle à un objet individuel, spécifiez le nom de clé. Pour appliquer la règle à un ensemble d'objets, spécifiez leur préfixe commun (e.g. « logs/ »). Vous pouvez définir une action de transition pour que vos objets soient archivés, et une action d'expiration pour les supprimer. Pour définir une période, indiquez la date de création (par ex. : 31 janvier 2015) ou précisez le délai après lequel vous souhaitez que vos objets soient archivés ou supprimés, en spécifiant un nombre de jours à compter de la date de création (par ex. : 30 jours). Vous pouvez créer plusieurs règles pour différents préfixes.

Q : Comment est facturée l'utilisation de la gestion du cycle de vie S3 ?

Aucun frais supplémentaire n'est facturé pour la définition et l'application de politiques de gestion du cycle de vie. Une demande de transition est facturée par objet lorsqu'un objet devient éligible à une transition en fonction de la règle de cycle de vie. Reportez-vous à la page de tarification Amazon S3 pour en savoir plus sur la tarification.

Q : Pourquoi devrais-je utiliser une politique de cycle de vie S3 pour gérer l'expiration des chargements partitionnés incomplets ?

La stratégie de gestion du cycle de vie S3 gérant l'expiration des chargements partitionnés incomplets vous permet de faire des économies en limitant la durée de stockage des chargements partitionnés incomplets. Par exemple, si votre application charge plusieurs composants d'objet en plusieurs parties sans jamais les exécuter, vous serez tout de même facturé pour leur stockage. Cette stratégie réduit vos frais de stockage S3 en éliminant automatiquement les chargements partitionnés incomplets et l'espace de stockage associé après un nombre de jours prédéfini.

En savoir plus sur l'utilisation des cycles de vie S3 pour gérer l'expiration des chargements partitionnés »

Question : Puis-je configurer des notifications d'événements Amazon S3 pour envoyer des notifications lors des transitions du cycle de vie S3 ou à expiration des objets ?

Oui, vous pouvez configurer des notifications d'événements Amazon S3 pour vous avertir des transitions du cycle de vie S3 ou de l'expiration des objets. Par exemple, vous pouvez envoyer des notifications d'événements S3 à une rubrique Amazon SNS, une file d'attente Amazon SQS ou une fonction AWS Lambda lorsque le cycle de vie S3 déplace des objets vers une autre classe de stockage S3 ou lorsque des objets arrivent à expiration.

Analyses et informations sur le stockage

Question : Quelles fonctionnalités sont disponibles pour analyser mon utilisation du stockage sur Amazon S3 ?

S3 Storage Lens offre une visibilité à l'échelle organisationnelle sur l'utilisation du stockage d'objets et les tendances de l'activité. Il formule des recommandations concrètes pour optimiser les coûts et appliquer les bonnes pratiques de protection des données. S3 Storage Class Analysis vous permet de surveiller les modèles d'accès à travers les objets pour vous aider à décider quand transférer les données vers la bonne classe de stockage pour optimiser les coûts. Vous pouvez alors utiliser ces informations pour configurer une stratégie de Cycle de vie S3 et opérer le transfert de données. Amazon S3 Inventory fournit un rapport de vos objets et de leurs métadonnées correspondantes sur une base quotidienne ou hebdomadaire pour un compartiment ou un préfixe S3. Ce rapport peut être utilisé pour répondre aux besoins métier, de conformité et réglementaires en vérifiant le chiffrement et l'état de la réplication de vos objets.

Question : Qu'est-ce qu'Amazon S3 Storage Lens ?

Amazon S3 Storage Lens offre une visibilité à l'échelle organisationnelle sur l'utilisation du stockage d'objets et les tendances de l'activité, ainsi que des recommandations exploitables pour optimiser les coûts et appliquer les meilleures pratiques en matière de protection des données. Storage Lens propose un tableau de bord interactif comprenant une vue unique de votre utilisation et de votre activité de stockage d'objets sur des dizaines ou des centaines de comptes de votre organisation, avec des analyses en profondeur pour générer des informations à plusieurs niveaux d'agrégation. Cela inclut des métriques telles que les octets, le nombre d'objets et les demandes, ainsi que des métriques détaillant l'utilisation des fonctionnalités S3, telles que le nombre d'objets chiffrés et le décompte des règles du cycle de vie S3. S3 Storage Lens fournit également des recommandations contextuelles pour trouver des moyens de réduire les coûts de stockage et appliquer les meilleures pratiques en matière de protection des données sur des dizaines ou des centaines de comptes et de compartiments. Les métriques gratuites S3 Storage Lens sont activées par défaut pour les utilisateurs Amazon S3. Si vous souhaitez tirer un meilleur parti de S3 Storage Lens, vous pouvez activer des métriques et des recommandations avancées. Pour en savoir plus, consultez le guide de l'utilisateur de S3 Storage Lens.

Question : Comment fonctionne S3 Storage Lens ?

S3 Storage Lens regroupe quotidiennement les métriques d'utilisation de votre stockage et d'activité afin de les afficher dans le tableau de bord interactif de S3 Storage Lens, ou de les rendre disponibles sous forme d'exportation de métriques au format de fichier CVS ou Parquet. Un tableau de bord par défaut est créé automatiquement pour vous au niveau du compte, et vous avez la possibilité de créer des tableaux de bord personnalisés supplémentaires. Les tableaux de bord S3 Storage Lens peuvent être adaptés à votre organisation AWS ou à des comptes spécifiques, à des régions, à des compartiments ou même à un niveau de préfixe (disponible avec les métriques avancées S3 Storage Lens). Vous pouvez également utiliser les groupes S3 Storage Lens pour agréger des métriques à l'aide de filtres personnalisés basés sur les métadonnées de l'objet, telles que la balise, la taille et l'âge de l'objet. Lors de la configuration de votre tableau de bord, vous pouvez utiliser la sélection de métriques par défaut ou mettre à niveau votre système pour obtenir 35 métriques supplémentaires et des agrégations au niveau des préfixes, moyennant un coût supplémentaire. S3 Storage Lens fournit également des recommandations contextuelles avec des métriques de stockage dans le tableau de bord, afin de vous permettre de prendre certaines mesures pour optimiser votre stockage en fonction des métriques.

Question : À quelles questions clés les métriques de S3 Storage Lens peuvent-elles répondre ?

Le tableau de bord S3 Storage Lens est organisé autour de quatre principaux types de questions portant sur votre stockage auxquelles vous pouvez répondre. Avec le filtre Résumé, les questions de niveau supérieur liées à l'utilisation globale du stockage et aux tendances de l'activité peuvent être consultées. Par exemple, « à quelle vitesse mon nombre global d'octets et de demandes augmente-t-il au fil du temps ? » Avec le filtre Optimisation des coûts, vous pouvez explorer les questions liées à la réduction des coûts de stockage. Par exemple, « Puis-je économiser de l'argent en conservant moins de versions non actuelles ? » Avec les filtres Protection des données et Gestion des accès, vous pouvez répondre à des questions sur la sécurisation de vos données. Par exemple, « Mon stockage est-il protégé contre toute suppression accidentelle ou intentionnelle ? » Enfin, avec les filtres Performance et Évènements, vous pouvez explorer les moyens d’améliorer la performance et les flux de travail. Chacune de ces questions représente un premier niveau d'enquête qui conduirait probablement à une analyse approfondie.

Question : Quelles métriques sont disponibles dans S3 Storage Lens ?

S3 Storage Lens contient plus de 60 métriques, regroupées en métriques gratuites et métriques avancées (disponibles moyennant un coût supplémentaire). Dans le cadre des métriques gratuites, vous recevez des métriques pour analyser l'utilisation (sur la base d'un aperçu quotidien de vos objets), qui sont organisées dans les catégories suivantes : optimisation des coûts, protection des données, gestion des accès, performances et événements. Dans le cadre des métriques avancées, vous recevez des métriques liées à l'activité (telles que le nombre de requêtes), à une plus grande optimisation des coûts (telles que le nombre de règles du cycle de vie S3), à une protection supplémentaire des données (telles que le nombre de règles Replication S3) et à des codes d'état détaillés (tels que les erreurs d'autorisation 403). De plus, des métriques dérivées, combinant toutes les métriques de base, sont également fournies. Par exemple, la métrique « Taux de récupération » est calculée en divisant le « Nombre d'octets téléchargés » par le « Stockage total ». Pour obtenir la liste complète des métriques, reportez-vous à la documentation de S3 Storage Lens.

Q : Quelles sont les options de configuration de mon tableau de bord ?

Un tableau de bord par défaut est configuré automatiquement pour l'ensemble de votre compte, et vous avez la possibilité de créer des tableaux de bord personnalisés supplémentaires qui peuvent être étendus à votre organisation AWS, à des régions spécifiques ou à des compartiments au sein d'un compte. Vous pouvez configurer plusieurs tableaux de bord personnalisés. Cela peut être utile si vous avez besoin d'une séparation logique dans votre analyse de stockage, telle que la segmentation sur des compartiments pour représenter diverses équipes internes. Par défaut, votre tableau de bord recevra gratuitement des métriques de S3 Storage Lens, mais vous avez la possibilité d'effectuer une mise à niveau pour recevoir les métriques et recommandations avancées de S3 Storage Lens (moyennant un coût supplémentaire). Les métriques avancées de S3 Storage Lens ont 7 options distinctes : métriques d'activité, métriques d'optimisation avancée des coûts, métriques de protection avancée des données, métriques de code d'état détaillé, agrégation de préfixes, publication CloudWatch et agrégation de groupes Storage Lens. En outre, pour chaque tableau de bord, vous pouvez activer l'exportation des métriques, avec des options supplémentaires pour spécifier le compartiment de destination et le type de chiffrement.

Question : Quelle est la quantité de données d'historique disponible dans S3 Storage Lens ?

Pour les métriques affichées dans le tableau de bord interactif, les métriques gratuites de Storage Lens conservent 14 jours d’historique de données, et les métriques avancées (disponibles moyennant un coût supplémentaire) conservent 15 mois d’historique de données. Pour l'exportation de métriques facultative, vous pouvez configurer la période de conservation de votre choix. Des frais de stockage S3 standard s'appliquent.

Question : Comment S3 Storage Lens me sera-t-il facturé ?

S3 Storage Lens propose deux niveaux de métriques. Les métriques gratuites sont activées par défaut et disponibles sans frais supplémentaires pour tous les clients S3. Les prix détaillés des métriques et recommandations avancées de S3 Storage Lens sont disponibles sur la page de tarification de S3. Avec les métriques gratuites de S3 Storage Lens, vous recevez 28 métriques d'utilisation au niveau du compartiment et vous pouvez accéder à 14 jours d’historique de données dans le tableau de bord. Avec les métriques et recommandations avancées de S3 Storage Lens, vous recevez 35 métriques additionnelles, l’agrégation au niveau du préfixe, la prise en charge des métriques CloudWatch d'un filtrage personnalisé des métadonnées des objets avec les groupes S3 Storage Lens, et vous pouvez accéder à 15 mois de données historiques dans le tableau de bord.

Question : Quelle est la différence entre S3 Storage Lens et S3 Inventory ?

S3 Inventory fournit une liste de vos objets et leurs métadonnées correspondantes pour un compartiment S3 ou un préfixe partagé, qui peuvent être utilisés pour effectuer une analyse de votre stockage au niveau de l'objet. S3 Storage Lens fournit des métriques agrégées par organisation, compte, région, classe de stockage, compartiment, préfixe,et les niveaux de groupe S3 Storage Lens, qui améliorent la visibilité de votre stockage à l'échelle de l'entreprise.

Question : Quelle est la différence entre S3 Storage Lens et S3 Storage Class Analysis (SCA) ?

S3 Storage Class Analysis fournit des recommandations pour une classe de stockage optimale en créant des groupes d'âges d'objet basés sur des modèles d'accès au niveau de l'objet dans un compartiment / préfixe / balise pour les 30 à 90 jours précédents. S3 Storage Lens fournit des recommandations quotidiennes au niveau organisationnel sur les moyens d'améliorer l’optimisation des coûts et d'appliquer les bonnes pratiques de protection des données, avec des recommandations granulaires supplémentaires par compte, région, classe de stockage, compartiment, S3 Storage Lens group, ou préfixe (disponible avec les métriques S3 Storage Lens avancées). Vous pouvez également utiliser des filtres personnalisés avec les groupes S3 Storage Lens pour visualiser votre stockage en fonction de l'âge de l'objet et orienter votre stratégie d'archivage du stockage.

Analyse des classes de stockage

Question : Qu'est-ce que la fonction d'analyse des classes de stockage ?

Avec la fonction d'analyse des classes de stockage, vous pouvez analyser les modèles d'accès au stockage afin de déterminer la classe de stockage la mieux adaptée à votre stockage. Cette fonctionnalité d'analyse S3 détecte automatiquement les modèles d'accès peu fréquents pour vous aider à transférer vos données vers la classe de stockage S3 standard – Accès peu fréquent. Vous pouvez configurer une stratégie d'analyse des classes de stockage de façon à surveiller un compartiment complet, un préfixe ou une balise d'objet. Lorsqu'un modèle d'accès peu fréquent est observé, vous pouvez facilement créer une nouvelle stratégie de cycle de vie S3 en fonction des résultats. La fonction d'analyse des classes de stockage vous fournit également des affichages quotidiens sur votre utilisation du stockage dans la console de gestion AWS. Vous pouvez également exporter un rapport vers un compartiment S3 afin de l'analyser à l'aide des outils d'informatique décisionnelle de votre choix tels qu'Amazon QuickSight.

Pour en savoir plus et démarrer, visitez le guide de l'utilisateur d'analyse des classes de stockage S3.

Question : À quelle fréquence la fonction d'analyse des classes de stockage est-elle mise à jour ?

L'analyse des classes de stockage est mise à jour quotidiennement dans la console de gestion S3, mais les recommandations initiales pour les transitions de classes de stockage sont données après 30 jours.

Exécution de requêtes sur place

Question : Qu'est-ce que la fonctionnalité « Exécution de requêtes sur place » ?

Amazon S3 permet aux clients d’exécuter des requêtes avancées sur les données stockées sans devoir déplacer ces dernières dans une plate-forme analytique distincte. La capacité à effectuer des requêtes sur place sur ces données dans Amazon S3 peut améliorer considérablement les performances et réduire les coûts pour les solutions analytiques utilisant S3 en tant que lac de données. S3 propose plusieurs options d’exécution de requêtes sur place, notamment Amazon Athena et Amazon Redshift Spectrum. Vous pouvez ainsi choisir celle qui s’adapte le mieux à votre cas.

Q : Comment puis-je interroger mes données dans Amazon S3 ?

Il existe plusieurs manières d’interroger vos données dans S3, en fonction de votre cas d’utilisation spécifique. Utilisez le filtrage côté client pour télécharger un objet Amazon S3 sur votre ordinateur AWS et filtrez le contenu à l’aide des bibliothèques d’analyse de données de votre application cliente. Par exemple, dans une application Python qui interroge des objets Parquet dans Amazon S3, vous pouvez utiliser l’API GET d’Amazon S3 pour télécharger l’objet et filtrer le contenu à l’aide de la bibliothèque « Pandas ». Utilisez Amazon Athena pour traiter plusieurs objets S3 en une seule requête ou utilisez même des opérations de jointure et des fonctions de fenêtre pour interroger vos objets S3. Utilisez S3 Object Lambda en ajoutant votre propre code aux requêtes S3 GET pour filtrer les données lorsqu’elles sont renvoyées à une application. Vous devez utiliser S3 Object Lambda si vous souhaitez ajouter des transformations tout en filtrant les données.

Lisez le Article de blog pour en savoir plus sur ces méthodes d’interrogation de vos données dans Amazon S3.

Q : Qu’est-ce qu’Amazon Athena ?

Amazon Athena est un service de requêtes interactif qui facilite l'analyse des données dans Amazon S3 grâce aux requêtes SQL standard. Athena ne requiert aucun serveur, et vous pouvez commencer à analyser les données immédiatement, sans avoir à configurer ni gérer d'infrastructure. Vous n'avez même pas à charger vos données dans Athena, car le service fonctionne directement avec les données stockées dans une classe de stockage S3. Pour démarrer, connectez-vous à la console de gestion Athena, définissez votre schéma et lancez la requête. Amazon Athena utilise Presto, avec la prise en charge complète de la syntaxe SQL standard, et fonctionne avec de nombreux formats de données tels que CSV, JSON, ORC, Apache Parquet et Avro. Athena est la solution idéale pour exécuter des requêtes ponctuelles rapides et s'intègre à Amazon QuickSight pour faciliter l'affichage des données? Il peut également gérer des analyses complexes, et notamment des jonctions, des fonctions de fenêtrage et des tableaux.

Question : Qu'est-ce qu'Amazon Redshift Spectrum ?

Amazon Redshift Spectrum est une fonction d'Amazon Redshift qui vous permet d'exécuter des requêtes sur des exaoctets de données non structurées dans Amazon S3, sans qu'aucun chargement ou opération ETL soit requis. Lorsque vous envoyez une requête, elle est dirigée vers le point de terminaison SQL d'Amazon Redshift, qui génère et optimise un plan de requête. Amazon Redshift détermine quelles données sont stockées en local ou dans Amazon S3, génère un plan pour réduire le volume des données Amazon S3 qui doivent être lues et demande à des programmes d'exécution Amazon Redshift Spectrum au sein d'un groupe de ressources partagées de lire et traiter les données en provenance d'Amazon S3.

Le cas échéant, Redshift Spectrum déploie des milliers d'instances pour que les requêtes soient exécutées rapidement, quel que soit le volume de données. Par ailleurs, vous pouvez utiliser exactement la même syntaxe SQL pour les données d'Amazon S3 que celle que vous utilisez actuellement pour vos requêtes Amazon Redshift, et vous connecter au même point de terminaison Amazon Redshift à l'aide des mêmes outils d'informatique décisionnelle. Redshift Spectrum vous permet de séparer les ressources de stockage et de calcul, et de les mettre à l'échelle indépendamment les unes des autres. Vous pouvez configurer autant de clusters Amazon Redshift que nécessaire afin de lancer des demandes sur votre lac de données Amazon S3, profitant ainsi de la haute disponibilité et de la simultanéité illimitée. Redshift Spectrum vous permet de stocker les données où vous le souhaitez, dans n'importe quel format et prêtes à être traitées quand vous en avez besoin.

Réplication

Q : qu'est-ce que la réplication Amazon S3 ?

La réplication Amazon S3 permet la copie automatique et asynchrone d'objets dans les compartiments Amazon S3. Les compartiments configurés pour la réplication d'objets peuvent appartenir au même compte AWS ou à des comptes différents. Vous pouvez répliquer de nouveaux objets écrits dans le compartiment sur un ou plusieurs compartiments de destination entre différentes Régions AWS (réplication entre Régions S3) ou au sein de la même Région AWS (réplication dans la même région S3). Vous pouvez également répliquer le contenu existant de compartiments (réplication par lots S3), y compris des objets existants, des objets dont la réplication a précédemment échoué et des objets répliqués à partir d'une autre source. Pour en savoir plus, consultez le guide de l'utilisateur de la réplication S3.

Question : Qu'est-ce que la réplication entre régions Amazon S3 (CRR) ?

La réplication entre régions (CRR) est une fonctionnalité Amazon S3 qui réplique automatiquement les données entre des compartiments de régions AWS différentes. Avec la réplication entre régions, vous pouvez configurer la réplication au niveau d'un compartiment, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous pouvez utiliser cette fonctionnalité pour fournir un accès aux données à latence plus faible dans diverses régions géographiques. La réplication entre régions peut également être utile si vous devez répondre aux exigences de conformité concernant le stockage de copies de données à plusieurs centaines de kilomètres l'une de l'autre. La fonctionnalité CRR permet de changer de propriétaire de compte pour les objets répliqués afin de protéger les données contre une suppression accidentelle. Pour en savoir plus, consultez le guide de l'utilisateur de la CRR S3.

Q : Qu'est-ce que la réplication dans la même Région (SRR) Amazon S3 ?

La réplication dans la même Région (SRR) est une fonction Amazon S3 qui réplique automatiquement les données entre des compartiments de la même Région AWS. Avec SRR, vous pouvez configurer la réplication au niveau d'un compartiment, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous pouvez utiliser SRR pour créer une ou plusieurs copies de vos données dans la même région AWS. SRR vous aide à répondre aux exigences de souveraineté et de conformité des données en conservant une copie de vos données dans un compte AWS distinct dans la même région que l'original. Cette fonctionnalité permet de changer de propriétaire de compte pour les objets répliqués afin de protéger les données contre une suppression accidentelle. Vous pouvez également utiliser SRR pour agréger aisément les journaux de différents compartiments S3 pour le traitement dans la région ou pour configurer la réplication dynamique entre les environnements de test et de développement. Pour en savoir plus, consultez le guide de l'utilisateur de la SRR S3.

Q : Qu'est-ce que la réplication par lots Amazon S3 ?

La réplication par lots Amazon S3 effectue la réplication d'objets existants entre des compartiments. Vous pouvez utiliser la réplication par lots S3 pour remplir un compartiment nouvellement créé avec des objets existants, réessayer la réplication d'objets qui a précédemment échoué, migrer des données entre comptes ou ajouter de nouveaux compartiments à votre lac de données. Vous pouvez commencer à utiliser la réplication par lots S3 en quelques clics dans la console S3 ou à l'aide d'une simple requête API. Pour en savoir plus, consultez le guide de l'utilisateur de la réplication par lots S3.

Q : Comment activer la réplication Amazon S3 (réplication entre Régions et réplication dans la même Région) ?

La réplication Amazon S3 (CRR et SRR) est configurée au niveau d'un compartiment S3, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous devez ajouter une configuration de réplication sur votre compartiment source en spécifiant un compartiment de destination dans une autre région ou la même région AWS pour la réplication.

Vous pouvez utiliser la console S3, l'API, la CLI AWS, les kits SDK AWS ou AWS CloudFormation pour activer la réplication. La gestion des versions doit être activée sur les compartiments source et de destination pour permettre la réplication. Pour en savoir plus, référez-vous à la section Présentation de la configuration de la réplication S3 dans la documentation d'Amazon S3.

Q : Comment utiliser la réplication par lots S3 ?

Vous devez d'abord activer la réplication S3 au niveau du compartiment. Référez-vous à la question précédente pour savoir comment faire. Ensuite, vous pouvez initier une tâche de réplication par lots S3 dans la console S3 après avoir créé une nouvelle configuration de réplication ou remplacé une destination de réplication dans une règle de réplication sur la page de configuration de la réplication, ou à partir de la page de création de tâche de S3 Batch Operations. Vous pouvez également initier des tâches de réplication par lots S3 en utilisant la CLI ou les kits SDK AWS. Pour en savoir plus, référez-vous à la section Réplication S3 de la documentation d'Amazon S3.

Q : Puis-je utiliser la réplication S3 avec les règles de cycle de vie S3 ?

Avec la réplication S3, vous pouvez établir des règles de réplication pour créer des copies de vos objets dans une autre classe de stockage, dans la même Région ou dans une autre. Les actions du cycle de vie ne sont pas répliquées. Si vous voulez que la même configuration du cycle de vie soit appliquée aux compartiments source et de destination, vous devez activer la même configuration du cycle de vie sur les deux compartiments. 

Par exemple, vous pouvez configurer une règle de cycle de vie pour faire migrer des données depuis la classe de stockage S3 Standard vers la classe de stockage S3 standard – Accès peu fréquent ou S3 unizone – Accès peu fréquent, ou pour archiver des données dans une classe de stockage S3 Glacier dans le compartiment de destination.

Si le cycle de vie S3 est configuré pour le compartiment de destination, nous vous recommandons de désactiver les règles de cycle de vie lorsque la tâche de réplication par lots est active, et ce afin de maintenir la parité entre les versions actuelles et non actuelles des objets dans les compartiments source et de destination.

Pour en savoir plus sur la configuration et la réplication du cycle de vie, référez-vous à la
documentation relative à la réplication S3.

Q : Puis-je utiliser la réplication S3 pour réaliser la réplication vers plusieurs compartiments de destination ?

Oui. S3 Replication permet aux clients de répliquer leurs données vers plusieurs compartiments de destination dans la même région AWS ou dans différentes régions AWS. Lors de la configuration, spécifiez simplement le nouveau compartiment de destination dans votre configuration de réplication existante, ou créez une configuration de réplication avec plusieurs compartiments de destination. Pour chaque nouvelle destination que vous spécifiez, vous avez la possibilité de choisir la classe de stockage du compartiment de destination, le type de chiffrement, les métriques de réplication et les notifications, le Replication Time Control (RTC) et d'autres propriétés.

Question : Puis-je utiliser S3 Replication pour configurer la réplication bidirectionnelle entre les compartiments S3 ?

Oui. Pour configurer la réplication bidirectionnelle, vous créez une règle de réplication du compartiment A vers le compartiment B et vous configurez une autre règle de réplication du compartiment B vers le compartiment A. Assurez-vous d'activer la synchronisation des modifications de réplicas sur les deux compartiments A et B afin de répliquer les modifications des métadonnées de réplicas (comme les listes de contrôle d'accès (ACL) d'objets, les identifications d'objets ou les verrouillages d'objets) sur les objets répliqués.

Q : Puis-je utiliser la réplication entre plusieurs comptes AWS afin de mettre en place une protection contre la suppression accidentelle ou malveillante ?

Oui. Pour CRR et SRR, vous pouvez configurer la réplication entre régions avec plusieurs comptes AWS afin de stocker vos données répliquées dans un autre compte situé dans la région cible. Vous pouvez utiliser le remplacement de propriété dans votre configuration de réplication pour gérer une pile de propriété distincte entre la source et la destination, et accorder la propriété du compte de destination au stockage dupliqué.

Question : Mes balises d'objet seront-elles répliquées si j'utilise la réplication entre régions ?

Les balises d'objet peuvent être répliquées d'une région AWS à l'autre grâce à la réplication entre régions. Pour les clients pour lesquels la réplication entre régions est déjà activée, de nouvelles autorisations sont nécessaires pour la réplication des balises. Pour en savoir plus sur la configuration de la réplication entre régions, référez-vous à la section Comment configurer la réplication entre régions de la documentation d'Amazon S3.

Q : Puis-je répliquer des marqueurs de suppression d'un compartiment vers un autre ?

Oui, vous pouvez répliquer les marqueurs de suppression de la source à la destination si vous avez activé la réplication des marqueurs de suppression dans votre configuration de réplication. Lorsque vous répliquez les marqueurs de suppression, Amazon S3 se comporte comme si l'objet était supprimé dans les deux compartiments. Vous pouvez activer la réplication des marqueurs de suppression pour une règle de réplication nouvelle ou existante. Vous pouvez appliquer la réplication du marqueur de suppression à l'ensemble du compartiment ou aux objets Amazon S3 qui ont un préfixe spécifique, avec des règles de réplication basées sur le préfixe. La réplication Amazon S3 ne prend pas en charge la réplication du marqueur de suppression pour les règles de réplication basées sur les balises d'objets. Pour en savoir plus sur l'activation de la réplication des marqueurs de suppression, consultez Réplication des marqueurs de suppression d'un compartiment vers un autre.

Question : Puis-je répliquer des données à partir d'autres régions AWS vers la Chine ? Un client peut-il répliquer un compartiment d'une région de Chine en dehors des régions de Chine?

Non, la réplication Amazon S3 n'est pas disponible entre les régions AWS Chine et les régions AWS en dehors de la Chine. Vous ne pouvez effectuer de réplication que dans les Régions Chine.

Q : Puis-je répliquer des objets existants ?

Oui. Vous pouvez utiliser la réplication par lots S3 pour effectuer la réplication d'objets existants entre des compartiments. Pour en savoir plus, consultez le guide de l'utilisateur S3.

Q : Puis-je réessayer la réplication d'un objet dont la réplication a précédemment échoué ?

Oui. Vous pouvez utiliser la réplication par lots S3 pour répliquer à nouveau des objets dont la réplication a précédemment échoué. Pour en savoir plus, consultez le guide de l'utilisateur S3.

Q : Quels sont les types de chiffrement pris en charge par la réplication S3 ?

La réplication S3 prend en charge tous les types de chiffrement proposés par S3. S3 offre à la fois le chiffrement côté serveur et le chiffrement côté client. Le premier demande à S3 de chiffrer les objets pour vous, et le second vous permet de chiffrer les données côté client avant de les télécharger vers S3. Pour le chiffrement côté serveur, S3 propose le chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3), le chiffrement côté serveur avec des clés KMS stockées dans AWS Key Management Service (SSE-KMS) et le chiffrement côté serveur avec des clés fournies par le client (SSE-C). Pour plus de détails sur ces types de chiffrement et leur fonctionnement, consultez la documentation S3 sur l'utilisation du chiffrement.

Q : Quelle est la tarification pour la réplication de données entre comptes ?

S3 Replication permet de configurer une réplication inter-comptes dans laquelle les compartiments source et de destination appartiennent à des comptes AWS différents. À l'exclusion du stockage S3 et des frais d'extraction applicables, les clients paient les requêtes PUT de réplication et les transferts OUT de données interrégionaux entre S3 et votre région de destination lorsqu'ils utilisent S3 Replication. Si vous avez activé S3 Replication Time Control (S3 RTC) sur vos règles de réplication, vous remarquerez un transfert OUT de données différent et des frais de requête PUT de réplication spécifiques à S3 RTC. Pour la réplication inter-comptes, le compte source paie tous les transferts de données (S3 RTC et S3 CRR) tandis que le compte de destination paie pour les requêtes PUT de réplication. Les frais de transfert de données ne s'appliquent qu'à la réplication entre Régions S3(S3 CRR) et S3 Replication Time Control (S3 RTC). Il n'y a aucuns frais de transfert de données pour la réplication dans la même Région S3 (S3 SRR). 

Si vous utilisez la réplication par lots S3 pour répliquer des objets entre comptes, vous devrez payer des frais S3 Batch Operations en plus des frais liés aux demandes PUT et au transfert de données sortantes de la réplication (notez que S3 RTC ne s'applique pas à la réplication par lots). Les frais Batch Operations comprennent les frais liés aux tâche et aux objets, qui dépendent respectivement du nombre de tâches et du nombre d'objets traités. En outre, si vous activez le manifeste généré par Amazon S3, celui-ci vous sera facturé en fonction du nombre d'objets dans le compartiment source.

Rendez-vous sur la
page de tarification Amazon S3 pour obtenir davantage de détails sur la tarification de la réplication S3.

S3 Replication Time Control

Question : Qu'est-ce que la fonction Amazon S3 Replication Time Control ?

Amazon S3 Replication Time Control offre des performances de réplication prévisibles et vous aide à répondre aux exigences de conformité ou de l'entreprise. S3 Replication Time Control est conçu pour répliquer la plupart des objets en quelques secondes, 99,99 % des objets en l'espace de 15 minutes. S3 Replication Time Control est soutenu par un Contrat de niveau de service (SLA) qui prévoit que 99,9 % des objets seront répliqués dans les 15 minutes pour chaque paire de régions durant chaque mois de facturation. Replication Time fonctionne avec toutes les fonctionnalités de réplication S3. Pour en savoir plus, référez-vous à la documentation relative à la réplication.

Q : Comment activer le contrôle du temps de réplication Amazon S3 ?

Amazon S3 Replication Time Control est proposé en tant qu'option pour chaque règle de réplication. Vous pouvez créer une nouvelle stratégie S3 Replication avec le temps de contrôle de réplication S3 ou activer cette fonctionnalité sur une politique existante. Vous pouvez utiliser la console S3, l'API, la CLI AWS, les kits SDK AWS ou AWS CloudFormation pour activer la réplication. Pour en savoir plus, consultez la sectionVue d'ensemble de la configuration de la réplication dans le Guide du développeur Amazon S3.

Q : Puis-je utiliser le contrôle de temps de réplication S3 pour répliquer les données dans les régions de Chine et entre elles ?

Oui, vous pouvez activer Amazon S3 Replication Time Control pour répliquer les données dans et entre les régions AWS Chine (Ningxia) et Chine (Pékin)

Q : Que sont les métriques et les événements de réplication Amazon S3 ?

La réplication Amazon S3 fournit quatre mesures détaillées dans la console Amazon S3 et dans Amazon CloudWatch : opérations en attente, octets en attente, latence de réplication et échec de réplication des opérations. Vous pouvez utiliser ces mesures pour surveiller le nombre total d'opérations et la taille des objets en attente de réplication, la latence de réplication entre les compartiments source et de destination et le nombre d'opérations qui n'ont pas été répliquées correctement pour chaque règle de réplication. En outre, vous pouvez configurer des notifications d'événements Amazon S3 de type S3:réplication pour obtenir plus d'informations sur les objets qui n'ont pas pu être répliqués et sur la raison de ces échecs. Nous vous recommandons d'utiliser les raisons de l'échec de la réplication Amazon S3 pour diagnostiquer rapidement les erreurs et les corriger avant de répliquer à nouveau les objets ayant échoué avec S3 Batch Replication. Si le contrôle du temps de réplication S3 (S3 RTC) est activé, vous recevez une notification d'événement S3 lorsqu'un objet prend plus de 15 minutes à se répliquer, et lorsque cet objet se réplique avec succès vers leur destination.

Q : Comment activer les métriques et événements de Réplication Amazon S3 ?

Les métriques et les événements de la réplication Amazon S3 peuvent être activés pour chaque règle de réplication nouvelle ou existante, et sont activés par défaut pour les règles du temps de contrôle de la réplication S3. Vous pouvez accéder aux métriques de la réplication S3 via la console de gestion Amazon S3 et Amazon CloudWatch. Comme les autres événements Amazon S3, les événements de réplication S3 sont disponibles au moyen d'Amazon Simple Queue Service (Amazon SQS), d'Amazon Simple Notification Service (Amazon SNS) ou d'AWS Lambda. Pour en savoir plus, consultez Surveillance de la progression avec des métriques de réplication et des notifications d'événements Amazon S3 dans le Guide du développeur Amazon S3.

Q. Quelles informations la métrique d'échec de réplication des opérations affiche-t-elle ?

La métrique d'échec de réplication indiquera le nombre total d'opérations échouant à la réplication par minute pour une règle de réplication spécifique. La métrique est actualisée toutes les minutes pour émettre +1 pour chaque opération échouée, 0 pour les opérations réussies et rien lorsqu'aucune opération de réplication n'est effectuée pendant la minute. Cette métrique est émise chaque fois qu'une opération ne se réplique pas correctement.

Q : Puis-je utiliser les mesures et les événements de réplication Amazon S3 pour suivre la réplication par lots S3 ?

Vous ne pouvez pas utiliser de mesures telles que le nombre d'octets en attente, les opérations en attente et la latence de réplication pour suivre la progression de la réplication par lots S3. Toutefois, vous pouvez utiliser la métrique d'échec de réplication des opérations pour surveiller les objets existants qui ne se répliquent pas correctement avec la réplication par lots S3. En outre, vous pouvez également utiliser les rapports d'achèvement des opérations par lots S3 pour suivre les objets répliqués avec S3 Batch Replication.

Q. Où sont publiées les métriques de réplication Amazon S3 ?

Les métriques d'octets en attente, d'opérations en attente et de latence de réplication sont publiées dans le compte AWS source et la région AWS de destination. Toutefois, la métrique d'échec de réplication des opérations est publiée dans le compte AWS source et dans la région AWS source plutôt que dans la région AWS de destination. Il y a deux raisons principales à cela. Tout d'abord, si la métrique de réplication de l'opération a échoué est publiée dans la région de destination, le client ne verra pas la métrique lorsque le compartiment de destination est configuré par erreur. Par exemple, si le client a mal saisi le nom du compartiment de destination dans la configuration de réplication et que la réplication échoue parce que le compartiment de destination est introuvable, le client ne pourra voir aucune valeur pour cette métrique car la région de destination sera inconnue lorsque le compartiment de destination n'est pas trouvé. Ensuite, si le client effectue une réplication vers une région de destination optionnelle telle que Hong Kong ou Bahreïn, en cas d'échec de réplication, le client ne verra aucune métrique si le compte source n'a pas opté pour la région de destination.

Q : Qu'est-ce que le contrat de niveau de service du contrôle du contrôle de temps de réplication Amazon S3 ?

Amazon S3 Replication Time Control est conçu pour répliquer 99,99 % de vos objets en 15 minutes, et s'accompagne d'un contrat de niveau de service (SLA). Si moins de 99,9 % de vos objets sont répliqués en 15 minutes pour chaque paire de régions de réplication au cours d'un cycle de facturation mensuel, le SLA S3 RTC prévoit un crédit de service sur tout objet dont la réplication a duré plus de 15 minutes. Le crédit de service couvre un pourcentage de tous les frais liés à la réplication associés aux objets qui n'ont pas respecté le SLA, y compris les frais RTC, la bande passante de réplication et les frais de requête, ainsi que le coût associé au stockage de votre réplica dans la région de destination dans le cycle de facturation mensuel affecté. Pour en savoir plus, consultez l'entente de niveau de service de S3 Replication Time Control.

Q : quelle est la tarification de S3 Replication et de S3 Replication Time Control ?

Pour S3 Replication (Réplication inter-régionale et Réplication au sein de la même Région), vous payez les frais S3 pour le stockage dans la classe de stockage S3 de destination sélectionnée, les frais de stockage pour la copie principale, les requêtes PUT de réplication et les frais applicables d'extraction du stockage d'accès peu fréquent. Pour l'option CRR, vous payez également pour les transferts OUT de données inter-régionaux depuis S3 vers votre région de destination. Les métriques S3 Replication sont facturées au même tarif que les métriques personnalisées Amazon CloudWatch. De plus, lorsque vous utilisez S3 Replication Time Control, vous payez également des frais de transfert de données Replication Time Control. Pour plus d'informations, reportez-vous à la page de tarification Amazon S3.

Si l'objet source est chargé à l'aide de la fonctionnalité de chargement en plusieurs composants, alors il est répliqué et l'on conserve à la fois le nombre de composants et la taille de l'objet. Par exemple, un objet de 100 Go chargé à l'aide de la fonctionnalité de chargement partitionné (800 composants de 128 Mo chacun) entraîne des frais de demandes correspondant à 802 demandes (800 demandes de chargement partitionné + 1 demande de lancement de chargement partitionné + 1 demande de fin de chargement partitionné) lors de sa réplication. Cela entraîne des frais de demandes de 0,00401 USD (802 demandes x 0,005 USD par tranche de 1 000 demandes), et (si la réplication a eu lieu entre des régions AWS différents) 2,00 USD (0,020 USD par Go transféré x 100 Go) pour le transfert inter-régional. Après la réplication, vous payez des frais de stockage pour les 100 Go en fonction de la région de destination.

Q. Comment suis-je facturé pour les métriques de réplication S3 sur Amazon CloudWatch ?

Toutes les métriques de réplication S3, y compris les octets en attente, les opérations en attente, la latence de réplication et les échecs de réplication des opérations, sont facturées au même tarif que les métriques personnalisées Amazon CloudWatch : 0,30 USD par métrique et par mois pour les 10 000 premières mesures, 0,10 USD par métrique et par mois pour les 240 000 mesures suivantes, 0,05 USD par métrique par mois pour les 750 000 mesures suivantes et 0,02 USD par métrique par mois pour plus d'un million de mesures.

Par exemple, si votre compartiment S3 comporte 100 règles de réplication avec des mesures de réplication activées pour chaque règle, vous verrez des frais Amazon CloudWatch mensuels pour 400 mesures de réplication (100 règles de réplication x 4 mesures par règle de réplication). Les frais mensuels au prorata pour ces 400 mesures seront de 120 USD (400 mesures de réplication x 0,30 USD par métrique (pour les 10 000 premières mesures)). Pour en savoir plus sur la facturation d'Amazon CloudWatch, consultez la page de tarification d'Amazon CloudWatch.

Points d'accès multi-régionaux S3

Question : Que sont les points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux Amazon S3 accélèrent les performances jusqu'à 60 % lors de l'accès à des jeux de données répliqués dans plusieurs régions AWS. Basés sur AWS Global Accelerator, les points d'accès multi-régionaux S3 prennent en compte des facteurs tels que la congestion du réseau et la localisation de l'application d'origine de la requête pour acheminer dynamiquement vos requêtes via le réseau AWS vers la copie de vos données présentant la plus faible latence. Ce routage automatique vous permet de profiter de l'infrastructure mondiale d'AWS tout en conservant une architecture d'application simple.

Question : Pourquoi devrais-je utiliser les points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux S3 accélèrent et simplifient le stockage pour vos applications multi-régionales. En acheminant dynamiquement les demandes S3 vers un jeu de données répliqués, les points d'accès multi-régionaux S3 réduisent la latence des demandes de sorte que les applications s'exécutent jusqu'à 60 % plus rapidement. Les points d'accès multi-régions S3 peuvent également vous aider à créer des applications multi-régions et multi-comptes résilientes, mieux protégées contre la suppression accidentelle ou non autorisée des données. Avec les points d'accès multi-régions S3, vous pouvez tirer parti de l'infrastructure mondiale d'AWS tout en conservant une architecture simple et indépendante des régions pour vos applications.

Question : Comment fonctionnent les points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux acheminent dynamiquement les demandes des clients vers un ou plusieurs compartiments S3 sous-jacents. Vous pouvez configurer votre point d'accès multi-régional pour qu'il achemine les demandes à travers un compartiment par région AWS, dans un maximum de 17 régions AWS. Lorsque vous créez un point d'accès multi-régional, S3 génère automatiquement un nom compatible DNS. Ce nom est utilisé comme point de terminaison global pouvant être utilisé par vos clients. Lorsque vos clients envoient des demandes à ce point de terminaison, S3 les achemine dynamiquement vers l'un des compartiments sous-jacents spécifiés dans la configuration de votre point d'accès multi-régional. Les demandes par Internet sont acheminées vers le réseau global AWS pour éviter l'encombrement des segments de réseau sur Internet, ce qui réduit la latence et la gigue du réseau tout en améliorant les performances. AWS Global Accelerator permet d'améliorer jusqu'à 60 % les performances des applications qui accèdent à S3 par Internet à travers les points d'accès multi-régionaux S3.

Pour contrôler directement ce routage, vous pouvez utiliser les points d'accès multi-régionaux S3 dans une configuration active-active ou active-passive. Dans une configuration active-passive, vous pouvez utiliser les contrôles de basculement des points d'accès S3 multi-régionaux pour lancer un basculement afin de transférer en quelques minutes le trafic des demandes d'accès aux données S3 vers la région et le compte AWS alternatifs choisis.

Dans une configuration active-active, les points d'accès multi-régionaux S3 tiennent compte de facteurs tels que la congestion du réseau et l'emplacement de l'application qui fait la demande pour acheminer dynamiquement vos demandes sur le réseau AWS vers la copie la plus proche de vos données. Les points d'accès multi-régionaux S3 acheminent vos demandes à travers l'emplacement AWS le plus proche de votre client, puis à travers le réseau privé global AWS vers S3.

Quelle que soit la configuration, les points d'accès multi-régionaux S3 vous permettent de tirer parti de l'infrastructure globale d'AWS tout en conservant une architecture d'application simple.

Q. Comment fonctionnent les contrôles de basculement des points d'accès multi-régionaux S3 ?

Par défaut, les points d'accès multi-régionaux S3 acheminent les demandes vers le compartiment sous-jacent le plus proche du client, en fonction de la latence du réseau dans une configuration active-active. Par exemple, vous pouvez configurer un point d'accès multi-régional avec des compartiments sous-jacents dans la région USA Est (Virginie du Nord) et dans la région Asie-Pacifique (Mumbai). Avec cette configuration, vos clients d'Amérique du Nord sont dirigés vers la région USA Est (Virginie du Nord), tandis que vos clients d'Asie sont dirigés vers la région Asie-Pacifique (Mumbai). Cela réduit la latence de vos demandes adressées à S3, améliorant ainsi les performances de votre application. Si vous préférez une configuration active-passive, tout le trafic des demandes de données S3 peut être acheminé par le point d'accès multi-régional S3 vers la région USA Est (Virginie du Nord) comme région active et aucun trafic ne sera acheminé vers la région Asie-Pacifique (Mumbai). S'il est nécessaire, de manière planifiée ou non, de basculer tout le trafic des demandes de données S3 vers la région Asie-Pacifique (Mumbai), vous pouvez lancer un basculement pour que la région Asie-Pacifique (Mumbai) devienne la nouvelle région active en quelques minutes. Tous les téléchargements en cours dans la région USA Est (Virginie du Nord) se poursuivent et toutes les nouvelles demandes de données S3 effectuées par le point d'accès multi-régional S3 sont acheminées vers la région Asie-Pacifique (Mumbai).

Q. Les points d'accès multi-régionaux S3 peuvent-ils fonctionner avec des compartiments appartenant à différents comptes AWS ?

Oui, vous pouvez ajouter des compartiments dans plusieurs comptes AWS à un nouveau point d'accès multi-régional S3 en saisissant les identifiants des comptes propriétaires des compartiments au moment de leur création. Si les compartiments ne sont pas déjà configurés pour la réplication entre comptes, vous pouvez alors configurer les règles de réplication entre régions S3 afin de synchroniser le contenu des compartiments entre les comptes et les régions AWS. Vos applications seront alors en mesure de demander ou d'écrire des données via le point d'accès multi-régional, point de terminaison mondial pour les comptes et les régions AWS.

Q. Comment fonctionnent les paramètres de blocage de l'accès public pour les points d'accès multi-régionaux qui couvrent plusieurs comptes AWS ?

Chaque point d'accès multi-régional S3 possède des paramètres distincts pour Amazon S3 Block Public Access. Ces paramètres fonctionnent conjointement avec les paramètres de blocage de l'accès public pour les compartiments qui sous-tendent le point d'accès multi-régional, les paramètres de blocage de l'accès public pour les comptes AWS propriétaires du point d'accès multi-régional et les paramètres de blocage de l'accès public pour les comptes AWS qui possèdent des compartiments sous-jacents.

Lorsqu’Amazon S3 autorise une demande, il applique la combinaison la plus restrictive de ces paramètres. Si les paramètres de blocage de l'accès public pour l'une de ces ressources (le point d'accès multi-régional, le compartiment sous-jacent, le compte propriétaire du point d'accès multi-régional ou le compte propriétaire du compartiment) bloquent l'accès à l'action ou à la ressource demandée, Amazon S3 rejette la demande.

Ce comportement est cohérent avec les points d'accès S3 inter-comptes. La même logique d'autorisation est appliquée lors du traitement des demandes de points d'accès S3 inter-comptes et de points S3 multirégions inter-comptes.

Question : Quelle est la différence entre la réplication interrégionale S3 (S3 CRR) et les points d'accès multi-régionaux S3 ?

La réplication interrégionale S3 (S3 CRR) et les points d'accès multi-régionaux S3 sont des fonctions complémentaires qui interagissent pour répliquer les données à travers les régions AWS, puis pour acheminer automatiquement les requêtes vers la copie répliquée avec la latence la plus faible. Les points d'accès multi-régionaux S3 vous aident à gérer les demandes entre les régions AWS, tandis que la réplication interrégionale vous permet de déplacer les données entre les régions AWS pour créer des répliques isolées. Vous utilisez les points d'accès multi-régionaux S3 et la réplication interrégionale pour créer un jeu de données multi-régional répliqué qui est adressable par un seul point de terminaison global.

Question : Combien coûtent les points d'accès multi-régionaux S3 ?

Lorsque vous utilisez un point d'accès multi-régional S3 pour acheminer des requêtes au sein d'AWS, vous payez de faibles frais de routage de données par Go pour chaque Go traité, ainsi que des frais standard pour les demandes, le stockage, le transfert de données et la réplication S3. Si votre application s'exécute en dehors d'AWS et accède à S3 via Internet, les points d'accès multi-régions S3 augmentent les performances en acheminant automatiquement vos demandes via un emplacement périphérique AWS, sur le réseau AWS privé mondial, vers la copie la plus proche de vos données en fonction de la latence d'accès. Lorsque vous accélérez des demandes effectuées sur Internet, vous payez des frais de routage des données et des frais d'accélération de l'Internet. La tarification de l'accélération de l'Internet des points d'accès multi-régionaux S3 varie selon que le client source se trouve dans la même région AWS de destination ou dans un emplacement différent, et s'ajoute à la tarification standard du transfert de données S3. Pour utiliser les contrôles de basculement des points d'accès multi-régionaux S3, vous n'avez à payer que les coûts de l'API S3 standard pour voir l'état actuel du contrôle du routage de chaque région et pour transmettre tout changement de contrôle du routage afin de lancer un basculement. Reportez-vous à la page de tarification Amazon S3 et l'onglet de transfert de données pour plus d'informations sur la tarification.

Q : Puis-je utiliser le système Requester Pays avec les points d'accès multi-régionaux S3 ?

Oui, vous pouvez configurer les compartiments sous-jacents du point d'accès multi-régional S3 pour qu'ils soient des compartiments Requester Pays. Avec Requester Pay, le demandeur paie tous les coûts associés à l'utilisation du terminal, y compris le coût des demandes et les coûts de transfert de données associés à la fois au compartiment et au point d'accès multi-régional. En général, vous souhaitez configurer vos compartiments en tant que compartiments Requester Paye si vous souhaitez partager des données sans encourir de frais liés à l'accès d'autres personnes aux données. En général, les propriétaires de compartiments paient pour tout le stockage Amazon S3 associé à leur compartiment. Pour en savoir plus, rendez-vous sur S3 Requester Pays.

Q : En quoi S3 Transfer Acceleration est-il différent des points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux S3 et S3 Transfer Acceleration offrent des avantages similaires en termes de performances. Vous pouvez utiliser S3 Transfer Acceleration pour accélérer les transferts de contenu vers et depuis Amazon S3 en utilisant le réseau global AWS. S3 Transfer Accelerator permet d'accélérer les transferts longue distance d'objets volumineux depuis et vers un seul compartiment Amazon S3. Grâce aux points d'accès multi-régionaux S3, vous pouvez effectuer des transferts accélérés similaires en utilisant le réseau global AWS, mais à travers de nombreux compartiments S3 dans plusieurs régions AWS pour les demandes Internet, VPC et sur site vers et depuis S3. Lorsque vous combinez les points d'accès multi-régionaux S3 avec la réplication croisée S3, vous offrez la possibilité aux points d'accès multi-régionaux S3 d'acheminer dynamiquement vos demandes vers la copie de vos données présentant la latence la plus faible pour les applications des clients à plusieurs endroits.

Question : Comment démarrer avec les points d'accès multi-régionaux S3 et les contrôles de basculement ?

La console S3 procure un flux de travail simple et guidé pour configurer rapidement tout ce dont vous avez besoin pour bénéficier d'un stockage multi-régions sur S3 en seulement trois étapes simples. Tout d'abord, créez un point de terminaison de point d'accès multi-régional Amazon S3 et spécifiez les régions AWS entre lesquelles vous souhaitez effectuer une réplication et un basculement. Vous pouvez ajouter des compartiments dans plusieurs comptes AWS à un nouveau point d'accès multi-régional S3 en saisissant les identifiants des comptes propriétaires des compartiments au moment de leur création. Ensuite, pour chaque région AWS et compartiment S3 derrière le point de terminaison de votre point d'accès multi-régional S3, indiquez si l'état de routage est actif ou passif, les régions AWS actives acceptant le trafic de demandes de données S3 et les régions passives n'étant pas acheminées jusqu'à ce que vous lanciez un basculement. Troisièmement, configurez vos règles de réplication entre régions S3 pour synchroniser vos données dans S3 entre les régions et/ou les comptes. Vous pouvez ensuite lancer un basculement à tout moment entre les régions AWS en quelques minutes pour transférer vos demandes de données S3 et surveiller le transfert de votre trafic S3 vers votre nouvelle région AWS active dans Amazon CloudWatch. Vous pouvez également utiliser AWS CloudFormation pour automatiser votre configuration de stockage multi-régional. Tous les éléments nécessaires à la configuration d'un stockage multi-régional sur S3, y compris les points d'accès multi-régionaux S3, sont pris en charge par CloudFormation, ce qui vous permet d'automatiser un processus de configuration reproductible en dehors de la console S3.

Traitement des données

Object Lambda

Question : Qu'est-ce que S3 Object Lambda ?

S3 Object Lambda vous permet d'intégrer votre propre code aux demandes S3 GET, LIST et HEAD afin de modifier et de traiter les données lorsqu'elles sont renvoyées vers une application. Vous pouvez modifier les données renvoyées par les requêtes S3 GET afin de filtrer les lignes, redimensionner de façon dynamique des images, supprimer des données confidentielles et bien d'autres actions. Vous pouvez également utiliser S3 Object Lambda pour modifier le résultat des requêtes S3 LIST afin de créer une vue personnalisée de tous les objets d'un compartiment et des requêtes S3 HEAD pour modifier les métadonnées des objets telles que leur nom et leur taille. S3 Object Lambda vous aide à répondre facilement aux exigences relatives aux formats de données de vos applications, sans avoir à créer et exploiter une infrastructure supplémentaire telle qu'une couche proxy, ou créer et gérer plusieurs copies dérivées de vos données. S3 Object Lambda utilise les fonctions AWS Lambda pour traiter automatiquement la sortie d'une requête S3 standard GET, LIST ou HEAD. AWS Lambda est un service de calcul sans serveur qui exécute le code défini par le client sans nécessiter de gestion des ressources de calcul sous-jacentes. 

En quelques clics seulement dans la console de gestion AWS, vous pouvez configurer une fonction Lambda et l'attacher à un point de terminaison de service S3 Object Lambda. À partir de ce stade, S3 appelle automatiquement votre fonction Lambda pour traiter les données extraites via le point de terminaison S3 Object Lambda, renvoyant un résultant transformé à l'application. Vous pouvez écrire et exécuter vos propres fonctions Lambda personnalisées, ajustant la transformation des données de S3 Object Lambda à votre cas d'utilisation spécifique.

Pour démarrer avec S3 Object Lambda, vous pouvez utiliser la console de gestion S3, le kit SDK ou l'API. Pour en savoir plus, consultez la page S3 Object Lambda ou le guide de l'utilisateur S3 Object Lambda.

Question : Pourquoi devrais-je utiliser S3 Object Lambda ?

Vous devez utiliser S3 Object Lambda si vous souhaitez traiter des données en ligne au moyen d'une requête S3 GET, LIST ou HEAD. Vous devez utiliser S3 Object Lambda pour partager une copie unique de vos données sur de nombreuses applications. Cela vous permet d'éviter de développer et de traiter une infrastructure de traitement personnalisée ou de stocker des copies dérivées de vos données. Par exemple, en utilisant S3 Object Lambda pour traiter des requêtes GET S3 normales, vous pouvez masquer les données sensibles à des fins de conformité, restructurer les données brutes à des fins de compatibilité avec les applications de machine learning, filtrer les données pour limiter l'accès au contenu spécifique au sein d'un objet S3, ou pour traiter une large gamme de cas d'utilisation supplémentaires. Désormais, vous pouvez utiliser S3 Object Lambda pour enrichir vos listes d'objets en interrogeant un index externe qui contient des métadonnées supplémentaires sur les objets, filtrer et masquer vos listes d'objets pour n'inclure que les objets ayant une balise spécifique, ou ajouter une extension de fichier à tous les noms d'objets de vos listes d'objets. Par exemple, si vous avez un compartiment S3 contenant plusieurs ensembles de données discrètes, vous pouvez utiliser S3 Object Lambda pour filtrer une réponse S3 LIST en fonction du demandeur. 

S3 Object Lambda peut être configuré en quelques clics seulement dans la console de gestion Amazon S3. Consultez le guide de l'utilisateur pour en savoir plus.

Question : Comment fonctionne S3 Object Lambda ?

S3 Object Lambda utilise les fonctions Lambda que vous avez spécifiées pour traiter la sortie d'une requête GET, LIST et HEAD. Une fois que vous avez défini une fonction Lambda pour traiter les données demandées, vous pouvez attacher cette fonction à un point d'accès S3 Object Lambda. Les requêtes GET, LIST et HEAD effectuées via un point d'accès S3 Object Lambda appelleront désormais la fonction Lambda spécifiée. Lambda récupérera ensuite l'objet S3 demandé par le client et traitera cet objet. Une fois le traitement effectué, Lambda diffusera l'objet traité vers le client qui a appelé. Consultez le guide de l'utilisateur S3 Object Lambda pour en savoir plus.

Question : Comment démarrer avec S3 Object Lambda ?

S3 Object Lambda peut être configuré de plusieurs façons. Vous pouvez configurer S3 Object Lambda dans la console S3 en accédant à l'onglet Point d'accès Object Lambda. Ensuite, créez un point d'accès S3 Object Lambda, la fonction Lambda que vous souhaitez que S3 exécute sur vos requêtes GET, LIST et HEAD et un point d'accès S3 de support. Accordez des autorisations à toutes les ressources pour interagir avec Object Lambda. Enfin, mettez à jour votre kit SDK et votre application afin d'utiliser le nouveau point d'accès S3 Object Lambda pour récupérer des données depuis S3 à l'aide du kit SDK de langage de votre choix. Vous pouvez utiliser un alias de point d'accès S3 Object Lambda lorsque vous faites des demandes. Les alias pour les points d'accès S3 Object Lambda sont générés automatiquement et sont interchangeables avec les noms de compartiments S3 pour les données accessibles via S3 Object Lambda. Pour les S3 Object Lambda Access Point existants, les alias sont automatiquement attribués et prêts à être utilisés. Vous trouverez des exemples d'implémentations de fonctions Lambda dans la documentation AWS pour vous aider à démarrer.

Vous pouvez également utiliser AWS CloudFormation pour automatiser votre configuration S3 Object Lambda. Lorsque vous utilisez le modèle AWS CloudFormation, la fonction Lambda qui est déployée dans votre compte transmettra les objets S3 à votre client ou application demandeur sans aucune modification. Vous pouvez ajouter du code personnalisé pour modifier et traiter les données lorsqu'elles sont renvoyées à une application. Pour en savoir plus, consultez le guide de l'utilisateur S3 Object Lambda.

Question : Quel type d'opérations puis-je effectuer avec S3 Object Lambda ?

Toute opération prise en charge dans une fonction Lambda est prise en charge avec S3 Object Lambda. Cela vous offre une large gamme d'options disponibles pour traiter vos requêtes. Vous alimentez votre propre fonction Lambda afin qu'elle exécute des calculs personnalisés sur des requêtes GET, LIST et HEAD, ce qui vous permet de traiter les données de manière flexible selon les besoins de votre application. Le temps de traitement Lambda maximum est de 60 secondes. Pour en savoir plus, référez-vous à la documentation S3 Object Lambda.

Q : Quels types de requêtes S3 sont pris en charge par S3 Object Lambda ?

S3 Object Lambda prend en charge les requêtes GET, LIST et HEAD. Les autres appels d'API S3 effectués vers un point d'accès S3 Object Lambda renverront la réponse d'API S3 standard. Pour en savoir plus, consultez le guide de l'utilisateur S3 Object Lambda.

Question : Que se passe-t-il lors de l'échec d'une fonction S3 Object Lambda ?

Lors de l'échec d'une fonction S3 Object Lambda, vous recevrez une réponse de requête détaillant l'échec. Comme les autres appels de fonctions Lambda, AWS surveille automatiquement les fonctions à votre place et rend compte des métriques via Amazon CloudWatch. Pour vous permettre de régler les problèmes d'échecs, Lambda enregistre toutes les requêtes traitées par votre fonction et stocke automatiquement les journaux générés par votre code avec Amazon CloudWatch Logs. Pour en savoir plus sur l'accès à CloudWatch Logs for AWS Lambda, référez-vous à la documentation CloudWatch.

Q : Est-ce que S3 Object Lambda affecte le contrat de niveau de service (SLA) de disponibilité S3 ou de durabilité S3 ?

S3 Object Lambda connecte Amazon S3, AWS Lambda et éventuellement d'autres services AWS de votre choix pour fournir des objets pertinents pour vos applications de requêtes. Tous les services AWS utilisés en lien avec S3 Object Lambda continueront d'être gouvernés par leurs contrats de niveau de service (SLA) respectifs. Par exemple, au cas où un service AWS ne respecte pas son engagement de service, vous pourrez recevoir un crédit de service, tel que décrit dans le contrat de niveau de service de ce service. La création d'un point d'accès S3 Object Lambda n'affecte pas la durabilité de vos objets. Cependant, S3 Object Lambda appelle votre fonction AWS Lambda spécifiée et vous devez vous assurer que votre fonction Lambda spécifiée est prévue et correcte. Consultez le dernier contrat de niveau de service Amazon S3 ici.

Q : combien coûte S3 Object Lambda ?

Lorsque vous utilisez S3 Object Lambda, vous payez des frais par Go pour chaque gigaoctet de données renvoyé vers vous via S3 Object Lambda. Vous êtes également facturé pour les demandes en fonction du type de requête (requêtes GET, LIST et HEAD) et les frais de calcul AWS Lambda pour la durée d'exécution de votre commande spécifiée pour traiter les données demandées. Pour consulter les informations et un exemple de tarification, consultez la page de tarification S3.

Accès aux données

Mountpoint pour Amazon S3

Q : Qu'est-ce que Mountpoint pour Amazon S3 ?

Mountpoint pour Amazon S3 est un client de fichiers open source que vous pouvez utiliser pour monter un compartiment S3 sur votre instance de calcul et y accéder en tant que système de fichiers local. Mountpoint pour Amazon S3 traduit les opérations du système de fichiers local en appels d'API REST sur des objets stockés dans Amazon S3. Avec Mountpoint pour Amazon S3, vous pouvez atteindre un débit élevé en instance unique pour terminer les tâches plus rapidement. Mountpoint pour Amazon S3 est soutenu par AWS Support. Les clients ayant accès à AWS Enterprise Support bénéficient d'une assistance technique 24 h/24 et 7 j/7 de la part des ingénieurs du support Amazon et de conseils architecturaux fournis dans le cadre de leurs cas d'utilisation. Mountpoint pour Amazon S3 fonctionne avec le système d'exploitation Linux et les services de calcul AWS tels qu'Amazon Elastic Compute Cloud (EC2). Pour en savoir plus, consultez la page Mountpoint pour Amazon S3 ou consultez le guide de l'utilisateur.

Q : Quand dois-je utiliser Mountpoint pour Amazon S3 ?

Mountpoint pour Amazon S3 est idéal pour les charges de travail de data lake gourmandes en lecture qui traitent des pétaoctets de données à l'aide d'opérations de lecture aléatoires et séquentielles sur des fichiers existants et d'opérations d'écriture séquentielles pour créer de nouveaux fichiers. Ces charges de travail écrivent à partir d'un seul nœud et ne modifient pas les données existantes dans Amazon S3. Les cas d'utilisation courants incluent la simulation de véhicules autonomes à l'échelle du pétaoctet, la formation à l'apprentissage automatique, l'analyse génomique et le rendu d'images. Ces charges de travail augmentent et diminuent rapidement et s'appuient sur l'élasticité d'Amazon S3 pour minimiser la capacité sous-utilisée et éviter les coûts liés au surprovisionnement du débit. Mountpoint pour Amazon S3 vous permet d'économiser sur les coûts de calcul en utilisant efficacement la bande passante réseau utilisée par vos instances de calcul, et en vous adaptant de manière fiable à des milliers d'instances de calcul pour des charges de travail de lacs de données de l'ordre de plusieurs pétaoctets.

Q : Quelles sont les opérations de système de fichiers prises en charge par Mountpoint pour Amazon S3 ?

Mountpoint pour Amazon S3 prend en charge les opérations de base du système de fichiers, telles que la lecture de fichiers d'une taille maximale de 5 To, l'écriture de nouveaux fichiers, la liste de fichiers existants et la création et la liste de répertoires. Mountpoint pour Amazon S3 ne prend pas en charge la modification de fichiers existants ni la suppression de répertoires existants. Grâce à ces opérations, Mountpoint pour Amazon S3 est idéal pour les applications qui lisent et écrivent des données à haut débit dans les lacs de données Amazon S3. Il ne convient pas aux applications qui nécessitent une collaboration et une coordination entre plusieurs instances de calcul ou utilisateurs. Ces applications ont généralement besoin de fonctionnalités de système de fichiers partagé, telles que l'ajout à des fichiers existants et le verrouillage de fichiers. Vous pouvez utiliser Amazon FSx for Lustre pour les applications de lac de données qui nécessitent une sémantique POSIX et des fonctionnalités de système de fichiers partagés.

Q : Comment démarrer avec Mountpoint pour Amazon S3 ?

Vous pouvez commencer à utiliser Mountpoint pour Amazon S3 en montant un compartiment S3 dans un répertoire local de votre instance de calcul en suivant les instructions fournies dans la documentation. Une fois que vous avez monté le compartiment S3 dans un répertoire local, vos applications peuvent accéder aux objets S3 sous forme de fichiers disponibles localement sur leur instance de calcul. Mountpoint pour Amazon S3 prend en charge les opérations de lecture séquentielles et aléatoires sur les objets Amazon S3 existants et prend en charge les écritures séquentielles pour les nouveaux objets. Vous devriez lire la documentation sémantique de Mountpoint pour Amazon S3 pour plus de détails sur les opérations de système de fichiers prises en charge. Vous pouvez utiliser Mountpoint pour Amazon S3 pour accéder aux objets de toutes les classes de stockage S3, à l'exception des objets de S3 Glacier Flexible Retrieval, de S3 Glacier Deep Archive et des objets du niveau Archive Access et du niveau Deep Archive Access de S3 Intelligent-Tiering.

Q : Comment suis-je facturé pour Mountpoint pour Amazon S3 ?

L'utilisation de Mountpoint pour Amazon S3 est gratuite. Vous payez pour les requêtes d'API S3 telles que les requêtes GET, PUT et LIST effectuées par Mountpoint pour Amazon S3 lorsque vous exécutez des opérations de système de fichiers telles que des opérations de lecture de fichiers, d'écriture de fichiers et de liste de répertoires. Pour connaître les tarifs des demandes S3, veuillez consulter la page de tarification.

Q : Quelles performances puis-je attendre de Mountpoint pour Amazon S3 ?

Mountpoint pour Amazon S3 offre les mêmes performances que les kits SDK AWS. Cela signifie que les applications Data Lake obtiennent des taux de transfert élevés en instance unique, en utilisant efficacement la bande passante réseau disponible sur leur instance Amazon EC2. Pour atteindre un débit encore plus élevé, ces applications peuvent agréger le débit de plusieurs instances pour obtenir plusieurs To/s.

Q : Comment puis-je contrôler l'accès à mes données lorsque j'utilise Mountpoint pour Amazon S3 ?

Lorsque vous utilisez Mountpoint pour Amazon S3, vous pouvez contrôler l'accès à vos données à l'aide des mécanismes de contrôle d'accès existants d'Amazon S3, notamment les politiques de compartiment et les politiques AWS Identity and Access Management (IAM). Mountpoint pour Amazon S3 traduit les opérations du système de fichiers, telles que la lecture et l'écriture, en requêtes d'API d'objets envoyées à votre compartiment S3. Amazon S3 évalue ensuite toutes les politiques pertinentes, telles que celles relatives à l'utilisateur et au compartiment, afin de décider d'autoriser ou non la demande. Mountpoint pour Amazon S3 n'introduit pas de nouveaux mécanismes de contrôle d'accès.

Q : Est-ce que Mountpoint pour Amazon S3 prend en charge les métadonnées de type POSIX, telles que l'ID utilisateur, l'ID de groupe et les champs d'autorisation ?

Mountpoint pour Amazon S3 ne prend pas en charge la lecture ou l'écriture de métadonnées de type POSIX, telles que l'ID utilisateur, l'ID de groupe et les champs d'autorisation. Vous pouvez utiliser Amazon FSx for Lustre avec Amazon S3 ou AWS DataSync pour stocker des métadonnées de style POSIX pour les objets S3.

Q : Est-ce que Mountpoint pour Amazon S3 prend en charge l'accès via AWS PrivateLink ?

Oui, Mountpoint pour Amazon S3 prend en charge l'accès via AWS PrivateLink. AWS PrivateLink for S3 offre une connectivité privée entre Amazon S3 et les instances sur site. Vous pouvez provisionner des points de terminaison d'un VPC d'interface pour S3 dans votre VPC, afin de connecter vos applications sur site directement à S3, avec AWS Direct Connect ou AWS VPN.

Q : Est-ce que Mountpoint pour Amazon S3 prend en charge l'accès via les points de terminaison VPC de passerelle ?

Oui, Mountpoint pour Amazon S3 prend en charge l'accès via les points de terminaison VPC de passerelle. Nous vous recommandons d'utiliser les points de terminaison VPC de l'interface AWS PrivateLink pour accéder à S3 depuis votre site ou depuis un VPC situé dans une autre région AWS. Pour les ressources qui accèdent à S3 depuis un VPC situé dans la même région AWS que votre compartiment S3, nous vous recommandons d'utiliser des points de terminaison d'un VPC de passerelle, car ils ne sont pas facturés.

Q : Puis-je accéder à Amazon S3 depuis des pods Amazon Elastic Kubernetes Service (Amazon EKS) ?

Oui, vous pouvez accéder à Amazon S3 depuis Amazon EKS à l'aide du kit SDK AWS et de l'interface de ligne de commande AWS. Pour les applications qui utilisent une interface de système de fichiers pour lire et écrire des données, vous pouvez utiliser le pilote CSI (Container Storage Interface) Mountpoint pour Amazon S3. Avec le pilote CSI Mountpoint pour Amazon S3, vous pouvez atteindre des niveaux élevés de débit agrégé (jusqu'à plusieurs térabits par seconde) sans modifier une seule ligne de code d'application ni votre modèle d'autorisation. Comme Mountpoint pour Amazon S3, le pilote CSI S3 prend en charge les opérations de lecture séquentielles et aléatoires sur les fichiers existants ainsi que les opérations d'écriture séquentielles pour créer de nouveaux fichiers. Pour en savoir plus sur les opérations de système de fichiers prises en charge, consultez le document sur le comportement du système de fichiers Mountpoint pour Amazon S3. Vous pouvez installer, configurer et mettre à jour le pilote CSI Mountpoint pour Amazon S3 en quelques clics dans la console EKS, l’interface de ligne de commande AWS CLI, l’API EKS ou AWS CloudFormation. Pour en savoir plus, consultez la page GitHub du pilote CSI de Mountpoint pour Amazon S3.

Q : Quels types de mise en cache sont pris en charge par Mountpoint pour Amazon S3 ?

Mountpoint pour Amazon S3 prend en charge différents types de mise en cache de lecture auxquels vous pouvez opter pour accélérer les demandes de lecture répétées. Tout d'abord, vous pouvez utiliser un cache local dans le stockage de votre instance Amazon EC2 ou dans un volume Amazon EBS. Vous devez activer le cache local si vous lisez à plusieurs reprises les mêmes données à partir de la même instance de calcul et si vous avez de l'espace inutilisé dans le stockage de votre instance locale pour l'ensemble de données lu à plusieurs reprises. Ensuite, vous pouvez utiliser un cache partagé sur S3 Express One Zone. Vous devez activer le cache partagé si vous lisez à plusieurs reprises de petits objets provenant de plusieurs instances de calcul ou si vous ne connaissez pas la taille du jeu de données que vous lisez à plusieurs reprises et souhaitez bénéficier de l'élasticité de la taille du cache. Une fois que vous vous êtes inscrit, Mountpoint pour Amazon S3 conserve les objets d'une taille maximale d'un mégaoctet dans un compartiment de répertoire S3 qui utilise S3 Express One Zone. Enfin, vous pouvez opter pour un cache local et un cache partagé conjointement si vous avez de l'espace inutilisé dans votre cache local, mais si vous souhaitez également un cache partagé entre plusieurs instances. Pour en savoir plus sur les configurations de mise en cache et les principaux aspects à prendre en compte, consultez notre documentation sur GitHub.

Prêt à vous lancer ?

Contrôlez les fonctions du produit

En savoir plus sur les fonctions de gestion des données, de sécurité, de gestion des accès, d'analyse, et plus encore.

En savoir plus 
Créer gratuitement un compte

Accédez instantanément à l'offre gratuite AWS et commencez à explorer Amazon S3. 

S'inscrire 
Commencez à créer sur la console

Commencez à créer sur la console AWS avec Amazon S3.

Prise en main